Sie sind auf Seite 1von 688

Olaf Dössel, Thorsten M.

Buzug
Biomedizinische Technik – Medizinische Bildgebung
Studium
Biomedizinische Technik

|
Herausgegeben von
Ute Morgenstern und Marc Kraft
Olaf Dössel, Thorsten M. Buzug
Biomedizinische
Technik – Medizinische
Bildgebung

|
Band 7
Herausgeber
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT)
Institut für Biomedizinische Technik
Fritz-Haber-Weg 1
76131 Karlsruhe
E-Mail: olaf.doessel@kit.edu
www.ibt.kit.edu

Prof. Dr. rer. nat. Thorsten M. Buzug


Universität zu Lübeck
Institut für Medizintechnik
Ratzeburger Allee 160
23538 Lübeck
E-Mail: buzug@imt.uni-luebeck.de
www.imt.uni-luebeck.de
ISBN 978-3-11-025205-7
e-ISBN 978-3-11-025214-9

Library of Congress Cataloging-in-Publication Data


A CIP catalog record for this book has been applied for at the Library of Congress.

Bibliografische Information der Deutschen Nationalbibliothek


Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen
Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über
http://dnb.dnb.de abrufbar.

Der Verlag hat für die Wiedergabe aller in diesem Buch enthaltenen Informationen (Programme,
Verfahren, Mengen, Dosierungen, Applikationen etc.) mit Autoren bzw. Herausgebern große Mühe
darauf verwandt, diese Angaben genau entsprechend dem Wissensstand bei Fertigstellung des
Werkes abzudrucken. Trotz sorgfältiger Manuskriptherstellung und Korrektur des Satzes können
Fehler nicht ganz ausgeschlossen werden. Autoren bzw. Herausgeber und Verlag übernehmen
infolgedessen keine Verantwortung und keine daraus folgende oder sonstige Haftung, die auf
irgendeine Art aus der Benutzung der in dem Werk enthaltenen Informationen oder Teilen davon
entsteht.

Die Wiedergabe der Gebrauchsnamen, Handelsnamen, Warenbezeichnungen und dergleichen in


diesem Buch berechtigt nicht zu der Annahme, dass solche Namen ohne weiteres von jedermann
benutzt werden dürfen. Vielmehr handelt es sich häufig um gesetzlich geschützte, eingetragene
Warenzeichen, auch wenn sie nicht eigens als solche gekennzeichnet sind.

© 2014 Walter de Gruyter GmbH, Berlin/Boston


Satz: le-tex publishing services GmbH, Leipzig,
Grafik: Dr. Martin Lay, Breisach
Druck und Weiterverarbeitung: Hubert & Co., Göttingen
Einbandabbildung: Hemera Technologies, AbleStock/GettyImages
♾ Gedruckt auf säurefreiem Papier
Printed in Germany

www.degruyter.com
Vorwort zur Lehrbuchreihe Biomedizinische Technik
Die Biomedizinische Technik umfasst die Bereitstellung und Anwendung ingenieur-
und naturwissenschaftlicher Mittel und Methoden auf lebende Systeme in Biologie
und Medizin. Es ist ein faszinierendes, breit angelegtes und interdisziplinäres Fach-
gebiet, das in der Lehrbuchreihe „Biomedizinische Technik“ aus unterschiedlichen
Blickwinkeln betrachtet wird. Mit diesem Band halten Sie einen der Fachbände der
Reihe Biomedizinische Technik in den Händen, der sich mit den Grundlagen der Me-
dizinischen Bildgebung befasst – einem wesentlichen Teilgebiet, um Informationen
vom Patienten oder lebenden Systemen zu erfassen, aufzubereiten und dem Arzt und
Forscher zu präsentieren.
Die medizinische Bildgebung ist neben der Aufnahme, Verarbeitung und Prä-
sentation von Biosignalen als wichtiges diagnostisches Verfahren etabliert. Technik
zur Bildgebung unterstützt den Arzt dabei, die therapievorbereitende Diagnose für
einen Erkrankten zu erstellen, und den Forscher, neue Erkenntnisse über Struktur
und Funktion des menschlichen Organismus zu gewinnen. Verfahren der Bildge-
bung stellen zur Unterstützung und Ergänzung des menschlichen Sehvermögens
eine ganz wesentliche technische Assistenz im Rahmen der Biomedizinischen Tech-
nik dar. Zuerst gab es Zeichnungen und Modelle als Abbildungen der Realität in
Lehrbüchern und wissenschaftlichen Abhandlungen. Dann folgten technische Mittel
zur Unterstützung unzulänglicher Sehfunktion des Betrachters (Linse, Mikroskop
zur Strukturvergrößerung), später hielten Fotografie und Videografie in die Medi-
zin Einzug. Der Wunsch, auch Dinge zu sehen, die von außen nicht sichtbar sind,
führte zur Entwicklung endoskopischer Technik, die Informationen aus dem In-
nern des Körpers über Körperöffnungen zugänglich macht. 1895 gelang es Wilhelm
Conrad Röntgen eher zufällig, mit der Röntgentechnik eine völlig neue Ära der
Bildgebung zu eröffnen. Multimodale tomographische Verfahren haben sich inzwi-
schen daraus entwickelt. Standardisierte Systeme und Datenformate und effektive
Verarbeitungs-, Rekonstruktions-, Navigations- und Kompressionsverfahren ermög-
lichen einen großen Informationsgewinn über das Untersuchungsobjekt. Vielfältige
technische Präsentationsmöglichkeiten für die gewonnenen Bilddaten unterstützen
den Arzt bei der Entscheidungsfindung. Im Rahmen der Biomedizinischen Technik
findet man heute eine breite Palette der Bildgebung von miniaturisierten Kameras
zur Darminspektion bis hin zu den bildgebenden Großgeräten für hochaufgelöste
Ganzkörperuntersuchungen. Im Band „Medizinische Bildgebung“ werden die physi-
kalischen Grundlagen der Verfahren dargelegt, Verarbeitungsalgorithmen erläutert,
die (medizinisch motivierten) Zielstellungen und Gütekriterien erläutert und die
technischen Randbedingungen definiert.
Weitere Aspekte der Biomedizinischen Technik finden Sie in den anderen Bänden der
Lehrbuchreihe.
VI | Vorwort zur Lehrbuchreihe Biomedizinische Technik

Spannende Fragen, die in den Lehrbüchern beantwortet werden:

Welche Informationen über den Gesundheitszustand des


Patienten und sein Umfeld werden den behandelnden
Fachärzten, der Versicherung oder einer Selbsthilfegruppe
im Internet preisgegeben?
Lassen sich bei einer telemedizinischen Operation
Informationen mit vielfältigen Datenformaten über lange
Übertragungsstrecken zuverlässig, schnell, sicher und
verlustfrei übertragen?
Kann mein persönlicher Assistenzroboter mir eine Mahlzeit
angepasst an meine Blutglukosewerte zubereiten?

Was ist zu tun, um präoperativ erfasste


Computertomographiebilder mit dem Mikroskopbild
während einer Hirnoperation zu überlagern?
Übertrumpft ein vorprogrammiertes Robotersystem den
„Knopfloch-Chirurgen“?
Lassen sich räumliche Bilddaten ferngesteuert ohne direkte
Sicht aus dem Körperinneren erfassen und dreidimensional
darstellen?

Kann man die nötige „Verkabelung“ des Patienten im


Schlaflabor durch geschickte Auswertung von Videodaten
vermindern?
Mit welcher Wahrscheinlichkeit lässt sich anhand weniger
detektierter Biomarkermoleküle eine Tumorbildung
vorhersagen?
Wie ergänzen die erfassten Zeitverläufe von Biosignalen und
tomographische Bilder einander bei einer
Herzkatheterisierung?

Abbildungen: Biomedizinische Technik. Von oben nach unten: Telemedizinisches Beratungssystem;


Operation mit bildgestützter Navigation; Monitoring von Vitalparametern im Schlaflabor.
Vorwort zur Lehrbuchreihe Biomedizinische Technik | VII

Wenn Sie an Antworten auf diese und weitere Fragen interessiert sind, dann lesen Sie
weiter!
Experten aus allen Bereichen haben in den zwölf Banden der Reihe eine in sich
stimmige systematische Darstellung der Biomedizinischen Technik komponiert: Aus-
gehend vom einführenden strukturierten Überblick werden über die medizinischen,
physikalischen, terminologischen und methodischen Grundlagen in den Fachbän-
den der Reihe die wesentlichen Teilgebiete dargestellt. Den Abschluss bildet ein Band
zur Entwicklung und Bewirtschaftung von Medizinprodukten, mit dem die Brücke
vom theoretischen Hintergrund der biomedizintechnischen Verfahren und Geräte zur
praktischen klinischen Nutzung geschlagen wird.

Die Herausgeberschaft der Reihe liegt im Fachausschuss „Aus- und Weiterbildung


Biomedizinische Technik im Studium“ der Deutschen Gesellschaft für Biomedizini-
sche Technik (DGBMT) im Verband der Elektrotechnik Elektronik Informationstechnik
(VDE).

Die jeweiligen Bandherausgeber bilden den Wissenschaftlichen Beirat der Lehrbuch-


reihe, der auf ausgewogene Darstellung der Biomedizinischen Technik aus wissen-
schaftstheoretischer, Anwender- und Herstellersicht achtet. Die Autoren vertreten ei-
ne Vielfalt unterschiedlicher Aspekte aus der Lehre, der Forschung und Entwicklung,
der Produktion, der Klinik, dem Standardisierungs- und Prüfwesen sowie der Gesund-
heitswirtschaft.
VIII | Vorwort zur Lehrbuchreihe Biomedizinische Technik

Die 12 Bände der Lehrbuchreihe im Überblick

Biomedizinische Technik
Band 1: Faszination, Einführung, Überblick
Herausgegeben von Ute Morgenstern und Marc Kraft
ISBN: 978-3-11-025198-2
e-ISBN: 978-3-11-025218-7

Biomedizinische Technik
Band 2: Physikalische, medizinische und terminologische Grundlagen
Herausgegeben von Ewald Konecny und Clemens Bulitta
ISBN: 978-3-11-025200-2
e-ISBN: 978-3-11-025219-4

Biomedizinische Technik
Band 3: Biomaterialien, Implantate und Tissue Engineering
Herausgegeben von Birgit Glasmacher und Gerald H. Urban
ISBN: 978-3-11-025201-3
e-ISBN: 978-3-11-025216-3

Biomedizinische Technik
Band 4: Modellierung und Simulation
Herausgegeben von Ute Morgenstern, Falk Uhlemann und Tilo Winkler
ISBN: 978-3-11-025202-6
e-ISBN: 978-3-11-025224-8

Biomedizinische Technik
Band 5: Biosignale und Monitoring
Herausgegeben von Gerald H. Urban und Harald Malberg
ISBN: 978-3-11-025203
e-ISBN: 978-3-11-025217-0

Biomedizinische Technik
Band 6: Medizinische Informatik
Herausgegeben von Hartmut Dickhaus und Petra Knaup-Gregori
ISBN: 978-3-11-025204-0
e-ISBN: 978-3-11-025222-4
Vorwort zur Lehrbuchreihe Biomedizinische Technik | IX

Biomedizinische Technik
Band 7: Medizinische Bildgebung
Herausgegeben von Olaf Dössel und Thorsten M. Buzug
ISBN: 978-3-11-025205-7
e-ISBN: 978-3-11-025214-9

Biomedizinische Technik
Band 8: Bild- und computergestützte Interventionen
Herausgegeben von Tim Lüth
ISBN: 978-3-11-025206-4
e-ISBN: 978-3-11-025215-6

Biomedizinische Technik
Band 9: Automatisierte Therapiesysteme
Herausgegeben von Jürgen Werner
ISBN: 978-3-11-025207-1
e-ISBN: 978-3-11-025213-2

Biomedizinische Technik
Band 10: Rehabilitationstechnik
Herausgegeben von Marc Kraft und Catherine Disselhorst-Klug
ISBN: 978-3-11-025208-8
e-ISBN: 978-3-11-025226-2

Biomedizinische Technik
Band 11: Neurotechnik
Herausgegeben von Steffen Rosahl, Thomas Stieglitz und Ulrich G. Hofmann
ISBN: 978-3-11-025209-5
e-ISBN: 978-3-11-025225-5

Biomedizinische Technik
Band 12: Entwicklung und Bewirtschaftung von Medizinprodukten
Herausgegeben von Stephan Klein, Felix Capanni, Uvo M. Hölscher, Frank Rothe
ISBN: 978-3-11-025210-1
e-ISBN: 978-3-11-025223-1
X | Vorwort zur Lehrbuchreihe Biomedizinische Technik

Besonderheiten der Reihe


Jeder Band der Reihe ist inhaltlich eigenständig angelegt. Im Überblicksband (󳶳Band 1)
werden alle Schwerpunktthemen der Fachbände kurz dargestellt. Es bietet sich daher
an, den ersten Band als Einstieg zu nutzen und um die Inhalte der nachfolgenden
Bände zu ergänzen, in denen die Fachthemen behandelt werden, die jeweils von
persönlichem Interesse sind.
– Wir haben uns für die Vermittlung des Stoffes in deutscher Sprache entschieden,
um allen Lesern, insbesondere Studierenden der deutschsprachigen Bachelor-,
Master- und Diplomstudiengange, ein fundiertes und einfach zu erschließendes
Grundlagenwissen mit auf den Weg zu geben. In allen Bänden der Lehrbuchrei-
he wird selbstverständlich auch auf ergänzende, weiterführende Fachliteratur in
englischer Sprache verwiesen.
– Alle zwölf Bände sind nach den gleichen didaktischen Prinzipien aufgebaut: Es
werden für das weitere Verständnis erforderliche Grundlagen des jeweiligen Fach-
gebiets mit aussagekräftigen Übersichten und Abbildungen dargelegt und mit an-
wendungsorientierten Praxisbeispielen verknüpft.
– Alle Kapitel besitzen Zusammenfassungen in deutscher und englischer Sprache
sowie (in den Bänden zwei bis zwölf) Testfragen zur Prüfungsvorbereitung, de-
ren Antworten sich im Text finden. Ein kapitelbezogenes Glossar fasst in jedem
Band die wichtigsten Begriffe und Definitionen zusammen. Formelzeichen und
Abkürzungen sind jeweils für die Bände zusammengestellt.
– Über den vom Verlag angebotenen elektronischen Zugriff auf die Bande lassen
sich Querverweise und Suchstrategien besonders gut realisieren. Einzelne Kapitel
wie z. B. die „Medizinische Terminologie für die Biomedizinische Technik“ wer-
den bereits durch eine Lernsoftware ergänzt – beste Voraussetzungen, um den
Stoff spielerisch kennenzulernen und zu trainieren und ggf. medizinische Fach-
begriffe auf unterhaltsame Weise auswendig zu lernen.

Die Herausgeber danken allen Beteiligten für das große Engagement, mit dem die Rei-
he auf den Weg gebracht wurde: den Hochschullehrern und Autoren, den Verlagsmit-
arbeitern und Lektoren, den Grafikern und Administratoren und allen anderen flei-
ßigen Helfern, die zum Gelingen beigetragen haben! Alle Autoren freuen sich über
Anregungen zur Verbesserung unserer Lehrbuchreihe!

Wir wünschen allen Lesern viel Erfolg und tiefgründige Erkenntnisse, aber auch
großes Vergnügen beim Lesen und Lernen, beim Einarbeiten in die Thematiken der
Biomedizinischen Technik und beim Vertiefen interessanter Teilgebiete!

Die Herausgeber der Lehrbuchreihe


Ute Morgenstern und Marc Kraft
Vorwort zu Band 7 der Lehrbuchreihe
Biomedizinische Technik – Medizinische Bildgebung
Liebe Leser,
Medizinische Bildgebung ist kein neues Gebiet der Medizin. Ganz im Gegenteil.
Man kann den Beginn der modernen Bildgebung sicher mit der Entdeckung von
„X-Strahlen“ durch Wilhelm Conrad Röntgen 1895 identifizieren. Er beobachtete
eine neue Art von Strahlung, die ansonsten undurchsichtige Materie zu durchdringen
vermochte.
Dies geschah fast zeitgleich zu den Forschungen von Rudolf Virchow, dessen
Zellularpathologie am Ende des 19. Jahrhunderts die Erkenntnis hervorbrachte,
dass sich Funktionsstörungen des Körpers in morphologischen Veränderungen
widerspiegeln.
Sehr schnell war dem Physiker Röntgen klar, dass seine Entdeckung eine wichti-
ge medizinische Anwendung hat. Er selbst veröffentlichte das erste Röntgenbild einer
Hand, und Siemens¹ hatte bereits 1906 ein entsprechendes Produkt für medizinische
Anwendungen im Programm. Die Bildgebung mit Röntgenstrahlen gehört seit diesem
Zeitpunkt bis heute zum Standardrepertoire der medizinischen Diagnostik.
Angetrieben durch den offensichtlichen Nutzen von Bildern in der Medizin, aber
auch durch die Nachteile der einfachen Röntgenbildgebung wurden danach alternati-
ve Techniken entwickelt. Einige bahnbrechende Entwicklungen wie zum Beispiel die
Computertomographie und die Magnetresonanztomographie wurden ebenso wie die
ursprüngliche Entdeckung von Röntgen mit Nobelpreisen gewürdigt, was die heraus-
ragende Bedeutung dieser Entwicklungen für die Medizin unterstreicht.
Die Faszination, die von der Bildgebung ausgeht, liegt in der einfachen Tatsache,
dass wir in den Menschen schauen können, ohne ihn dafür öffnen zu müssen. Die
Visualisierung von Organveränderungen, die heute in dreidimensionalen Repräsen-
tationen möglich ist, erleichtert die Diagnose erheblich. Neben der Diagnostik haben
sich auch neue Anwendungen in der Therapieplanung und der bildgeführten Inter-
vention erfolgreich etabliert und damit das Gebiet der Bildgebung erweitert.
Dennoch – ein großer Wandel des gesamten diagnostischen Marktes zeichnet sich
durch den zunehmenden Einsatz molekularbiologischer Techniken ab. Vor wenigen
Jahren wurde noch prognostiziert, dass die Diagnostik mit Bildgebung mittels Ul-
traschall (US), Computertomographie (CT) oder Magnetresonanztomographie (MRT)
durch die reine Labordiagnostik mit molekularbiologischen Methoden bald abgelöst
würde.

1 Damals noch im Unternehmen Reiniger, Gebbert & Schall, welches später von Siemens übernom-
men wurde.
XII | Vorwort zu Band 7 der Lehrbuchreihe Biomedizinische Technik – Medizinische Bildgebung

Mittlerweile hat sich jedoch die Erkenntnis durchgesetzt, dass die Methoden sich
nicht verdrängen, sondern ergänzen: beim Molecular Imaging gelingt es, molekular-
biologische Prozesse durch Weiterentwicklungen der bisherigen Bildgebungsmetho-
den sichtbar zu machen. Gleichzeitig werden molekularbiologische lokale Therapien
unter Führung durch die Bildgebung möglich. So wird der Bereich der Bildgebung sei-
ne große Bedeutung in der Medizintechnik in Zukunft eher noch weiter ausdehnen.
Am Horizont erscheinen ganz neue bildgebende Modalitäten – sie alle werden in
diesem Buch kurz beschrieben. Dabei ist es fast unmöglich vorherzusagen, welche
Methode den Weg in den klinischen Alltag schaffen wird. Erst muss die Technik in
hoher Qualität entwickelt werden. Auch müssen hohe Sicherheitsanforderungen er-
füllt werden, bevor die klinische Erprobung beginnen kann. Erst danach weiß man,
welchen Beitrag die neue Methode für die Diagnostik leisten wird.
Mit der Entwicklung neuer Modalitäten wird den aktuellen Standardverfahren
häufig eine sinkende Bedeutung voraus gesagt. Dabei darf aber nicht übersehen wer-
den, dass die konventionellen Modalitäten ebenfalls eine rasante Weiterentwicklung
erfahren. Man denke dabei zum Beispiel an die CT, der mit der Entwicklung der MRT
das Aussterben prognostiziert wurde. Tatsächlich hat CT heute, vor allem durch die
Weiterentwicklung der Multislice-Detektortechnologie, durch die enorme Leistungsfä-
higkeit moderner Röntgenröhren und nicht zuletzt wegen der geringeren Kosten eine
viel größere Verbreitung als die MRT gefunden.
Dieses Buch wendet sich an Leser, die verstehen möchten, wie die bildgeben-
den Verfahren der Medizin funktionieren, und welche neuen Entwicklungen gerade
erarbeitet werden. International anerkannte Experten auf ihrem Gebiet erklären die
neuesten Methoden. Den klassischen bildgebenden Modalitäten wird dabei der größ-
te Raum gegeben, aber auch neue heute noch exotische Techniken werden kurz be-
schrieben. Die Technik der Bildgebung steht immer im Vordergrund, aber auch die
bevorzugten Einsatzgebiete in der Medizin werden erwähnt.

Wir wünschen unseren Lesern, dass sie sich von unserer Begeisterung für all das, was
heute im Bereich der medizinischen Bildgebung möglich ist, anstecken lassen.

Die Herausgeber des siebten Bandes

Olaf Dössel und Thorsten M. Buzug


Karlsruhe und Lübeck, Februar 2013
Inhalt
Vorwort zur Lehrbuchreihe Biomedizinische Technik | V

Vorwort zu Band 7 der Lehrbuchreihe Biomedizinische Technik –


Medizinische Bildgebung | XI

Hinweise zur Benutzung | XIX

Verzeichnis der Abkürzungen | XXI

Verzeichnis der Formelzeichen, Symbole und Indizes | XXVII

Olaf Dössel
1 Die bildgebenden Verfahren in der Medizin | 1
1.1 Historie und Motivation | 2
1.2 Übersicht über die Verfahren der medizinischen Bildgebung | 4
1.3 Von der medizinischen Fragestellung über die Bildgebung zum
Befund | 6

Til Aach, Olaf Dössel


2 Bildgebung durch Projektionsröntgen | 9
2.1 Diagnostik mit Projektionsröntgen | 10
2.2 Physikalische Grundlagen | 12
2.3 Dosimetrische Größen | 23
2.4 Komponenten zur Erzeugung von Röntgenstrahlung | 25
2.5 Detektion von Röntgenstrahlung | 32
2.6 Bildqualität: Modulationsübertragungsfunktion (MTF) und detektierte
Quanteneffizienz (DQE) | 45
2.7 Phasenkontrast-Röntgen | 51
2.8 Gesetzliche Vorschriften zur Qualitätssicherung | 54
2.9 Medizinische Applikationen und spezifische Systeme | 55
2.10 Neuere Entwicklungen und Trends | 56

Thorsten M. Buzug, Thomas Flohr


3 Computertomographie | 59
3.1 Einleitung | 60
3.2 Historie der Computertomographie | 62
3.3 Technologie | 70
3.4 Bildrekonstruktion | 77
3.5 Artefakte | 87
XIV | Inhalt

3.6 Aufnahmeplanung, Datenaufbereitung und Bilddarstellung | 91


3.7 Klinische Anwendungen | 96
3.8 Dosis und Dosisreduktion | 102
3.9 Spezielle CT-Systeme | 106

Thomas Mertelmeier
4 Tomosynthese | 113
4.1 Grundprinzip, diagnostische Zielsetzung und historische
Entwicklung | 114
4.2 Rekonstruktionsalgorithmen | 116
4.3 Systemoptimierung und Gerätetechnik | 124
4.4 Klinische Anwendungen | 126

Kristin Kötz, Henrik Botterweck


5 Szintigraphie und SPECT | 135
5.1 Einleitung und Geschichte | 136
5.2 Kernphysikalische Grundlagen | 137
5.3 Radiopharmaka | 140
5.4 Nuklearmedizinische Messtechnik | 142
5.5 Gammakamera und Szintigraphie | 149
5.6 SPECT | 156
5.7 Qualitätskontrolle | 167
5.8 Klinische Anwendungen | 168
5.9 Hybridbildgebung | 169

Simone Beer, Henrik Botterweck


6 PET | 173
6.1 Diagnostische Zielsetzung | 174
6.2 Grundlagen | 174
6.3 Technik | 182
6.4 Algorithmen | 188
6.5 Klinische Anwendungen | 195
6.6 Qualitätssicherung und Normen | 197
6.7 Nebenwirkungen/Grenzwerte | 199
6.8 Neue Entwicklungen und Trends | 199

Olaf Dössel
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 203
7.1 Motivation und Einleitung | 204
7.2 Stochastische und deterministische Wirkungen | 204
7.3 Dosimetrische Größen und deren Einheiten | 205
Inhalt | XV

7.4 Quantitative Bewertung des Risikos für Schäden durch ionisierende


Strahlung | 209
7.5 Typische Dosis bei Röntgen- und nuklearmedizinischen
Untersuchungen | 210
7.6 Dosimeter | 211
7.7 Gesetzliche Vorschriften | 213

Helmut Ermert, Christian Hansen


8 Ultraschall | 217
8.1 Einleitung | 218
8.2 Ultraschallanwendungen in der Medizin | 219
8.3 Physikalische Grundlagen | 226
8.4 Ultraschallwandler | 236
8.5 Ultraschall-Bildgebung in der Medizin | 251
8.6 Doppler-Verfahren | 279
8.7 Spezielle Modalitäten | 299
8.8 Physikalische Effekte, biologische Wirkungen, Grenzwerte | 313

Tobias Schaeffter
9 Magnetische Resonanztomographie | 327
9.1 Einleitung | 328
9.2 Kernmagnetische Resonanz | 329
9.3 Ortsauflösung | 351
9.4 Sequenzen und Bildkontrast | 362
9.5 Artefakte | 381
9.6 Aufbau eines MR-Tomographen | 385
9.7 Signal-Rausch-Verhältnis | 390
9.8 Sicherheitsaspekte | 391
9.9 Klinische Anwendungen | 395

Olaf Dössel
10 Abbildung bioelektrischer Quellen | 407
10.1 Elektrophysiologische Grundlagen | 408
10.2 Messung bioelektrischer und biomagnetischer Signale | 410
10.3 Konventionelle Diagnostik mit bioelektrischen Signalen und neue
Fragestellungen für die Bildgebung bioelektrischer Quellen | 412
10.4 Mathematische Modelle von bioelektrischen Quellen | 413
10.5 „Lead fields“, das „Vorwärtsproblem“ und die
Abbildungsgleichung | 416
10.6 Das inverse Problem und Regularisierungsmethoden | 419
10.7 Applikationen in der Medizin | 421
XVI | Inhalt

Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert


11 Magnetic Particle Imaging | 425
11.1 Einführung | 426
11.2 Geschichte des Magnetic Particle Imaging | 427
11.3 Funktionsweise des MPI | 428
11.4 Von Daten zu Bildern – Rekonstruktion | 434

Olaf Dössel
12 Impedanztomographie | 441
12.1 Die Impedanz von Körpergewebe | 442
12.2 Messsysteme mit Elektroden | 444
12.3 Bildrekonstruktion | 446
12.4 Alternative Messsysteme | 450
12.5 Anwendungen der Impedanztomographie in der Medizin | 451

Thomas Wittenberg
13 Endoskopie | 455
13.1 Einführung | 456
13.2 Eine kurze Geschichte der Endoskopie | 457
13.3 Starre Endoskope | 459
13.4 Flexible Faserendoskope | 462
13.5 Videoendoskope | 465
13.6 Schluckkapselendoskope | 466
13.7 Farbkontrast und Marker | 468
13.8 Anwendungen der Endoskopie | 468

Julia Walther, Edmund Koch


14 Optische Kohärenztomographie | 471
14.1 Diagnostische Zielsetzung | 472
14.2 Physikalische Grundlagen | 473
14.3 Technik und Algorithmen | 475
14.4 Anwendungen in der Medizin | 482
14.5 Qualitätssicherung und Normen | 496
14.6 Nebenwirkungen/Grenzwerte | 496

Dirk Grosenick, Rainer Macdonald


15 Diffuse optische Bildgebung | 505
15.1 Einleitung | 506
15.2 Lichtausbreitung in Gewebe | 507
15.3 Transilluminationsbildgebung | 510
15.4 Diffuse optische Tomographie | 513
Inhalt | XVII

Thorsten M. Buzug, Cila Herman


16 Medizinische Infrarot-Bildgebung | 519
16.1 Einleitung | 520
16.2 Systemdesign | 522
16.3 Infrarot-Physik | 525
16.4 IR-Bildgebung bei medizinischen Anwendungen | 527
16.5 Grenzen von IR-Bildgebung bei medizinischen Anwendungen | 530

Marko Helbig
17 Mikrowellen-, Ultrabreitband- und THz-Bildgebung | 533
17.1 Einführung | 534
17.2 Aktive Mikrowellen-Bildgebung | 538
17.3 Aktueller Stand in Forschung und Entwicklung | 541

Fabian Kiessling
18 Molekulare Bildgebung | 545
18.1 Einführung | 546
18.2 Molekulare Marker | 547
18.3 Die Sonden | 548
18.4 Die Bildgebungsmodalitäten | 553
18.5 Molekulare Bildgebung mit SPECT und PET | 554
18.6 Molekulare Bildgebung mit optischer Bildgebung | 555
18.7 Molekulare Bildgebung mit Ultraschall | 555
18.8 Molekulare Bildgebung mit Magnetresonanztomographie | 556
18.9 Molekulare Bildgebung mit Computertomographie | 558

Olaf Dössel, Tim C. Lüth


19 Interventionelle Bildgebung | 561
19.1 Medizinische Fragestellung bei der interventionellen
Bildgebung | 562
19.2 Interventionelle Radiologie – interventionelle Methoden mit
Röntgenstrahlen | 563
19.3 Interventionelle Ultraschall-Bildgebung | 565
19.4 Interventionelle Magnetresonanztomographie | 566
19.5 Interventionelle Endoskopie | 567
19.6 Mikroskopie im Operationssaal | 568
19.7 Bildgebung bei der Strahlentherapie – MV-Imaging und EPIDs | 568
19.8 Lokalisieren und Registrieren | 569
19.9 Darstellung der präoperativen und der intraoperativen Bilder | 571
19.10 Trends und Entwicklungen | 572
XVIII | Inhalt

Michael Kaschke, Michael Stefan Rill


20 Operationsmikroskopie | 575
20.1 Einleitung | 576
20.2 Aufbau eines Stereomikroskops | 578
20.3 Optische Eigenschaften | 579
20.4 Variable Bildvergrößerung | 581
20.5 Beleuchtung | 582
20.6 Stative | 583
20.7 Medizinische Applikationen | 585
20.8 Aktuelle Trends | 585

Olaf Dössel
21 Systemtheorie abbildender Systeme | 589
21.1 Motivation | 590
21.2 Lineare Transformationen von Bildern | 590
21.3 Räumliche Auflösung und die Modulationsübertragungsfunktion
MTF | 596
21.4 Das Abtasttheorem | 601
21.5 Das Rauschen und die detektierte Quantenausbeute DQE | 601
21.6 Der Kontrast | 605
21.7 Die zeitliche Auflösung | 606
21.8 Erkennen von Details in Bildern und die Perzeption | 606
21.9 Das Dreieck aus räumlicher Auflösung, zeitlicher Auflösung und
Rauschen | 608

Autorenverzeichnis | 611

Bandspezifisches Glossar | 615

Sachwortverzeichnis | 641
Hinweise zur Benutzung
Methodischer Hinweis
Ob elektronisch oder auf Papier: Es empfiehlt sich immer, ein Lehrbuch als Arbeits-
buch zu benutzen, es mit persönlichen Notizen, Hervorhebungen und Markierungen
zu versehen. Über www.degruyter.de lassen sich auf elektronischem Wege beim Ver-
lag Kapitel aus Bänden zu einem eigenen Sammelwerk zusammenstellen. Ergänzende
interaktive Lernsoftware findet man z. B. unter www.theragnosos.de.

Gender-Hinweis
Im Gegensatz zu rein technischen Fächern ist im Bereich der Biomedizinischen Tech-
nik das Geschlechterverhältnis ausgewogener. In den Banden der Lehrbuchreihe
„Biomedizinische Technik“ liegt der Schwerpunkt auf fachlichen Darstellungen der
Grundlagen unseres Berufsbildes, bei dem das Geschlecht des Akteurs selbst keine
Rolle spielt. Aus diesem Grund wird generell für alle Personen- und Funktionsbe-
zeichnungen das generische (geschlechtsneutrale) Maskulinum verwendet, das die
weibliche Form einschließt.

Verzeichnis der Abkürzungen


Allgemeine Abkürzungen sind im Abkürzungsverzeichnis aufgeführt (s. S. XXI).

Verzeichnis der Formelzeichen, Symbole und Indizes


Formelzeichen, Symbole und Indizes sind im Formelzeichenverzeichnis aufgeführt
(s. S. XXVII).

Quellen
Die Quellenangaben bei Normen und Standards sind grundsätzlich ohne Jahreszahl
vermerkt, da die jeweils aktuelle Ausgabe zu beachten ist. Soweit in den Abbildungen
Quellen genannt werden, finden sich Erstautor und Jahreszahl in eckigen Klammern,
die im Quellenverzeichnis am Ende des Kapitels aufgelöst werden.

Verzeichnis der Autoren


Alle Autoren des Bandes sind im Autorenverzeichnis am Ende des Bandes aufgeführt
(s. S. 611).

Bandspezifisches Glossar
Alle Definitionen des Bandes sind im Glossar am Ende des Bandes zusammengeführt
(s. S. 615).
XX | Hinweise zur Benutzung

Sachwortverzeichnis
Wichtige Begriffe, auf deren Erläuterung man beim Suchen im Sachwortverzeichnis
am Ende des Bandes verwiesen wird, sind im Text gefettet dargestellt.

Im Text verwendete Symbole sowie Sonderauszeichnungen des Textes


Neben den üblichen mathematischen Symbolen und Sonderzeichen wird folgendes
Symbol im Text verwendet:
󳶳 verweist auf Abbildungen, Tabellen, Glossarbegriffe, Kapitel und Bände innerhalb
der Reihe Biomedizinische Technik.
Alle Einträge, die im Sachwortverzeichnis und im bandspezifischen Glossar ver-
zeichnet sind, sind im Text hervorgehoben durch eine fette Auszeichnung des Begriffs.
Alle Definitionen innerhalb der Kapitel sind gekennzeichnet durch einen grau hin-
terlegten Kasten.
Alle erläuternden Beispiele und Exkursionen innerhalb der Kapitel sind gekenn-
zeichnet durch dieses Symbol und einen gerahmten Kasten mit einer, den Textab-
schnitt begrenzenden, blauen Ober- und Unterlinie.
Dieses Symbol markiert den Übungsteil in Form von Testfragen zum Verständnis
des jeweiligen Kapitels am Kapitelende.
Verzeichnis der Abkürzungen
1D eindimensional
2D zweidimensional
3D dreidimensional
5-ALA 5-Aminolävulinsäure
A Amplitude
ADC Analog-Digital-Konverter
ADP Adenosindiphosphat
AEC Automatic Exposure Control, automatische Belichtungssteuerung bei
der Aufnahme von Röntgenbildern
ALI akutes Lungenversagen
AMD altersbedingte Makuladegeneration
APD Avalanche-Photodiode
ARFI Acoustic Radiation Force Imaging
ART Algebraic Reconstruction Theory
ATP Adenosintriphosphat
B Brightness, Helligkeit
BfS Bundesamt für Strahlenschutz
BGO Wismutgermanat
BOLD-Contrast Blood Oxygen Level Dependent Contrast
BP Bandpass
BSPM Body-Surface-Potential-Map
CARS Coherent Anti-Stokes Raman Scattering
CAT Computerized Axial Tomography, Computertomographie im
anglikanischen Sprachraum
CBF zerebraler Blutfluss, Cerebral Blood Flow
CBV zerebrales Blutvolumen, Cerebral Blood Volume
CCD Charge-Coupled Device, lichtempfindliches elektronisches Bauteil
CEST Chemical Exchange Saturation Transfer, molekulare
MRT-Bildgebungsmethode
CFOV Central Field of View
Cho Cholin
CMOS Complementary Metal Oxide Semiconductor
COR Center of Rotation = Fulcrum
Cr/PCr Kreatin/Kreatinphosphat
CSF zerebrospinale Flüssigkeit, Liquor
CsI Cäsiumjodid
CSLM Confocal Laser Scanning Microscope, Scanning-Laser-Mikroskopie
CT Computertomographie, Computed Tomography
CTA Computertomographie-Angiographie
XXII | Verzeichnis der Abkürzungen

CW Continuous Wave
CZT Cadmium-Zink-Tellurid
DAS Detector Angular Subtense
DEGUM Deutsche Gesellschaft für Ultraschall in der Medizin
DIN Deutsches Institut für Normung
DNA Deoxyribunucleic Acid, Desoxyribonukleinsäure
DOCT Doppler-OCT
DOI Depth of Interaction
DOPU Degree of Polarization Uniformity
DOTA Tetraazacyclododecan-Tetraessigsäure
DQE Detective Quantum Efficiency, detektive Quantenausbeute
DSA digitale Subtraktionsangiographie
DTPA Diethylentriaminpentaessigsäure
DUX Duplexer
EBCT Electron-Beam Computed Tomography,
Elektronenstrahl-Computertomographie
EEG Elektroenzephalogramm, Elektroenzephalographie
EKG Elektrokardiogramm, Elektrokardiographie
EM Expectation Maximization
EPI Echo Planar Imaging, Echo-Planar-Bildgebung
EPID Electronic Portal Imaging Device
EIT Electrical Impedance Tomography
FAF Fundus-Augenfluoreszenz
FAG Fluorescein-Angiographie
FASC Full Angle Spatial Compounding
FBP Filtered Back Projection, gefilterte Rückprojektion
FD OCT Fourier Domain OCT
FDA Food and Drug Administration
FDG Fluordesoxyglukose
FDTD Finite-Difference Time-Domain, Finite-Differenzen-Methode
FEM Finite-Elemente-Methode
FFA Fokus-Film-Abstand
FFP feldfreier Punkt
FFT Fast Fourier Transform
FID Free Induction Decay
FIR Fern-Infrarot
FN false negative (Feld in der Wahrheitsmatrix)
FNF False Negative Fraction = FN/(TP + FN) (auch False Negative Rate)
FOA Fokus-Objekt-Abstand
FOV Field of View
FP false positive (Feld in der Wahrheitsmatrix)
FPF False Positive Fraction = FP/(FP + FN) (auch False Positive Rate)
Verzeichnis der Abkürzungen | XXIII

FWHM Full Width at Half Maximum, Halbwertsbreite


GFP Green Fluorescent Protein
Glx Glukose
GPS Global Positioning System
GRAPPA Generalized Autocalibrating Partially Parallel Acquisition
GSO Gadoliniumoxyorthosilikat
H Hilbert-Transformation
HDTV High Definition Television
HF Hochfrequenz
HU Hounsfield Unit, Hounsfield-Einheit
HWZ Halbwertszeit
ICAM Intercellular Adhesion Molecule, Zelladhäsionsmolekül, das häufig
als Target für molekulare Diagnostika dient
ICEIT Induced Current Electrical Impedance Tomography
ICG Indocyaningrün (ein Farbstoff und optisches Kontrastmittel)
ICRP Internationale Strahlenschutzkommission (International
Commission on Radiation Protection)
IEC International Electrotechnical Commission
IFOV Instantaneous Field-of-View
IR Infrarot
IRFI Infrared Functional Imaging
IVUS intravaskulärer Ultraschall
Kerma Kinetic Energy Released in Matter
Lac Laktat
LASC Limited Angle Spatial Compounding
LD letale Dosis
LED Light-Emitting Diode, Licht emittierende Halbleiterdiode
LOCT lineare optische Kohärenztomographie
LOR Line-of-Response
LSF Line Spread Function
LSO Lutetiumoxyorthosilikat
LSQ Least Squares Quadratic
LTI Linear and Time Invariant Systems
LWIR Mittelwellen-Infrarot
MAMI Multistatic Adaptive Microwave Imaging
MAP maximum a posteriori
MEG Magnetoenzephalographie
MHU Mega Heat Unit
MI mechanischer Index
MIC Minimal Invasive Surgery
MIP Maximum Intensity Projection
MIST Microwave Imaging via Space Time Beamforming
XXIV | Verzeichnis der Abkürzungen

MIT Magnetic Induction Tomography


MITS Matrix Inversion Tomosynthesis
MKG Magnetokardiographie
ML Maximum Likelihood
MLO mediolateral-oblique Projektion, Medio-Lateral Oblique Projection
MMP Matrix-Metalloproteinasen
MPG Medizinproduktegesetz
MPI Magnetic Particle Imaging
MPR multiplanare Reformatierung
MR Magnetresonanz
MREIT Magnetic Resonance Electrical Impedance Tomography
MRI Magnetic Resonance Imaging, magnetische Resonanzbildgebung
MRT Magnetresonanztomographie
MTF Modulation-Transfer Function, Modulationsübertragungsfunktion
MTT Mean Transit Time, mittlere Transitzeit
MWIR Mittelwellen-Infrarot
MZB maximal zulässige Bestrahlung
NA numerische Apertur
NAA N-Acetylaspartat
NADH reduzierte Form von Nicotinamid-Adenin-Dinukleotid
NBI Narrow-Band Imaging
NECR Noise Equivalent Count Rate
NEDT Noise Equivalent Differential Temperature
NEMA National Electrical Manufacturers Association
NEQ Noise Equivalent Quanta
NMR Nuclear Magnetic Resonance
NOTES Natural Orifice Transluminal Endoscopic Surgery
NPS Noise Power Spectrum
NSF nephrogene systemische Fibrose
NTSC National Television Systems Committee
OCT Optical Coherence Tomography, Optische Kohärenztomographie
ODT Optical Doppler Tomography
OP Operationssaal
OSEM Ordered Subset Expectation Maximization
PACS Picture Archiving and Communication System
PAL Phase Alternating Line
PCa Prostatakarzinom
PEEP positiver endexspiratorischer Druck
PET Positronen-Emissions-Tomographie
PHA Pulse Height Analyser
PMT Photomultiplier Tube, Photomultiplier
PNS periphere Nervenstimulation
Verzeichnis der Abkürzungen | XXV

PRF Pulswiederholfrequenz
PS OCT Polarisationssensitive OCT
PSA prostataspezifisches Antigen
PSF Pointspread Function, Punktbildfunktion
PTCA perkutane transluminale koronare Angioplastie
PVDF Poly-Vinyliden-Di-Fluorid
PW Pulse Wave
PZT Blei-Zirkonat-Titanat
QWIP Quantum Well Infrared Photon Detektor, Quantendetektor
R rückwärts (bezüglich Flussrichtung)
RADAR Radio Detection and Ranging
RARE Rapid Acquisition with Relaxation Enhancement
RF Radiofrequenz, Radio Frequency
RFP Red Fluorescent Protein
ROC Receiver Operating Characteristic
ROI Region of Interest
RöV Röntgenverordnung
RPE retinales Pigmentepithel
RR relatives Risiko
RSNA Radiological Society of North America
RSOD Rapid Scanning Optical Delay Lines
SARS Severe Acute Respiratory Syndrome
SART Simultaneous Algebraic Reconstrucion Theory
SC Spatial Compounding
SD OCT Spektral-Domänen-OCT
SECAM Séquentiel couleur à mémoire
SENSE Sensitivity Encoding
SEV Sekundärelektronenvervielfacher
SiPM Silicon-Photomultiplier
SIRT Simultaneous Iterative Reconstruction Technique
SLD Superlumineszenzdiode
SLO Scanning-Laser-Ophthalmoskopie
SMASH Simultaneous Acquisition of Spatial Harmonics
SNR Signal-to-Noise Ratio, Signal-Rausch-Verhältnis
SOR Spill Over Ratio
SPECT Single Photon Emission Computed Tomography,
Einzelphotonen-Emissions-Computertomographie
SPIO Superparamagnetic Iron Oxide (Nanopartikel)
SPIR Spectral Presaturation Inversion Recovery
SPTA Spatial Peak Temporal Average
SQUID supraleitender Quanten-Interferenz-Detektor
SRB Sulforhodamin B
XXVI | Verzeichnis der Abkürzungen

SSFP Steady State Free Precession


SSK Strahlenschutzkommission
StrlSchV Strahlenschutzverordnung
SVD Singular Value Decomposition, Singuläre Wertezerlegung
SWIR Short Wavelength Infrared Imaging Band
TACT Tuned Aperture Computed Tomography
TAVI Transkatheter-Aortenklappenimplantation
TD OCT Time Domain OCT
TEC thermoelektrischer Kühler
TEM transanale endoskopische Mikrochirurgie
TEW Triple Energy Window
TFT Dünnfilmtransistor
TGC Time Gain Compensation
THI Tissue Harmonic Imaging
THz Terahertz
TM Time-Motion
TN true negative (Feld in der Wahrheitsmatrix)
TOF Time of Flight
TP true positive (Feld in der Wahrheitsmatrix)
TS Time Shift
TSE Turbo Spin Echo
TTP Time to Peak, Zeit bis zum Erreichen des Bolusmaximums
UFOV Useful Field of View
US Ultraschall
USPIO Ultrasmall Superparamagentic Iron Oxide Nanoparticles
UWB Ultra-Wideband, Ultrabreitband
V vorwärts (bezüglich Flussrichtung)
VCAM Vascular Cell Adhesion Molecule, Zelladhäsionsmolekül, das häufig
als Target für molekulare Diagnostika dient
VEGFR Vascular Endothelial Growth Factor
VLWIR langwelliges Infrarot
VOx Vanadiumoxid
W Wand (Gefäßwand)
WHO World Health Organization, Weltgesundheitsorganisation
WL Window Level, Fenstermitte
WPW Wolf-Parkinson-White-Syndrom
WW Window Width, Fensterbreite
Verzeichnis der Formelzeichen, Symbole und Indizes
A 1. Fläche in m2 , 2. Massenzahl, 3. Aktivität in 1/s oder in Becquerel
Bq, A(x) = zu rekonstruierende Aktivitätsverteilung,
4. Lead-Field-Matrix
a Radius in m
AdB Dämpfung in dB
AD Detektorfläche in m2
A(z) Betrag der Rückstreuamplitude aus der Tiefe z
b Stereobasis in m
B 1. Belichtungsmaß (bei Röntgenaufnahmen), 2. magnetische
Induktion in T
B⃗ 0 = B0 ⋅ e⃗z statisches Magnetfeld, besser: magnetische Induktion in T
B1 (t) zeitlich variierende magnetische Induktion in Querrichtung in T
B̂ 1 (t) Amplitudenpulsform der zeitlich variierenden transversalen
magnetischen Induktion in T
B/A Nichtlinearitätsparameter
c 1. spezifische Wärme in J/(K ⋅ kg), 2. Schall- bzw.
Lichtgeschwindigkeit in m/s
C 1. Konzentration eines Kontrastmittels in 1/m3 , 2. Kapazität in F,
3. Kontrast
I1 −I2
C= Iref
Kontrast
c0 Lichtgeschwindigkeit im Vakuum (c0 = 2,998 ⋅ 108 m/s)
cb spezifische Wärme von Blut in J/(K ⋅ kg)
Ci (x, y, z) Empfindlichkeit der i-ten Spule bei der parallelen Bildgebung
Cn Konzentration in 1/m3
d piezoelektrische Ladungskonstante in C/N
D 1. dielektrische Verschiebungsdichte in As/m2 , 2. Durchmesser
in m, 3. Energiedosis in Gray, Gy = J/kg, 4. optischer
Diffusionskoeffizient in m oder cm, 5. Tiefenschärfe in m
Ḋ Energiedosisleistung in Gy/s
dD lineare Ausdehnung des Detektors in m
dS Flächenelement in m2
DT Totzeitanteil in %
dV Volumenelement in m3
e Elementarladung (Landung des Elektrons)= 1,602 ⋅ 10−19 As
e Eulersche Zahl = 2,718281828. . .
E 1. Kodiermatrix bei der parallelen Bildgebung, 2. elektrische
Feldstärke in V/m
E↑ = − 21 𝛾 ⋅ ℏ ⋅ B0 Energie des energetisch günstigen Energiezustands in J oder eV
E↓ = 21 𝛾 ⋅ ℏ ⋅ B0 Energie des energetisch höheren Zustands in J oder eV
XXVIII | Verzeichnis der Formelzeichen, Symbole und Indizes

EK,L,M Energie der K-, L-, oder M-Schale (Ionisationsenergie) in J oder eV


Ekin kinetische Energie der Elektronen, in J oder eV
E(t, z) Elektrisches Feld einer ebenen elektromagnetischen Welle in
Abhängigkeit von Zeit und Ort in V/m
ex , ey , ez Einheitsvektoren in x-, y-, und z-Richtung
e⃗x , e⃗y , e⃗z Einheitsvektoren in kartesischen Koordinaten
f 1. Frequenz in Hz, 2. Brennweite des Systems in m
Δf Frequenzbandbreite in Hz
F{. . .} Fourier-Transformierte von {. . . }
F IR-Brennweite geteilt durch den Aperturdurchmesser
F(u, v) Fouriertransformierte von f (x, y)
F(ux , uy , uz ) Fouriertransformierte von f (x, y, z)
f (x, y) Bild am Eingang eines bildgebenden Systems
f (x, y, z) (zu rekonstruierende) Objektfunktion
f0 Mittenfrequenz in Hz
g piezoelektrische Druckkonstante in V ⋅ m/N
G elektronische Verstärkung des Systems
𝜕B 𝜕B 𝜕B
Gx = 𝜕xz ; Gy = 𝜕yz ; Gz = 𝜕zz Gradienten der magnetischen Induktion in T/m
G(u, v) Fouriertransformierte von g(x, y)
G(ux , uy , uz ) Fouriertransformierte von g(x, y, z)
g(x, y) Bild am Ausgang eines bildgebenden Systems
g(x, y, z) rekonstruiertes (3D-)Bild
Gkn Systemfunktion
h 1. Plancksches Wirkungsquantum
h = 6,6626 ⋅ 10−34 Js; ℏ = h/2𝜋 = 1,055 ⋅ 10−34 Js, 2. Höhe in m
H{. . .} Hilbert-Transformierte von {. . . }
H 1. Äquivalentdosis in Sievert Sv = J/kg, 2. Magnetfeld in A/m,
3. Äquivalentdosisleistung in Sv (Sievert)
H(u, v) komplexe Systemübertragungsfunktion in 2D
= Fouriertransformierte von h(x, y)
H(ux , uy , uz ) komplexe Systemübertragungsfunktion in 3D
= Fouriertransformierte von h(x, y, z)
h(x, y) Punktbildfunktion = inverse Fouriertransformierte von H(u, v)
h(x, y, z) 3D-Punktbildfunktion
h𝛾 (𝜉) hochpassgefiltertes Projektionsprofil
I 1. Spinquantenzahl, 2. elektrische Stromstärke in A,
3. Inhomogenität eines Bildes (differentiell oder absolut),
4. Intensität
IA Anodenstrom (einer Röntgenröhre) in A
IG , IR , IP Intensität des Gesamtlichtes, des Referenzlichtes und des Lichtes,
das von der Probe reflektiert wird
IH Heizstrom (einer Röntgenröhre) in A
Verzeichnis der Formelzeichen, Symbole und Indizes | XXIX

Im {. . .} Imaginärteil von {. . . }
j imaginäre Einheit j2 = −1
j Index für aufeinanderfolgende A-Scans
J 1. in der Bildebene ankommende Leistung der Röntgenstrahlung
pro Fläche in W/m2 , 2. Ionendosis in As/kg, 3. Schallintensität in
W/m2 , 4. Stromdichte in A/m2
J⃗ Eigendrehimpuls, auch Kernspin in kg m2 /s
J̇ Ionendosisleistung in A/kg
JB gesamte von einer Röntgenröhre abgestrahlte flächenbezogene
Leistung in W/m2
Ji eingeprägte Stromdichte in A/m2
JID Ionendosis in As/kg
Jn Stromdichte in Normalenrichtung in A/m2
J𝜈 (𝜈) abgestrahlte Leistung pro Fläche und Frequenzintervall in
W/(Hzm2 )
k Boltzmann-Konstante (k = 1,38 ⋅ 10−23 J/K)
k 1. Wellenzahl, Variable im Fourierraum in 1/m,
2. piezoelektrischer Koppelfaktor in %, 3. thermische Leitfähigkeit
von Gewebe in W/(mK)
K 1. K bzw. Kerma, Kinetic Energy Released in Matter in J/kg oder Gy
(Gray), 2. Rampenfilter, K = F −1 |k|F, 3. Reflexionskoeffizient
(dimensionslos)
𝛾
kx,y,z (t) = 2𝜋 ∫ Gx,y,z (t)dt Komponenten des k-Vektors in 1/m
l Akkommodationslänge des Auges in m
L Induktivität in Henry H
lc Kohärenzlänge des Lichtes in m
ld deutliche Sehweite in m
L(A|P) likelihood von A, L(A|P) = Wahrscheinlichkeit von P gegeben A
M Magnetisierung in A/m
M⃗ = ∑Nn=1 ⟨𝜇n⃗ ⟩ makroskopische Magnetisierung in A/m
me Masse des Elektrons in kg
mI Magnetquantenzahl
mp Masse des Positrons in kg
MTF(u, v) Modulation Transfer Function, Modulations-Übertragungs-
funktion
n 1. Brechungsindex eines Mediums, 2. Ordnungszahl: 1, 2, 3, . . .
(dimensionslos), 3. Zahl der auftreffenden (Röntgen-)Photonen
pro Fläche und Zeit in 1/(m2 s)
N 1. Zahl der Projektionen, 2. Zählrate allgemein in counts per
second cps oder 1/s
N↑ , N↓ Anzahl der magnetischen Momente (oder Spins), die entlang und
entgegengesetzt zum externen Magnetfeld ausgerichtet sind
XXX | Verzeichnis der Formelzeichen, Symbole und Indizes

n0 Parameter der Poisson-Verteilung, Mittelwert der gezählten


Photonen
n𝜃 , n⊥𝜃 Vektoren parallel und senkrecht zur LOR-Richtung 𝜃
NA numerische Apertur
NPS(u, v) Noise Power Spectrum in W/Hz
Nq (f ) Rauschleistungsdichtespektrum in W/Hz
Nsys (f ) Rauschleistungsdichtespektrum der Elektronik des Detektors in
W/Hz
Ny Wiederholung der Phasenkodiergradienten mit unterschiedlichen
Stärken
P 1. Leistung in W, 2. Polarisierbarkeit in As/m2 , 3. Streustrahlanteil
p 1. Schalldruck in Pa, 2. Stromdipol in Am
p(x) Wahrscheinlichkeit für das Auftreten des Messwertes x
p(x󸀠 , y󸀠 ) Projektionen von einem Kegelstrahl gemessen in einer Bildebene
P(z, t) Wärme, die pro Volumen eingelagert wird in J
P(𝜃, s) Sinogramm, gemessene LOR
pr mittlere Positronenreichweite in m
PSF(x, y) Pointspread Function, Punktbildfunktion
Pt gesamte von einer Röntgenröhre abgestrahlte Leistung in W
p𝛾 (𝜉) gemessenes Projektionsprofil (Linienintegral)
P𝛾 (q) Fouriertransformierte von p𝛾 (𝜉)
q 1. zu 𝜉 gehörenden Ortsfrequenz in 1/m, 2. Faktor (dimensionslos),
3. allgemeine skalare Größe
Q Gütefaktor
q⃗ allgemeine vektorielle Größe
q analytisches Signal
q Mittelwert
q̂ Scheitelwert
q0 (r,⃗ t) Quellterm in der Diffusionsgleichung für den Photonentransport
in (Photonen)/(m3 s) oder (Photonen)/(cm3 s)
Qm metabolische Wärmeproduktion pro Volumen
R 1. (Ohmscher) Widerstand in Ω, 2. Auflösung in m, 3. Strecke in m,
4. Zählrate der zufälligen Koinzidenzen in counts per second cps
r⃗ Ortsvektor in m
R1 = T1 , R2 = 1
T2
Relaxationsraten zu T1 und T2 , in 1/s
1
r1,2 Relaxivität in 1/s
RD (𝜆) spektrale Antwort des Systems
Rf Radon- oder X-ray-Transformation einer Funktion f
R[A] Radon-Transformation von A
Re{. . .} Realteil von {. . . }
s Elastizitätskonstante in 1/Pa
Verzeichnis der Formelzeichen, Symbole und Indizes | XXXI

S 1. Deformation, 2. Empfindlichkeit eines Röntgenfilms (nach DIN),


3. Fläche in m2 , 4. Sensitivität in % oder cps/Bq, 5. Signal, z. B.
gezählte Photonen in einem Pixel, 6. Zählrate der gestreuten
Koinzidenzen in counts per second cps
S(t) Signal
SAR spezifische Absorptionsrate in W/kg
So optische Dichte
ΔT Temperaturdifferenz in K
T 1. absolute Temperatur in K, 2. spektrale Transmission, 3. Zählrate
der echten Koinzidenzen in counts per second cps oder 1/s,
4. Dauer in s, 5. mechanische Spannung in Pa, 6. Temperatur in K
T⃗ Drehmoment in Nm
t Zeit in s
Δt Zeitdifferenz in s
T1 Spin-Gitter-Relaxationszeit in s
T2 Spin-Spin-Relaxationszeit in s
T2∗ effektive Querrelaxationszeit in s
TA Referenztemperatur (arterielles Blut) in K oder °C
TA-Scan Zeitdifferenz zwischen der Aufnahme zweier
aufeinanderfolgender A-Scans in s
TE 1. Echozeit in s, 2. Belichtungszeit (bei Röntgenaufnahmen) in s
TI Inversionszeit in s
TP Primärstrahltransparenz
TR Wiederholzeit (engl. repetition time) in s
TS Streustrahltransparenz
tan 𝛿 dielektrischer Verlustwinkel
u 1. Öffnungswinkel/Aperturwinkel, 2. elektrische Spannung
(Zeitbereich) in Volt, 3. Raumfrequenz in x-Richtung in 1/m
U elektrische Spannung (Frequenzbereich) in Volt
UA Anodenspannung (einer Röntgenröhre) in V
UB Beschleunigungsspannung meistens in kV
Uk Spannungen in V
U(t) induzierte Spannung in der Empfangsspule in V
v Raumfrequenz in y-Richtung in 1/m
V Messsignal in V
v⃗ Schallschnelle in m/s
Vf förderliche Vergrößerung
Vm Transmembranspannung in V
VM Gesamtvergrößerung eines Mikroskops
vz Geschwindigkeitskomponente in z-Richtung in m/s
Vz Geschwindigkeit eines Teilchens in z-Richtung in m/s
W Pixelwerte in einem Bild
XXXII | Verzeichnis der Formelzeichen, Symbole und Indizes

W1 (kz ) Gewichtsfunktion zur Modulation des HF-Feldes


wm (T) Funktion, die bei temperaturabhängiger Perfusion zum Tragen
kommt
WL Fenstermitte (Window Level)
WW Fensterbreite (Window Width)
x Ortskordinate in m
y Bildhöhe eines Objekts von der optischen Achse in m
Y Admittanz in 1/Ω = S
y Ortskoordinate in m
Z 1. Impedanz in Ω, 2. Feldwellenwiderstand, Schallimpedanz in
kg/(m2 s), 3. Ordnungszahl eines Elementes
z 1. Ortskoordinate in m, 2. Ortskoordinate in Strahlrichtung bzw. in
die Tiefe des Objekts in m
𝛼 1. stereoskopische Winkelauflösung, 2. Absorptionskoeffizient in
dB/(cm ⋅ MHz), 3. Tomosynthesewinkel
𝛼(𝜆, T) Absorptionsvermögen
𝛼(T) = 𝜀(T) = 1 Absorptionsvermögen des idealen Schwarzen Körpers
𝛼(𝜔) Dämpfungsmaß
cos 𝛼opt = e−TR /T1 Ernst-Winkel
𝛼 = 𝜔1 ⋅ Tp = 𝛾 ⋅ B1 ⋅ Tp Kippwinkel, Flipwinkel
𝛽(𝜔) Phasenmaß
𝛤 Identitätsmatrix
𝛤(z) komplexes Rückstreusignal aus der Tiefe z
𝛤H Äquivalentdosisleistungskonstante in Sv m2 /(As) oder
Sv m2 /(A min)
𝛾 1. Vergrößerung des Zoom-Systems, 2. Reflektivität
𝛾
(dimensionslos), 3. gyromagnetisches Verhältnis, (— 𝛾 = 2𝜋 ) in
Hz/T, 4. Projektionswinkel
𝛾(𝜏) Kohärenzfunktion
𝛤(𝜔) Reflexionsfaktor
𝜕2 𝜕2 𝜕2
Δ = 𝜕x 2 + 𝜕y2 + 𝜕z2 Delta-Operator (hier: Beispiel für kartesische Koordinaten)

Δ Laplace-Operator
𝛿 1. räumliche Auflösung in m, 2. chemische Verschiebung in ppm,
3. Diracsche Deltafunktion
𝜀0 elektrische Feldkonstante (= 8,854 ⋅ 10−12 As/Vm)
𝜀r Permittivität, komplexe relative Dielektrizitätszahl
𝜀(𝜆, T) Emissionsvermögen eines Materials
𝜀 Nachweiswahrscheinlichkeit in %
𝜂 1. Kristallwirkungsgrad, 2. Wirkungsgrad einer Röntgenröhre
𝜗 stereoskopische Tiefenwahrnehmung in m
𝜃 Brechungswinkel
Verzeichnis der Formelzeichen, Symbole und Indizes | XXXIII

𝜃e , 𝜃r , 𝜃t Einfallswinkel, Reflexionswinkel, Brechungswinkel (in


°[Winkelgrad])
𝜅 1. Leitfähigkeitstensor in 1/Ωm, 2. Kompressibilität in m2 /N
𝜆 1. Wellenlänge in m, 2. Zerfallskonstante in 1/s,
3. Regularisierungsparameter
Δ𝜆 spektrale Breite (FWHM) einer Lichtquelle in m
𝜆0 Zentralwellenlänge einer breitbandigen Lichtquelle in m
𝜆S Wellenlänge der sogenannten Schwarzkörperstrahlung in m
𝜇 1. linearer Schwächungskoeffizient in 1/m oder 1/cm, 2. Mittelwert
einer Verteilung, 3. Röntgenschwächungskoeffizient in 1/m
𝜇a Absorptionskoeffizient in 1/m oder 1/cm
𝜇S󸀠 reduzierter Streukoeffizient in 1/m oder 1/cm
𝜇⃗ = 𝛾 ⋅ J ⃗ magnetisches Moment in Am2
⟨𝜇⟩ Erwartungswert des magnetischen Moments
⟨𝜇z ⟩ = mI 𝛾ℏ Vektorkomponenten des magnetischen Momentes entlang des
statischen Magnetfeldes in Am2
𝜈 Frequenz eines Photons in Hz
𝜉 Detektorelement
𝛱(kz ) Fensterfunktion
𝜋 Kreiszahl = 3,1415926. . .
𝜌 1. spezifischer Widerstand in Ωm, 2. Spindichte in 1/m3 , 3. Dichte
in kg/m3 oder g/cm3
𝜌(𝜆, T) spektrale Energiedichte in J/(m3 Hz)
𝜌b Dichte von Blut in kg/m3 oder g/cm3
𝛴 Selektivität eines Streustrahlenrasters
𝜎 1. Leitfähigkeit in 1/Ωm, 2. Streuquerschnitt in m2 ,
3. Standardabweichung einer Verteilung
𝜎2 Varianz einer Verteilung
𝜏 1. Aktivierungszeit in s, 2. Relaxationszeit in s,
3. Koinzidenzfenster in ns, 4. Zeitverzögerung in s
𝛷 1. elektrisches Potential in V, 2. Teilchenfluenz in (Zahl der
Teilchen)/m2
𝛷(r,⃗ t) orts- und zeitabhängige Photonendichte im streuenden Medium
in (Photonen)/m3 oder (Photonen)/cm3
𝛷(t) magnetischer Fluss durch die Empfangsspule in Tm2
𝜙 1. Teilchenflussdichte in (Zahl der Teilchen)/m2 s,
2. Phasenverschiebung zwischen Referenz- und Probenwelle
𝜙(y, Ty ) = 𝜔 ⋅ Ty eingestellte Phase bei den Phasenkodierschritten
𝜑 Packungsdichte in %
𝛹 Energiefluenz in J/m2
𝜓 Energieflussdichte in J/(m2 s)
𝛺 Raumwinkel
XXXIV | Verzeichnis der Formelzeichen, Symbole und Indizes

𝜔 Kreisfrequenz in 1/s
Δ𝜔 Bandbreite (Kreisfrequenz) in 1/s
𝜔0 Larmor-Frequenz in 1/s
𝜕 𝜕
∇ = e⃗x 𝜕x + e⃗y 𝜕y + e⃗z 𝜕z𝜕 Nabla-Operator (hier: Beispiel für kartesische Koordinaten)
Olaf Dössel
1 Die bildgebenden Verfahren in der Medizin

1.1 Historie und Motivation | 2


1.2 Übersicht über die Verfahren der medizinischen Bildgebung | 4
1.3 Von der medizinischen Fragestellung über die Bildgebung zum Befund | 6

Zusammenfassung: Bilder vom Inneren des Körpers sind oft die wichtigste Grundlage
für eine genaue und zuverlässige Diagnostik. Welches sind die wichtigsten Methoden
der medizinischen Bildgebung, wie funktionieren sie und welche Rolle spielen sie bei
der Diagnostik? Die bildgebenden Verfahren werden hier tabellarisch vorgestellt und
eingeordnet. Es wird deutlich, dass die Bildgebung immer in einen medizinischen Ab-
lauf eingebettet ist.

Abstract: Images depicting the inside of the body are often the most essential basis for
precise and reliable diagnostics. This chapter addresses questions such as: which are
the most important methods of medical imaging, how do they function, and what is
their specific role for diagnostics? The various modalities of medical imaging are listed
and ordered here, and it becomes apparent that medical imaging is always embedded
into a clinical workflow.
2 | Olaf Dössel

1.1 Historie und Motivation


Der Wunsch des Arztes, in den Körper des Patienten hineinzuschauen, ist sehr alt und
nahe liegend. Beim Sezieren von Leichen hatte man bei kranken Menschen typische
Gewebeveränderungen entdeckt. Die Möglichkeit, diese Veränderungen schon früh-
zeitig am lebenden Patienten zu sehen, kann die Diagnose verbessern. Sie kann hel-
fen, die richtige Therapie auszuwählen, und damit eine Heilung ermöglichen bzw. be-
schleunigen. Wilhelm Conrad Röntgen erkannte am 8. November 1895 sofort, dass
er einen Weg zum „Blick in das Innere eines Patienten“ gefunden hatte (󳶳Abb. 1.1).
Inzwischen sind zur Röntgentechnik viele andere Verfahren – man spricht auch von
bildgebenden Modalitäten – hinzugekommen. Sie alle werden in diesem Kapitel sehr
kurz, in den folgenden Kapiteln dann ausführlich beschrieben.
Parallel zu den technischen Systemen der Bildgebung haben sich medizinische
Fachdisziplinen entwickelt, die sich mit der richtigen Aufnahme und Interpretation
der Bilder befassen: die Radiologie und die Nuklearmedizin. Die Vorbereitung des Pa-
tienten, seine richtige Lagerung im bildgebenden System, die Aufnahmeparameter,
welche den optimalen Informationsgewinn versprechen, die Auswahl eines geeigne-
ten Tracers bei den nukleardiagnostischen Verfahren sowie das Erstellen des Befunds
(die medizinische Interpretation der Bilder) sind wichtige Themen der Radiologie und
Nuklearmedizin, aber nicht Gegenstand dieses Buches. Aber natürlich soll in jedem
Kapitel ein kurzer Blick auf die medizinischen Fragestellungen und Indikationen ge-

Abb. 1.1: Eines der ersten Röntgenbilder zeigt


Albert von Koellikers Hand, aufgenommen von
Wilhelm Conrad Röntgen am 23. Januar 1896.
1 Die bildgebenden Verfahren in der Medizin | 3

worfen werden, bei denen die jeweilige Modalität heute die „Methode der ersten Wahl“
ist.
Die medizinische Bildgebung begann mit der Abbildung und Erkennung von Tu-
moren und Knochenbrüchen („morphologische Bildgebung“). Frühzeitig kam die
Abbildung von Blutgefäßen (Angiographie) hinzu, mit der beispielsweise Stenosen
(Gefäßverengungen) oder Aneurysmen (Gefäßaussackungen) entdeckt werden kön-
nen. Es folgte die Erweiterung auf die Abbildung von krankhaften Gewebeverände-
rungen und Malformationen (Fehlbildungen) jeglicher Art zu einem möglichst frühen
Zeitpunkt der Erkrankung.
Ein neues Kapitel der Bildgebung wurde mit der „funktionellen Bildgebung“ er-
öffnet. Beispielsweise wird hierbei die zeitliche Dynamik bestimmt, mit der ein Kon-
trastmittel in ein Organ oder ein Gewebe einfließt und wieder herausgespült wird, um
so funktionelle Prozesse in diesem Organ zu studieren. Auch Bewegungsabläufe von
Gelenken oder vom kontrahierenden Herzen können dargestellt werden. Die funktio-
nelle Magnetresonanztomographie kann u. a. zeigen, welcher Teil des Gehirns nach
einem sensorischen Stimulus zu arbeiten beginnt.
Die „quantitative Bildgebung“ liefert dem Arzt nicht nur Grauwertbilder, son-
dern Zahlen auf einer metrischen Skala, die physikalischen Messgrößen entsprechen.
So kann die Computertomographie den Röntgen-Schwächungskoeffizienten genau
bestimmen und damit beispielsweise einen wichtigen Beitrag zur Osteoporose-Di-
agnostik liefern. Andere Größen wie die Perfusion von Gewebe oder der Blutfluss in
den Gefäßen sind ebenfalls quantitative Messgrößen, die mit bildgebenden Systemen
erfasst werden können.
Mit der „molekularen Bildgebung“ wird gerade wieder ein neues Kapitel der
medizinischen Bildgebung aufgeschlagen. Lange bevor sich in den konventionellen
Bildern Gewebeveränderungen in einem erkrankten Organ zeigen, laufen dort bio-
chemische Vorgänge in veränderter Form ab. Diese sichtbar zu machen, hat sich die
molekulare Bildgebung zum Ziel gesetzt. Beispielsweise möchte man Biomarker, die
auf eine Erkrankung hinweisen, ortsaufgelöst darstellen.
Die „interventionelle Bildgebung“ ist eine weitere besondere Form der Bildge-
bung: Während eines ärztlichen Eingriffs in den Körper des Patienten sollen quasi in
Echtzeit Bilder aufgenommen werden, die dem Arzt die Navigation erleichtern und
ihm zeigen, ob das Ziel der Intervention (die Resektion eines Tumors, die Aufweitung
eines Blutgefäßes etc.) vollständig erreicht wurde.
Oft erkennt man, dass eine bildgebende Modalität alleine noch nicht alle of-
fenen Fragen des Arztes beantworten kann. Zur Lösung sind hier die Systeme der
„multimodalen Bildgebung“ entstanden, z. B. die Kombination aus PET und CT.
Alle diese Aspekte der medizinischen Bildgebung sollen in diesem Buch zusam-
men mit den Grundprinzipien der wichtigsten Modalitäten vorgestellt werden.
4 | Olaf Dössel

1.2 Übersicht über die Verfahren der medizinischen Bildgebung


󳶳Tabelle 1.1 zeigt eine Übersicht über die heute in der Diagnostik eingesetzten bildge-
benden Verfahren in der Medizin.
Das älteste bildgebende Verfahren der Medizin ist das Projektionsröntgen, bei
dem Röntgenstrahlen den Körper des Patienten durchdringen und das „Schattenbild“
der Röntgenabschwächung mit einem flächenhaften Detektor für Röntgenstrahlen
(vom Röntgenfilm bis zum „Flat Dynamic X-Ray-Detector“) aufgezeichnet wird. Das
Verfahren ist vergleichsweise preiswert, leicht zu bedienen, liefert sehr schnell gute
Bilder und ist damit die Basismodalität der medizinischen Bildgebung.
Mit der Computertomographie, kurz: CT (engl.: Computed Tomography), gelingt
es, überlagerungsfreie Schichtbilder des Körpers zu erzeugen. Die Frage: „Was liegt
davor und was liegt dahinter?“, die beim Projektionsröntgen noch offen bleibt, kann
so beantwortet werden. Aus einem Stapel von mehreren Schichtbildern entsteht ein
3D-Datensatz. Bei der CT rotieren Röntgenröhre und Detektorzeile bzw. -fläche um den
Patienten und nehmen Daten auf, aus denen der Computer ein Bild berechnen kann.
Bei der Szintigraphie und der Einzelphotonen-Emissions-CT, der Single Photon
Emission Computed Tomography, kurz SPECT, werden Moleküle in den Körper ein-
gebracht (durch Injizieren, Schlucken oder Inhalieren), die einen Gammastrahler ent-

Tab. 1.1: Die heute in der Diagnostik routinemäßig eingesetzten bildgebenden Verfahren.

Bildgebende Modalität Beschreibung des Verfahrens


Projektionsröntgen Aufnahme von Schattenbildern des Körpers mit
Röntgenstrahlen
Computertomographie, CT Schichtbildverfahren zur Abbildung des Röntgen-
Schwächungskoeffizienten
Szintigraphie und Einzelphotonen- Abbildung der Aktivitätsverteilung von mit einem
Emissionstomographie (Single Gammastrahler markierten Molekülen
Photon Emission Computed
Tomography), SPECT
Positronen-Emissions-Tomographie, Abbildung der Aktivitätsverteilung von mit einem
PET Positronenstrahler markierten Molekülen
Magnetresonanztomographie, MRT Abbildung eines Produktes aus Protonendichte und
Funktionen der Relaxationszeiten T1 und T2
Ultraschall-Bildgebung, US Darstellung des Ultraschall-Echos von Gewebegrenzflächen
und der rückgestreuten Schallintensität von Gewebe
Endoskopie Blick in den menschlichen Körper durch natürliche
Körperöffnungen oder kleine Einschnitte, unter Nutzung
optischer Linsensysteme, Glasfaserbündel und
Bildsensoren
Optische Kohärenztomographie, OCT Darstellung der optischen Rückstreuung in den obersten
100 μm bis 1 mm eines Organs, z. B. der Netzhaut
Operationsmikroskopie Vergrößerte optische Darstellung während einer Operation
1 Die bildgebenden Verfahren in der Medizin | 5

halten. Durch den Nachweis der aus dem Körper emittierten Gamma-Quanten mit ei-
ner Gammakamera kann ein Bild der Gamma-Aktivität rekonstruiert werden und da-
mit der Weg des Gammastrahlers („Tracer“) im Körper des Patienten verfolgt werden.
Im Gegensatz zur SPECT werden bei der Positronen-Emissions-Tomographie
(kurz: PET) Positronenstrahler in den Körper gebracht. Da die emittierten Positronen
aber schon nach ca. 1 mm im Körper mit einem Elektron kollidieren und dabei zwei
Gamma-Quanten entstehen, werden außerhalb des Körpers wieder Gamma-Quanten
nachgewiesen. Die Tatsache, dass die beiden Gamma-Quanten genau in entgegenge-
setzte Richtungen von ihrem Entstehungsort wegfliegen, führt dazu, dass mit einem
Koinzidenz-Detektor und einem geeigneten Algorithmus ein sehr genaues Bild der Ak-
tivitätsverteilung im Körper rekonstruiert werden kann.
Bei der Ultraschall-Bildgebung wird eine Schallwelle im Frequenzbereich 1 MHz
bis typisch 20 MHz in den Körper des Patienten gesendet und das zurückkommende
Echo aufgezeichnet. An Grenzflächen zwischen zwei Gewebearten mit unterschiedli-
cher Schallimpedanz kommt es zu starken Reflexen. Wird eine schmale „Schallkeule“
durch den Körper geschwenkt, kann so ein Bild dieser Grenzflächen ähnlich wie beim
Radar dargestellt werden. Auch aus dem zwischen den Grenzflächen liegenden Ge-
webe werden Signale zurückgestreut – ihr räumlich-zeitlicher Verlauf lässt Schlüsse
auf krankhafte Gewebeveränderungen zu. Die Echos und Streusignale von bewegten
Objekten zeigen wegen des Doppler-Effektes eine charakteristische Frequenzverschie-
bung, die zur quantitativen Bestimmung von Blutfluss und Gewebebewegung genutzt
werden kann.
Die Magnetresonanztomographie – kurz MRT – ist das jüngste unter den ab-
bildenden Verfahren der Medizin mit einer weltweit herausragenden Bedeutung. Der
Patient wird in ein sehr starkes und sehr homogenes statisches Magnetfeld gelegt
(z. B. 1 T oder 3 T). Dadurch werden die Protonen-Spins, die sich in allen gebunde-
nen H-Atomen in großer Zahl im Körper des Menschen befinden, ausgerichtet und
zur Präzession gebracht. Ein hochfrequentes (HF), mit genau dieser Präzessionsfre-
quenz rotierendes elektromagnetisches Feld (z. B. 42,6 MHz bei 1 T oder 127,8 MHz bei
3 T) kann diese Spins umklappen. Nach Abstellen des HF-Feldes klappen die Spins zu-
rück in den Grundzustand und senden dabei selber HF-Signale aus, die mit Antennen
aufgenommen werden. Durch geschickt überlagerte Magnetfeld-Gradienten kann der
Ort der sendenden Protonen verschlüsselt werden. So entstehen am Ende mithilfe ei-
nes Rekonstruktionsalgorithmus Bilder der Protonendichte (genauer: der Dichte von
gebundenen H-Atomen), die zusätzlich mit Funktionen der zwei charakteristischen
Abklingkonstanten (T1 und T2) gewichtet sind. Während Knochen wegen ihres nied-
rigen Gehalts an gebundenen H-Atomen weitgehend unsichtbar bleiben, können die
Weichteile des Körpers hervorragend sichtbar gemacht werden.
Auch die Endoskopie hat das Ziel, Bilder vom Inneren des Körpers darzustellen.
In der traditionellen Endoskopie werden Bilder der inneren Organe und Gewebe er-
zeugt, so wie sie sich darstellen würden, wenn der Körper aufgeschnitten und direkt
betrachtet würde. Mithilfe von Linsensystemen oder miniaturisierten Bildsensoren
werden die starren oder flexiblen Endoskope vom Arzt durch natürliche oder mittels
6 | Olaf Dössel

kleiner Schnitte künstlich geschaffene Körperöffnungen in die Hohlräume des Pati-


enten geschoben. Die Beleuchtung der Hohlräume erfolgt überwiegend über exter-
ne Lichtquellen, deren Lichteinkopplung über Glasfaserbündel geschieht. Neben der
traditionellen sogenannten „Weißlichtendoskopie“, bei der Xenonlampen oder heute
auch LEDs zum Einsatz kommen, werden überdies in jüngster Zeit Fluoreszenzlicht-
quellen oder konfokale Laserscanning-Systeme zur Begutachtung des Gewebes und
dessen Eigenschaften verwendet. Die Möglichkeit, ein krankhaft verändertes Organ
im gleichen Arbeitsschritt mittels im Endoskopschaft vorgeschobener Instrumente zu
behandeln, macht das Endoskop zu einem der wichtigsten Werkzeuge der minimalin-
vasiven Chirurgie.
Die optische Kohärenztomographie (OCT) ist in der Lage, optische Eigenschaf-
ten (Reflexionskoeffizienten) von Gewebe in den obersten Schichten (typisch 100 μm
bis 1 mm) eines Organs abzubilden. Im klinischen Einsatz ist das Verfahren heute bei
der spezifischen Diagnose der Netzhaut des Menschen. Andere Anwendungen, z. B.
die Abbildung von Stenosen in Blutgefäßen mit dem Ziel, vulnerable Plaques (gefähr-
liche Ablagerungen) zu erkennen, oder die Abbildung von Melanomen (Pigmentzel-
lentumoren) mit dem Ziel, Hautkrebs zu erkennen, sind Gegenstand der medizini-
schen Forschung.
Neben den oben genannten bildgebenden Verfahren, die in der Klinik eine große
Bedeutung haben, gibt es andere Methoden, die noch im Stadium der Forschung sind
und/oder sich bis heute nur in einzelnen spezifischen medizinischen Fragestellun-
gen als vorteilhaft erwiesen haben. Sie sind in 󳶳Tab. 1.2 zusammengefasst. An dieser
Stelle können sie nicht beschrieben werden, sie sind aber in den folgenden Kapiteln
ausführlich erklärt.

1.3 Von der medizinischen Fragestellung über die Bildgebung


zum Befund
In diesem Abschnitt soll die gesamte Kette der Bildgebung kurz betrachtet werden.
Jede medizinische Bildgebung beginnt mit einer Fragestellung. Der Arzt kann das
Ziel haben, eine Hypothese abzuklären, also zu verifizieren oder auszuschließen. In
diesem Sinne stellt ein sogenannter „negativer Befund“ keine unnötige Aufnahme
dar, sondern liefert oft eine entscheidende Information für die Wahl des richtigen Be-
handlungspfades – und manchmal auch eine gute Nachricht für den Patienten. Der
Arzt kann weiterhin das Ziel haben, den Verlauf einer bekannten Erkrankung zu über-
wachen oder auch zu prüfen, ob eine Therapie erfolgreich ist (Monitoring). Beim
sogenannten Screening wird eine ganze Bevölkerungsgruppe ohne einen konkreten
Anfangsverdacht auf eine Erkrankung hin untersucht. Schließlich dienen bildgeben-
de Verfahren während einer Intervention der Orientierung, der Optimierung des Er-
gebnisses der Intervention und dem Minimieren von Komplikationen.
Nach der Formulierung der medizinische Fragestellung muss als nächstes die Ent-
scheidung gefällt werden, welches bildgebende Verfahren (man sagt auch: welche
1 Die bildgebenden Verfahren in der Medizin | 7

Tab. 1.2: Bildgebende Verfahren der Medizin, die sich noch im Stadium der Forschung und Entwick-
lung befinden.

Phasenkontrast-Röntgen Bestimmung von Bildern des Brechungsindex von Gewebe bei


und Phasenkontrast-CT Photonenenergien im Bereich der Röntgenstrahlung
Impedanzbildgebung und Abbildung der elektrischen Impedanz von Gewebe (Realteil
Impedanztomographie und/oder Imaginärteil bzw. 𝜀 und 𝜎, d. h. Dielektrizitätskonstante
und Leitfähigkeit)
Abbildung bioelektrischer Abbildung der bioelektrischen Ströme und Quellspannungen im
Quellen Körper, z. B. im Kopf (EEG/MEG) oder im Herzen (EKG/MKG)
Digitale Tomosynthese Abbildung von Schichten, berechnet aus mehreren
Röntgenprojektionen, aufgenommen aus einem eingeschränkten
Winkelbereich
Magnetic Particle Imaging Abbildung von kleinsten Mengen magnetischer Nanopartikel im
Körper für die Angiographie und für die molekulare Bildgebung
Mikrowellen und Terahertz- Abbildung der Streueigenschaften von Gewebe für Mikrowellen oder
Bildgebung für Terahertz-Strahlung
Thermographie Abbildung der Temperaturverteilung an der Körperoberfläche, um
daraus Rückschlüsse auf die darunter liegenden Organe zu
ermöglichen (z. B. Erkennung von Entzündungen)
Optische Bildgebung Durchleuchten oder Beleuchten des Körpers mit Licht im sichtbaren
bzw. nahinfraroten Spektralbereich bzw. Abbildung von
fluoreszierenden Stoffen im Körper

„Modalität“) zur Beantwortung der Frage am besten geeignet ist. Einige bildgeben-
de Systeme sind so preiswert und leicht zu bedienen, dass der behandelnde Arzt sie
selber einsetzt, andere sind komplexer und kostspieliger, so dass der Patient an einen
Facharzt, z. B. einen diagnostischen Radiologen oder Nuklearmediziner, überwiesen
wird.
Vor der eigentlichen Aufnahme beginnt dann eine sorgfältige Vorbereitung des
Patienten. Der Patient sollte – soweit dies möglich und erforderlich ist – in einem „ge-
normten Zustand“ in die Bildgebung gehen. Dann erfolgt die optimale Lagerung des
Patienten für die Bildaufnahme. Es muss entschieden werden, ob ein Kontrastmit-
tel eingesetzt werden sollte. Falls ja, muss das richtige Kontrastmittel an der richtigen
Stelle und zum richtigen Zeitpunkt appliziert werden.
Erst an dieser Stelle beginnt das technische System der Bildgebung: Die Parame-
ter des bildgebenden Systems müssen so eingestellt werden, dass die Fragestellung
bestmöglich beantwortet werden kann und dabei dem Patienten so wenig Schaden
wie möglich zugefügt wird. Es erfolgt nun die Datenakquisition.
Nur im Falle eines klassischen Röntgenbildes ist an dieser Stelle das Bild quasi
fertig. In fast allen anderen Fällen wird aus den Messdaten des bildgebenden Systems
erst ein Bild erzeugt. Hierbei kommen häufig mathematische Gleichungen und Algo-
rithmen zum Einsatz. Die Wahl des richtigen Algorithmus ist für die Qualität des Be-
8 | Olaf Dössel

medizinische welches Vorbereitung Bild-


Fragestellung bildgebende Lagerung akquisition
Verfahren? Kontrastmittel

Befundung Bild Bild- Algorithmen


Darstellung verarbeitung zur Bild-
berechnung

Abb. 1.2: Schematische Darstellung der Kette von der medizinischen Fragestellung bis zum Befund.

fundes ebenso entscheidend wie die richtigen Parameter bei der Bildaufnahme; beide
müssen optimal zusammenpassen.
Klassische Röntgenbilder werden zur Befundung in den sogenannten Lichtkas-
ten gehängt. Digital vorliegende Bilder werden auf einem Befundungsmonitor be-
trachtet. An diesen Monitor werden besondere Anforderungen bezüglich Auflösung,
Kontrast und Grundhelligkeit gestellt.
Außerdem gibt es die Option, die Bilder am Befundungsmonitor mithilfe der
digitalen Bildverarbeitung so zu verändern, dass die medizinische Fragestellung
am besten beantwortet werden kann. Dies geschieht oft auch interaktiv. Der Kontrast
kann nachträglich verändert werden, das Signal-Rausch-Verhältnis kann zulasten
der räumlichen Auflösung verbessert werden, es können Falschfarben eingesetzt wer-
den, man kann eine „Zoom-Funktion“ verwenden oder es können Bilder mit anderen
Bildern überlagert werden, um nur einige Optionen zu nennen.
Am Ende der Kette ist es Aufgabe des Arztes, mithilfe der Bilder einen Befund zu
erstellen. Was war auf den Bildern zu sehen? Wie wird die Frage, mit der die Bildge-
bung initiiert wurde, beantwortet? War auf den Bildern noch etwas anderes zu erken-
nen, was nicht erwartet wurde?
Wie kann das Bild dazu beitragen, den Gesundheitszustand des Patienten zu ver-
bessern? An diesem Ziel muss sich die gesamte Bildgebungskette orientieren. Tech-
nische Spielereien sind unnütz und unnötig. Am Ende zählt nur, was dem Patienten
einen messbaren Vorteil bringt (evidence based medicine).
󳶳Abb. 1.2 zeigt schematisch die Kette von der Fragestellung bis zum Befund.

Weiterführende Literatur
Beutel J., Kundel H. L., van Metter R. L.: Handbook of Medical Imaging Volume 1. Bellingham: SPIE
Press 2000.
Dössel O.: Bildgebende Verfahren in der Medizin. Berlin: Springer 2000.
Morneburg H.: Bildgebende Systeme für die medizinische Diagnostik. Erlangen: Publicis 1995.
Oppelt A.: Imaging Systems for Medical Diagnostics. Erlangen: Publicis 2005.
Smith N. B., Webb A.: Introduction to Medical Imaging, Cambridge: Cambridge University Press 2011.
Suetens P.: Fundamentals of Medical Imaging. Cambridge: Cambridge University Press 2009.
Webb A.: Introduction to Biomedical Imaging. Hoboken: John Wiley 2003.
Til Aach, Olaf Dössel
2 Bildgebung durch Projektionsröntgen

2.1 Diagnostik mit Projektionsröntgen | 10


2.2 Physikalische Grundlagen | 12
2.3 Dosimetrische Größen | 23
2.4 Komponenten zur Erzeugung von Röntgenstrahlung | 25
2.5 Detektion von Röntgenstrahlung | 32
2.6 Bildqualität: Modulationsübertragungsfunktion (MTF) und detektierte
Quanteneffizienz (DQE) | 45
2.7 Phasenkontrast-Röntgen | 51
2.8 Gesetzliche Vorschriften zur Qualitätssicherung | 54
2.9 Medizinische Applikationen und spezifische Systeme | 55
2.10 Neuere Entwicklungen und Trends | 56

Zusammenfassung: Projektionsröntgen ist nach wie vor das „Flaggschiff“ der medizi-
nischen Bildgebung: schnell, zuverlässig, von hoher diagnostischer Aussagekraft und
vergleichsweise preiswert. Das Kapitel beginnt mit den physikalischen Grundlagen
der Erzeugung und Abschwächung von Röntgenstrahlen. Die Technik der Röntgen-
röhre und der Bildaufnahmesysteme wird beschrieben. Die quantitativen Messgrößen
der Bildqualität sind die Modulationsübertragungsfunktion MTF und die detektierte
Quanteneffizienz DQE. Auch auf die gesetzlichen Vorschriften zur Qualitätssicherung,
auf medizinische Applikationen und auf neuere Entwicklungen wird eingegangen.

Abstract: Projection X-ray imaging is still the “flagship” of medical imaging: it is


fast, reliable and delivers important diagnostic information at a reasonably low cost.
This chapter starts by describing the physics of generating and attenuating X-rays.
Subsequently, the technology of the X-ray tube and the X-ray detection system are
described. Quantitative measures of the image quality are the Modulation Transfer
Function (MTF) and the Detective Quantum Efficiency (DQE). Finally, regulations for
quality assurance, medical applications, and new developments are outlined.

Til Aach ist, nachdem er den größten Teil dieses Kapitels geschrieben hat, leider
verstorben. Wir haben mit ihm einen guten Freund und einen exzellenten Hoch-
schullehrer und Wissenschaftler verloren. Wir werden ihn nicht vergessen.
10 | Til Aach, Olaf Dössel

2.1 Diagnostik mit Projektionsröntgen


Röntgenstrahlung wurde bereits kurz nach ihrer Entdeckung 1895 durch W. C. Rönt-
gen zur medizinischen Diagnose eingesetzt. Bis heute ist Bildgebung durch Projek-
tionsröntgen eines der vielseitigsten und am häufigsten genutzten bildgebenden
Verfahren in der medizinischen Diagnostik, beispielsweise in Form von Projektions-
radiographie bei Verdacht auf Frakturen oder in Form von Durchleuchtung (Fluo-
roskopie) bei Herzkatheteruntersuchungen. 󳶳Abb. 2.1 zeigt das Bildgebungsprinzip:
Die durch eine Röntgenröhre erzeugte Strahlung durchdringt den Patienten und wird
durch photoelektrische Absorption und Streuung geschwächt. Ein vor der Röhre ange-
brachter, verstellbarer Kollimator engt das Strahlenbündel auf den entsprechend der
diagnostischen Fragestellung relevanten Bereich des Patienten ein. Auf der der Röhre
gegenüberliegenden Seite des Patienten wird das geschwächte Strahlungsmuster
durch einen planaren Detektor aufgezeichnet.

Projektionsröntgen: strukturabbildendes projektives Verfahren in der Medizin auf Basis von Rönt-
genstrahlen.

Projektion: (lat. proicere – hinauswerfen, hinwerfen): in der BMT das Integral der abgebildeten
Gewebseigenschaften auf dem Strahlweg bei der Bildgebung, speziell des Röntgenschwächungs-
koeffizienten durch den Körper des Patienten hindurch, entweder als einzelner Nadelstrahl oder
als eine Linie aus vielen Nadelstrahlen.

Zur Reduktion des Streustrahlanteils kann unmittelbar vor dem Detektor ein Streu-
strahlenraster in den Strahlengang eingebracht werden. Die aufgezeichneten Pro-
jektionen hängen somit von der Schwächung ab, welche die Röntgenstrahlen beim
Durchgang durch den Patienten erfahren haben. Da die Strahlen hierbei meist meh-

Röntgenröhre
Kollimator

Patient

Streu-
strahlen-
raster Abb. 2.1: Schematische Darstellung der Bildge-
Detektor bung durch Projektionsröntgen.
2 Bildgebung durch Projektionsröntgen | 11

Fokus O

Z
Fokus-Objekt- Fokus-Film-
Abstand Z0 Abstand b

Patient
P

o P
x
Film y

Abb. 2.2: Schematische Darstellung der Abbildungsgeometrie.

rere hintereinanderliegende Gewebestrukturen oder Organe nacheinander durch-


laufen, überlagern sich diese Strukturen in den aufgenommenen Bilddaten, wie
beispielsweise in 󳶳Abb. 2.19 erkennbar ist.
Die erforderliche Größe des Detektors hängt von der Größe des abzubildenden
Objekts ab. Wir gehen idealisiert davon aus, dass die Röntgenstrahlung in einem als
Brennfleck bezeichneten Punkt der Röhre entsteht. 󳶳Abb. 2.2 zeigt die Abbildungs-
geometrie: Der Brennfleck entspricht dem Projektionszentrum O des Strahlengangs,
dieser Punkt ist gleichzeitig Ursprung der kartesischen Koordinaten X, Y, Z. Der Ab-
stand zwischen dem Brennfleck O und dem Objekt entlang der Z-Achse entspricht der
Gegenstandsweite bzw. dem Fokus-Objekt-Abstand (FOA) Z0 und der Abstand zwi-
schen Brennfleck und Detektor der Bildweite bzw. dem Fokus-Film-Abstand (FFA) b.
Der Ursprung o der Koordinaten x, y in der Detektorebene wird durch den Schnitt-
punkt zwischen der Z-Achse und der Detektorebene gebildet. Ein Objektpunkt mit den
Koordinaten P = [X, Y, Z] wird dann auf den Punkt p = [x, y] in der Detektorebene ab-
gebildet, wobei x und y sich berechnen gemäß

b b
p = [x, y] = [ X, Y] (2.1)
Z Z

Da der FFA b größer ist als der FOA Z0 , vergrößert diese Abbildungsgeometrie, so dass
je nach diagnostischer Fragestellung Detektoren bis zu einer Größe von ca. 50 × 50 cm
zum Einsatz kommen.
12 | Til Aach, Olaf Dössel

2.2 Physikalische Grundlagen


2.2.1 Erzeugung von Röntgenstrahlung

Diagnostische Röntgenstrahlung wird in einer hochevakuierten Röntgenröhre durch


Abbremsen beschleunigter Elektronen mit der Elementarladung e = 1,602 u 10−19 As
an einer Anode erzeugt. Der schematische Aufbau einer Röntgenröhre ist in 󳶳Abb. 2.3
gezeigt.

Röntgenröhre: Vakuumröhre, in der elektrische Leistung in Röntgenstrahlung (und Wärme) umge-


wandelt wird.

Durch Aufheizen der Kathode treten aus dieser Elektronen aus, die durch Anlegen ei-
ner positiven Beschleunigungsspannung UA zwischen Anode und Kathode zur Anode
hin beschleunigt werden. Die eingestellte Beschleunigungsspannung hängt dabei von
der diagnostischen Fragestellung ab und liegt zwischen 20 und 150 kV. Hierbei erge-
ben sich – je nach dem durch die Kathode fließenden Heizstrom IH – Anodenstrom-
stärken im Bereich einiger Milliampere bis ca. 1,5 Ampere. Die Elektronen dringen
beim Auftreffen auf die Anode in das Anodenmaterial ein und werden dabei abge-
bremst. Der weitaus größte Anteil der auftreffenden Elektronen kollidiert hierbei mit
Elektronen in der Hülle von Atomen des Anodenmaterials und schlägt diese Elektro-
nen aus den Atomhüllen heraus, wodurch die Atome ionisiert werden. Die hierbei von
den beschleunigten Elektronen an das Anodenmaterial abgegebene Energie wird in
Gitterschwingungen, also Wärme, umgesetzt [Oppelt 2005, Hsieh 2003, Buzug 2004].

Bremsstrahlung
Ein sehr kleiner Anteil von ca. 1 % der Elektronen gelangt jedoch in die Nähe eines
Atomkerns des Anodenmaterials und wird in dessen elektrischem Feld abgebremst.
Die kinetische Energie, die das Elektron hierbei verliert, wird in Form von Brems-
strahlung in Röntgenstrahlung umgesetzt. Trifft das ankommende Elektron auf einen
Atomkern, wird es bis zum Stillstand abgebremst und gibt seine gesamte kinetische
Energie Ekin = e⋅UA in Form von Röntgenstrahlung ab. Diese beiden Wechselwirkungs-
prozesse sind in 󳶳Abb. 2.4 dargestellt. Bremsstrahlung ist also nicht monoenergetisch,

Anode
Kathode
Abb. 2.3: Schematische Darstellung der Erzeu-
Röntgen- gung diagnostischer Röntgenstrahlung in einer
strahlen hochevakuierten Röhre.
2 Bildgebung durch Projektionsröntgen | 13

Abb. 2.4: Entstehung von Bremsstrahlung durch Abbremsung eines auftreffenden Elektrons im
elektrischen Feld eines Atomkerns (links) und durch direkte Kollision mit einem Atomkern (Mit-
te). Rechts: Entstehung charakteristischer Strahlung durch Kollision mit einem Elektronen in der
inneren Elektronenhülle.

sondern enthält Röntgenphotonen mit einem Spektrum unterschiedlicher Energien,


wobei die maximale Energie eines erzeugten Röntgenphotons durch die kinetische
Energie Ekin begrenzt wird. Mit dem Planckschen Wirkungsquantum h = 6,6 ⋅ 10−34 Js
berechnen sich die maximale Frequenz 𝜈max bzw. die minimale Wellenlänge 𝜆 min der
erzeugten Röntgenphotonen zu
c
Ekin = e ⋅ UA = h ⋅ 𝜈max = h ⋅
𝜆 min
eUA hc
⇒ 𝜈max = , 𝜆 min = (2.2)
h eUA

wobei c für die Lichtgeschwindigkeit steht.

Bremsstrahlung: bei Röntgenstrahlung diejenige Strahlung, die durch das Abbremsen schneller
Elektronen entsteht. Bremsstrahlung hat ein breites Spektrum.

Die überwiegende Mehrheit der abgebremsten Elektronen gibt die Energie in einer
Folge von Abbremsprozessen wie in 󳶳Abb. 2.4 links gezeigt ab, wobei sich bei jeder
Wechselwirkung die Flugrichtung des Elektrons ändert. In der Summe ist die Inten-
sität ungefilterter Bremsstrahlung deshalb nahezu unabhängig von der Abstrahlrich-
tung (󳶳Abb. 2.5). Lediglich bei großen Abstrahlwinkeln, d. h. bei Abstrahlrichtungen
nahezu parallel zur Anodenoberfläche, kommt es zur Absorption von Strahlung durch
die Anodenoberfläche selbst. Der damit einhergehende Abfall der Intensität wird als
󳶳Heel-Effekt bezeichnet.
14 | Til Aach, Olaf Dössel

e–
e–
Abb. 2.5: Verteilung der abgestrahlten Intensi-
tät von Bremsstrahlung über dem Abstrahlwin-
kel.

Charakteristische Strahlung
Schlägt das ankommende Elektron ein gebundenes Elektron aus der K-, L-, M- oder
N-Schale eines Atomkerns des Anodenmaterials heraus, wird der freigewordene Platz
unmittelbar durch ein Elektron aus einer weiter außen liegenden Schale eingenom-
men. Die Differenz der Bindungsenergien wird als elektromagnetische Welle abge-
strahlt. Bei Übergängen auf die kernnahen K- und L-Schalen mit hohen Bindungsener-
gien entsteht Röntgenstrahlung. Da die zu den Elektronenschalen gehörenden Ener-
gieniveaus gequantelt sind, gilt dies auch für die abgestrahlten Energiedifferenzen.
Die erlaubten Energiedifferenzen sind für das jeweilige Anodenmaterial charakteris-
tisch. Sie erscheinen als Linienspektrum in der erzeugten Röntgenstrahlung, welches
als charakteristische Strahlung bezeichnet wird.

Charakteristische Strahlung: Röntgenstrahlung, die durch hochenergetische Übergänge in den


Elektronenhüllen von Atomen oder Molekülen entsteht. Sie bewirkt diskrete Linien im Röntgen-
spektrum.

󳶳Abb. 2.6 zeigt das Energieniveauschema für das Element Wolfram, welches oft für
Anoden genutzt wird. Die kinetische Energie der auftretenden Elektronen muss grö-
ßer sein als die Bindungsenergie, z. B. der K-Schale, um ein gebundenes Elektron aus
dieser Schale herauszuschlagen (das sind bei Wolfram 69,5 keV). Durch Auffüllen des
Lochs durch ein Elektron aus der L-, M- oder N-Schale entstehen die K𝛼 bzw. K𝛾 -Linien
mit den Energien

EK𝛼 = EK − EL = 69,5 keV − 11,3 keV = 58,2 keV


EK𝛽 = EK − EM = 69,5 keV − 2,3 keV = 67,2 keV
EK𝛾 = EK − EN = 69,5 keV − 0,5 keV = 69,0 keV (2.3)

Je nach Drehimpulsquantenzahl der Elektronen spalten sich diese Linien noch gering-
fügig in die K𝛼1 und K𝛼2 -Linien auf und entsprechend auch für die Übergänge aus der
M- und N-Schale.

Spektrale Verteilung von Röntgenstrahlung


Die spektrale Verteilung der erzeugten Röntgenstrahlung setzt sich aus der Verteilung
von Bremsstrahlung und der Verteilung der charakteristischen Strahlung zusammen.
2 Bildgebung durch Projektionsröntgen | 15

Bindungsenergie
in keV
0
0,5 N-Schale
1
2
2,3 M-Schale
3 Mα
4
5
6
7
8
9
10
11
11,3 L-Schale
12 Lα Lβ
13

69 Abb. 2.6: Vereinfachte Darstellung der Bin-


69,5 K-Schale
70 Kα Kβ Kγ dungsenergien des Elements Wolfram.

Im Folgenden bezeichnen wir mit J𝜈 (𝜈) die abgestrahlte Leistung pro Frequenzinter-
vall und Fläche für Bremsstrahlung; diese spektrale Energieflussdichte hat dann die
Einheit W/(Hz ⋅ m2 ) = J/m2 . Experimentell zeigt sich, dass die spektrale Energiefluss-
dichte für ungefilterte Bremsstrahlung im Vakuum linear mit der Frequenz 𝜈 abfällt
gemäß [Haxel 1968]

J𝜈 (𝜈) = k𝜈 ⋅ Z ⋅ (𝜈max − 𝜈) für 0 ≤ 𝜈 ≤ 𝜈max (2.4)

wobei Z für die Ordnungszahl des Anodenmaterials steht und k𝜈 eine Proportionali-
tätskonstante ist, die ihrerseits proportional zum Anodenstrom IA ist. Dieser Verlauf
der spektralen Energieflussdichte ist in 󳶳Abb. 2.7 für verschiedene Anodenspannun-
gen gezeigt. Steigt die kinetische Energie der Elektronen über die Bindungsenergie
von Elektronen auf einer der kernnäheren Schalen des Anodenmaterials, kommt cha-
rakteristische Strahlung zur Bremsstrahlung hinzu. Die Lage der Beiträge der charak-
teristischen Strahlung zur spektralen Energieflussdichte wird durch das Moseleysche
Gesetz beschrieben [Haxel 1968]. Für die K𝛼 -Strahlung liegen diese Beiträge bei der
Frequenz
3
𝜈K𝛼 ≈ ⋅ 𝜈R ⋅ (Z − 1)2 (2.5)
4
mit der Rydberg-Frequenz 𝜈R = 3.29 ⋅ 1015 s−1 . Die durch Überlagerung von Brems-
strahlung und charakteristischer Strahlung entstehende gesamte spektrale Energie-
16 | Til Aach, Olaf Dössel

flussdichte ist ebenfalls in 󳶳Abb. 2.7 gezeigt. Die niedrigenergetischen Bremsstrah-


lungsbeiträge wurden hierbei durch Einbringen einer dünnen Aluminiumscheibe in
den Strahlengang absichtlich herausgefiltert. Diese „weichen“ Strahlungsanteile wür-
den im Körper eines Patienten vollständig absorbiert und damit die Strahlungsbelas-
tung erhöhen, ohne zur Bildqualität beizutragen. Diese Filterung erzeugt einen von
󳶳Gl. (2.4) abweichenden Abfall der spektralen Energieflussdichte bei niedrigen Fre-
quenzen.

7 50 kV

45 kV Grenzfrequenz
6
Energieflussdichte in J/m2s

5 40 kV

4 35 kV

3 30 kV

2 25 kV

1 20 kV

0
3 4 5 6 7 8 9 10 11 12
(a) Frequenz ν × 1018 in s−1


7

6 Kβ

Energieflussdichte in J/m2s

5
Dämpfung durch
Aluminiumfilter
4

0
0 2 4 6 8 10 12 14 16 18 20 22 24
(b) Frequenz ν × 1018 in s−1

Abb. 2.7: (a) Spektrale Energieflussdichte ungefilterter Bremsstrahlung im Vakuum für verschie-
dene Beschleunigungsspannungen. (b) Spektrale Energieflussdichte als Überlagerung gefilterter
Bremsstrahlung und charakteristischer Strahlung.
2 Bildgebung durch Projektionsröntgen | 17

Wirkungsgrad der Erzeugung von Röntgenstrahlung


Die gesamte von der Röntgenröhre abgestrahlte flächenbezogene Leistung (oder In-
tensität) JB entspricht der Fläche unter der spektralen Energieflussdichte. Die schmal-
bandige charakteristische Strahlung trägt dabei nur wenig zur Gesamtleistung bei,
so dass wir uns im Folgenden auf die Bremsstrahlung konzentrieren. Für ungefilterte
Bremsstrahlung ergibt die Integration von 󳶳Gl. (2.4) und Einsetzen von 󳶳Gl. (2.2)
𝜈max
2
𝜈max k ⋅ e2
JB = ∫ J𝜈 (𝜈)d𝜈 = k𝜈 ⋅ Z ⋅ = 𝜈 2 ⋅ Z ⋅ UA2 . (2.6)
2 2h
0

Die Gesamtleistung der Röntgenstrahlung Pt ist wiederum proportional zu JB . Fasst


man die Konstanten in 󳶳Gl. (2.6) zu einer neuen Konstanten zusammen und berück-
sichtigt explizit die Proportionalität zwischen JB und dem Anodenstrom IA , so ergibt
sich für die Leistung der ungefilterten Bremsstrahlung

Pt = kt ⋅ IA ⋅ Z ⋅ UA2 . (2.7)

Den Wirkungsgrad 𝜂 erhält man durch Normieren von Pt auf die aufgewendete Leis-
tung zu
Pt
𝜂= = kt ⋅ Z ⋅ UA (2.8)
UA ⋅ IA

Wirkungsgrad: bei Röntgenröhren der Quotient aus der aufgenommenen elektrischen Leistung
und der herauskommenden Röntgenleistung.

Der Wert der Konstanten kt wurde für ungefilterte Bremsstrahlung experimentell zu


kt = 1,1 ⋅ 10−9 V−1 ermittelt. Betreibt man eine Röntgenröhre mit einer Anode aus Wolf-
ram (Ordnungszahl Z = 74) bei einer Anodenspannung von UA = 125 kV, so beträgt
der Wirkungsgrad nur etwa ein Prozent. Einer Erhöhung des Wirkungsgrads durch
höhere Anodenspannungen sind enge Grenzen gesetzt, da die damit einhergehende
Verschiebung der spektralen Energieflussdichte zu höheren Photonen-Energien und
damit zu einem geringeren Kontrast in den Röntgenaufnahmen führt. Das Herausfil-
tern weicher Strahlungsanteile und die Einengung der Röntgenstrahlung auf einen
kleinen, von der diagnostischen Fragestellung abhängigen Raumwinkel reduzieren
praktisch den Wirkungsgrad weiter auf Werte deutlich unter ein Prozent.

2.2.2 Schwächung von Röntgenstrahlung durch Materie

Das Schwächungsgesetz
Röntgenstrahlung erfährt beim Durchgang durch Materie eine Schwächung, die für
diagnostische Röntgenstrahlung (bis zu einigen 100 keV) im Wesentlichen durch Ab-
sorption und durch Streuung der Röntgenquanten verursacht wird. Wir betrachten
18 | Til Aach, Olaf Dössel

dx d
n n + dn n₀ n (d)

Abb. 2.8: Links: Schwächung von Röntgen-


x x strahlung an einer dünnen Schicht. Rechts:
Schwächung von Röntgenstrahlung durch eine
Schicht der Dicke d.

zunächst ein paralleles Strahlenbündel, welches orthogonal auf eine dünne Material-
schicht der Dicke dx auftrifft, wie links in 󳶳Abb. 2.8 gezeigt.
Die Zahl der pro Fläche und Zeit auftreffenden Photonen sei n. Ferner sei die Strah-
lung monoenergetisch, d. h., sie bestehe aus Photonen mit derselben Energie h𝜈. Die
aus dem Material austretende Anzahl von Photonen werde mit n + dn bezeichnet.
Durch Schwächung gehen dem auftreffenden Strahlenbündel Quanten verloren, dn
ist damit negativ. Außerdem wird dn proportional zur Schichtdicke dx und zu n sein
[Haxel 1968], woraus
dn = −𝜇 ⋅ n ⋅ dx (2.9)

folgt. Die positive Proportionalitätskonstante 𝜇 (Einheit: m−1 ) ist materialabhängig


und wird als Schwächungskoeffizient bezeichnet. Für die rechts in 󳶳Abb. 2.8 ge-
zeigte Materialschicht der Dicke d, auf die n0 Photonen pro Fläche und Zeit auftreffen,
ergibt sich aus 󳶳Gl. (2.9) die Differentialgleichung

dn
= −𝜇 ⋅ n , mit n(x = 0) = n0 , n(x = ∞) = 0 (2.10)
dx
die durch das exponentielle Gesetz

n(d) = n0 ⋅ e−𝜇⋅d (2.11)

für die austretende Photonenzahl n(d) gelöst wird. Besteht die Materialschicht aus
mehr als einem Material, so ist der Schwächungskoeffizient selbst ortsabhängig und
󳶳Gl. (2.11) wird zu
d
n(d) = n0 ⋅ e− ∫0 𝜇(x)dx (2.12)
Multipliziert man die flächen- und zeitbezogene Photonenzahl n mit der Photonen-
energie h𝜈, so erhält man die Intensität J der Strahlung in der Einheit W/m2 und
󳶳Gl. (2.12) wird zu
d
J(d) = J0 ⋅ e− ∫0 𝜇(x)dx (2.13)
mit der einfallenden Intensität J0 und der austretenden Intensität J(d). Dieser Zusam-
menhang wird als Lambert–Beersches Gesetz bezeichnet.

Lambert–Beersches Gesetz: Gesetz, das die Schwächung von Röntgenstrahlung beim Durchgang
durch einen Körper mittels Schwächungskoeffizienten 𝜇(x) beschreibt.
2 Bildgebung durch Projektionsröntgen | 19

Der Schwächungskoeffizient μ ist für ein gegebenes Material abhängig von der Ener-
gie bzw. der Frequenz der Röntgenphotonen. Für polychromatische Röntgenstrahlung
mit der spektralen Energieflussdichte J𝜈 (𝜈) auf der Einfallsseite muss das monoener-
getische Schwächungsgesetz 2.13 deshalb für jeden infinitesimalen Intensitätsbeitrag
J𝜈 (𝜈)d𝜈 separat angesetzt und anschließend über alle Frequenzen integriert werden,
woraus sich
𝜈max
d
J(d) = ∫ J𝜈 (𝜈) ⋅ e− ∫0 𝜇(x,𝜈)dx d𝜈 (2.14)
0

für die austretende Intensität ergibt.


Der Schwächungskoeffizient μ hängt insbesondere von der Ordnungszahl Z und
der Dichte 𝜌 des Materials ab, wobei er für Röntgenstrahlung näherungsweise propor-
tional zur Dichte ist. Oft wird statt des Schwächungskoeffizienten deshalb auch der
auf die Materialdichte 𝜌 bezogene Massenschwächungskoeffizient 𝜇/𝜌 (Einheit: m2 /g)
angegeben.
Im Allgemeinen wird niedrigenergetische Strahlung stärker abgeschwächt als hö-
herenergetische Strahlung, d. h., der Schwächungskoeffizient fällt mit steigender Pho-
tonenenergie. Beim Durchgang von polyenergetischer Röntgenstrahlung durch Ma-
terie kommt es deshalb zu einer relativen Verschiebung der spektralen Energiefluss-
dichte hin zu höheren Energien. Dieser Effekt ist im Teil a) von 󳶳Abb. 2.9 gezeigt und
wird Strahlaufhärtung genannt. Außerdem unterscheiden sich, wie im Teil b) von
󳶳Abb. 2.9 dargestellt, die Schwächungskoeffizienten unterschiedlicher Gewebe bei
höheren Energien immer weniger, was zu dem bereits oben erwähnten Kontrastver-
lust in Radiographien bei Bildgebung mit zu hoher Anodenspannung führt.

Wechselwirkung von Röntgenstrahlung mit Materie


Die Schwächung diagnostischer Röntgenstrahlung durch Materie wird im Wesentli-
chen durch den Photoeffekt mit dem Schwächungskoeffizienten 𝜇p , die Compton-
Streuung mit dem Schwächungskoeffizienten 𝜇c und die Rayleigh-Streuung mit
dem Schwächungskoeffizienten 𝜇r verursacht. Nur bei dem Photoeffekt handelt es sich
um eine echte Absorption, während die Streueffekte die Röntgenstrahlung durch Ab-
lenken der Röntgenquanten aus ihrer Bahn schwächen, so dass die Quanten nicht
in gerader Linie auf den Detektor treffen. Der gesamte Schwächungskoeffizient ergibt
sich aus der Summe der einzelnen Koeffizienten [Oppelt 2005, Webb 2003].

Photoeffekt
Kollidiert ein Photon mit der Energie h𝜈 mit einem Elektron in der Hülle eines Atoms
und ist die Photonenergie größer als die Bindungsenergie Eb des Elektrons, so wird
das Elektron aus der Hülle herausgeschlagen und fliegt als freies Photoelektron mit
der kinetischen Energie Ee = h𝜈 − Eb weiter (󳶳Abb. 2.10 (a)). Das Photon wird dabei
20 | Til Aach, Olaf Dössel

ohne Patient
hinter 10 cm Gewebe
Intensität hinter 20 cm Gewebe

0 5 10 15 20 25
(a) Frequenz ν × 1018 in s−1

Knochen
10¹ Muskelgewebe
Fett
μᵨ in cm² g¯¹

10⁰

10¯¹
0 5 10 15 20 25
(b) Frequenz ν × 1012 in s−1

Abb. 2.9: (a) Strahlaufhärtung beim Durchgang polychromatischer Strahlung durch Material.
(b) Qualitativer Verlauf des Schwächungskoeffizienten verschiedener Gewebe über der Frequenz 𝜈.
Für hohe Frequenzen nähern sich die Kurven immer mehr an.

vollständig absorbiert. Das entstandene Loch in der Schale wird wieder aufgefüllt, wo-
bei niedrigenergetische Strahlung entsteht (4. . . 35 keV), die schnell absorbiert wird.
Für den Verlauf des Massenschwächungskoeffizienten gilt
𝜇p Z3
∝ (2.15)
𝜌 (h𝜈)3
er wird jedoch durch Sprünge unterbrochen (󳶳Abb. 2.10 (b)). Liegt die Photonenener-
gie beispielsweise unterhalb der Bindungsenergie von Elektronen in der K-Schale,
2 Bildgebung durch Projektionsröntgen | 21

Photoelektrischer Effekt
10³

10²

Massenschwächungskoeffizient in m²/kg
(a)

10¹

10⁰

10¯¹

10¯²

10¯³
1 10 100 1000
(b) Energie in keV

Abb. 2.10: (a) Schematische Darstellung des Photoeffekts. (b) Abhängigkeit des Massenschwä-
chungskoeffizienten von der Energie für den Photoeffekt in Xenon.

ist der Photoeffekt beschränkt auf Elektronen in weiter außen liegenden Schalen,
wie die L- und M-Schale. Überschreitet h𝜈 die Bindungsenergie der K-Schale, kommt
es zu einem bedeutenden Anstieg der Wahrscheinlichkeit der Wechselwirkung mit
K-Elektronen, wodurch der Schwächungskoeffizient sprungartig in Form der soge-
nannten K-Absorptionskante ansteigt.

Photoeffekt: lichtelektrischer Effekt, der auf der Wechselwirkung von Photonen mit Materie be-
ruht. Dabei überträgt ein Photon seine Energie auf ein gebundenes Elektron und löst es aus dem
Atomverbund heraus.
22 | Til Aach, Olaf Dössel

Compton-Streuung
Hierbei trifft ein Röntgenphoton auf ein schwach gebundenes Elektron in einer äu-
ßeren Schale eines Materieatoms. Das einfallende Photon schlägt dabei das Elektron
aus der Schale heraus, überträgt aber aufgrund dessen geringer Bindungsenergie nur
einen kleinen Teil seiner Energie an das Elektron (󳶳Abb. 2.11 (a)). Das Photon wird da-
bei aus seiner Bahn abgelenkt und fliegt mit geringfügig reduzierter Energie weiter.
Da sich die Frequenzen des Photons vor und nach dem Streuvorgang unterscheiden,
wird die Compton-Streuung auch als inkohärente Streuung bezeichnet. Die Energie
Ec des Photons nach dem Streuvorgang hängt dabei von dem Winkel 𝜗 ab, um den das
Photon aus seiner Bahn gelenkt wird. Sie wird durch die Klein-Nishina-Gleichung
beschrieben [Beutel 2000]:
h𝜈 h𝜈
Ec = , mit 𝛼 = (2.16)
1 + 𝛼(1 − cos 𝜗) 511 keV
Die kinetische Energie des gestreuten Photons fällt also mit steigendem Streuwinkel.
Ein Photon mit der Energie 100 keV, welches beispielsweise um 𝜗 = 60° gestreut wird,
fliegt nach der Streuung mit der Energie Ec = 91 keV weiter. Die geringste Energie
ergibt sich für Rückwärtsstreuung, d. h. für 𝜗 = 180°.

Compton-Streuung: Photonen-Streuung an quasifreien, äußeren Hüllenelektronen. Kollidiert ein


Photon mit einem solchen Elektron, so kann es bei dem Stoß Energie und Impuls auf das Elektron
übertragen, vergleichbar mit dem Zusammenstoß von zwei Billardkugeln.

Rayleigh-Streuung
Bei der Rayleigh-Streuung trifft ein Röntgenphoton elastisch auf ein Materieatom und
wird dabei abgelenkt, das Photon gibt dabei aber keine Energie an das Atom ab und
ionisiert dies nicht (󳶳Abb. 2.11 (b)). Das gestreute Photon fliegt damit in eine andere

(a) (b)

Abb. 2.11: Schematische Darstellung der Compton-Streuung (a) und der Rayleigh-Streuung (b).
2 Bildgebung durch Projektionsröntgen | 23

Richtung, aber mit unveränderter Energie bzw. Wellenlänge weiter, man spricht des-
halb auch von kohärenter Streuung.
󳶳Abb. 2.12 zeigt die Anteile von Schwächung durch Compton- und Rayleigh-
Streuung sowie durch Photoabsorption am gesamten Massenschwächungskoeffizien-
ten für Blei und Wasser [Haxel 1968] für Energien bis 1 MeV. Während bei 100 keV für
Blei die Photoabsorption überwiegt, wird in Wasser der Hauptteil der Schwächung
durch Compton-Streuung verursacht, gleiches gilt für Weichgewebe im menschlichen
Körper. Diese Streustrahlung erreicht auch nicht im ursprünglichen Röntgenstrahl lie-
gende Organe des Patienten und gegebenenfalls anwesendes Klinikpersonal, welches
sich durch Bleiwesten und Bleifenster vor dieser Strahlung schützen muss. Außerdem
verschlechtert Streustrahlung den Kontrast in den aufgenommenen Bildern.

2.3 Dosimetrische Größen


Diagnostische Röntgenstrahlung ionisiert Materie durch Photoeffekt und Compton-
Streuung. Die Energiedosis D beschreibt die dabei an den Absorber abgegebene Ener-
gie dEabs pro Masse dm des Absorbers (s. auch 󳶳Kap. 7, Biologische Wirkung ionisie-
render Strahlung und Dosimetrie):
dEabs
D= (2.17)
dm
Sie wird gemessen in der Einheit Gray (Gy) = J/kg. Beim Durchgang von Röntgenstrah-
lung durch Materie fällt die Energiedosis immer weiter ab, die für Röntgenaufnahmen
maßgebliche Energiedosis wird deshalb für die ersten Volumenelemente direkt unter
der Haut angegeben und als Hautdosis bezeichnet.
Die Energiedosis lässt sich allerdings praktisch nur schwer direkt messen. Leich-
ter ist die durch Ionisierung erzeugte Ladung (eines Vorzeichens) messbar. Man be-
trachtet deshalb die kinetische Energie dEkin , die von den Röntgenquanten bei der
ersten Wechselwirkung auf die in der Masse dm erzeugten geladenen Teilchen über-
tragen wird. Diese Größe wird Kerma (kinetic energy released in matter) genannt. Sie
ist gegeben durch
dEkin
K= (2.18)
dm
Sie wird wie die Energiedosis in der Einheit Gray angegeben. Für Luft entspricht die
Kerma näherungsweise der Energiedosis direkt an der Haut. Die Kerma berechnet sich
in Luft bei monoenergetischer Bestrahlung mit Photonen der Energie h𝜈 und der spek-
tralen Energieflussdichte J𝜈 (𝜈) zu
𝜇Luft
KLuft = J𝜈 (𝜈) ⋅ . (2.19)
𝜌Luft

Kennt man die im Mittel nötige Energie zur Bildung eines Ladungsträgerpaares in Luft,
so kann die Kerma aus der Ionendosis berechnet werden. Die Ionendosis JID ist die
24 | Til Aach, Olaf Dössel

Massenschwächungs− und Absorptionskoeffizienten


L1
10²
L2
L3

10¹ K−Kante

Ph
ot
Ra
yle

oa
igh

bs
str

or
eu

pt
un

io
g

n
10⁰
cm²/g Blei

Schwächungskoeffizient
Comptonstreuung gesamte Absorption
10¯¹

Ph
ot
oa
bs
or
pt
io
n
10¯²

10¯³
10 100 1000
(a) Quantenenergie in keV

Massenschwächungs− und Absorptionskoeffizienten


10¹

10⁰
cm²/g Wasser

Schw
ächun
gskoe
Pho

ffizien
10¯¹ t
t

Com
oab
Ra

pto
yl

nstr
sor
e

euu
ig

n ng
h

pti

bsorptio
st

A
gesamte
re

on
u un
g

10¯²

Abb. 2.12: Abhängigkeit der Anteile


von Streuung und Photoabsorption
an der Gesamtschwächung von
10¯³ Blei (a) und Wasser (b) von der
10 100 1000 Photonenenergie [Haxel 1968].
(b) Quantenenergie in keV
2 Bildgebung durch Projektionsröntgen | 25

durch ionisierende Strahlung in Luft erzeugte Ladung dQ (eines Vorzeichens) bezogen


auf die Masse dmL der dabei durchstrahlten Luft. Wir erhalten also
dQ
JID = , (2.20)
dmL
mit der Einheit As/kg. (Früher wurde die Ionendosis in der Einheit Röntgen (R) ge-
messen, mit der Umrechnung 1 R = 2,58 ⋅ 10−4 As/kg.) Die Ionendosis kann mit einem
Stabdosimeter oder einer Ionisationskammer gemessen werden. Bezeichnet man die
zur Bildung eines Ionenpaares in Luft erforderliche mittlere Energie mit Wion , so kann
die Kerma in Luft aus der Ionendosis berechnet werden, indem die erzeugte Ladung
eines Vorzeichens auf die Elementarladung bezogen und mit Wion multipliziert wird,
also durch [Oppelt 2005]
dQ Wion Wion
KLuft = ⋅ = f ⋅ JID , mit f = . (2.21)
e dmL e
Für Luft liegt die Ionisierungsenergie bei Wion = 33, 73 eV, woraus sich für den Faktor
f zwischen Luft-Kerma und Ionendosis der Wert f = 33,73 Gy/(As/kg) = 33,73 J/As =
33,73 V ergibt. Ganz ähnlich kann die an einer bestimmten Stelle (immer in Luft gemes-
sene!) Ionendosis in die Energiedosis umgerechnet werden, die in einem bestimmten
Material an derselben Stelle deponiert werden würde. In 󳶳Gl. (2.21) ändert sich hierbei
lediglich der Umrechnungsfaktor f, der von dem Material und der spektralen Energie-
flussdichte der Röntgenstrahlung abhängt. Bei einer Beschleunigungsspannung von
UA = 100 kV und Filterung mit einer 4,2 mm dicken Aluminiumscheibe gilt für Wasser
fW = 34,5 V und für Muskelgewebe fM = 35,66 V.
Zur Beschreibung der von einem Röntgendetektor erzielten Bildqualität ist eine
weitere dosimetrische Größe von Interesse. Die Bildqualität hängt wesentlich von der
Anzahl der zur Bildgebung beitragenden Quanten ab. Als Quantendosis wird dazu
die Anzahl der eintreffenden Quanten pro Fläche herangezogen. Die Quantendosis
kann aus der Energiedosis oder Luftkerma wie auch aus der Ionendosis ermittelt wer-
den [Johns 1974]. Die Quantendosis hängt dabei auch von der Energie der Quanten ab
und liegt in tabellierter Form vor [Boone 1997]. Eine graphische Darstellung der Um-
rechnung von Energiedosis und Ionendosis in Quantendosis in Abhängigkeit von der
Energie ist in 󳶳Abb. 2.13 gezeigt.

2.4 Komponenten zur Erzeugung von Röntgenstrahlung


2.4.1 Röntgenröhren

Qualitätskriterien für eine diagnostische Röntgenquelle sind eine hohe und genau ein-
stellbare Röntgenleistung, ein kleiner Fokus, eine einstellbare mittlere Quantenener-
gie (typisch 60 bis 120 keV), eine kostengünstige Herstellung und eine lange Lebens-
dauer. Mit einer hohen Röntgenleistung kann die Belichtungszeit so kurz wie möglich
26 | Til Aach, Olaf Dössel

1,2 × 10¹² 30 × 10³

Quanten/mm² pro As/kg 1,0 × 10¹²

Quanten/mm² pro μGy


0,8 × 10¹² 20 × 10³

0,6 × 10¹²

0,4 × 10¹² 10 × 10³

0,2 × 10¹²

0 20 40 60 80 100 120 140 160


Energie in keV

Abb. 2.13: Umrechnung von Energiedosis bzw. Ionendosis in Quantendosis.

gewählt werden, wodurch ein Verwackeln der Aufnahme verhindert wird. Der klei-
ne Fokus ist für eine gute räumliche Auflösung nötig, da sonst an scharfen Kanten
Halbschatten auftreten. Die Quantenenergie muss der medizinischen Fragestellung
angepasst werden können, um so einen möglichst großen Kontrast zu erreichen. Ra-
dioaktive Isotope und Synchrotronstrahlung sind neben der Röntgenröhre mögliche
Quellen, sie erfüllen aber eine oder mehrere der oben genannten Bedingungen nicht.
Das größte technische Problem beim Bau einer Röntgenröhre ist wegen des klei-
nen Wirkungsgrades (s. 󳶳Kap. 2.2.1) die extrem große Verlustleistung. So muss die
unvermeidlich entstehende Wärme so gut wie möglich abgeführt werden. Zwei Tricks
helfen dabei: die Schrägstellung und die sehr schnelle Rotation der Anode. Mit ei-
ner schräg gestellten Anode gelingt es, die Wärme auf einer größeren Fläche in die
Anode zu führen und gleichzeitig einen kleinen Fokus zu behalten (󳶳Abb. 2.14). Mit
der Drehanode kann die Wärme auf einen Ring verteilt werden. Dies führt allerdings
dazu, dass im Vergleich zu einer feststehenden Anode nun die Wärme über Wärme-
strahlung und über das Drehlager abgeführt werden muss.

Kathode Bahn des Brenn-


flecks auf der
Drehanode

Abb. 2.14: Schräg gestellte Anode zur Verklei-


nerung des Brennflecks.
2 Bildgebung durch Projektionsröntgen | 27

Drehanode

Kathoden- Anoden-
anschluss anschluss

Kugellager Rotor

Graphit

Vakuumkolben Kathode Anodenmaterial

Abb. 2.15: Röntgenröhre mit Drehanode.

󳶳Abb. 2.15 zeigt schematisch eine Röntgenröhre mit Drehanode. Gegenüber dem
rotierenden Anodenteller ist die Kathode mit der Glühwendel angeordnet. An den En-
den sind die Hochspannungsanschlüsse. Um das Lager herum ist der Motor angeord-
net, der die Drehung antreibt. Anode, Kathode, Vakuumkammer, Lager und Motor
sollen im Folgenden kurz besprochen werden. Ausführlichere Beschreibungen finden
sich in [Oppelt 2005].

Drehanode: Konstruktionsprinzip einer Röntgenröhre, bei dem die Anode als ein sich sehr schnell
drehender Anodenteller realisiert ist. Dies dient dazu, die Wärme besser zu verteilen.

Als Anodenmaterial wird fast ausschließlich Wolfram eingesetzt. Es bietet den


besten Kompromiss aus hoher Schmelztemperatur, hoher Ordnungszahl (siehe Wir-
kungsgrad) und guter Wärmeleitfähigkeit. Für eine bessere Langzeitstabilität werden
dem Wolfram 5 bis 15 % Rhenium hinzugefügt. Nur für die Mammographie werden
Anoden aus Molybdän verwendet, da die K𝛼 -Linie von Molybdän für diese Fragestel-
lung den bestmöglichen Kontrast liefert. Für die digitale Mammographie wird heute
zunehmend auch Wolfram verwendet. Das eigentliche Anodenmaterial ist nur 1 bis
2 mm dick und eingebettet in einen Teller aus einem anderen Metall, z. B. Molybdän
(󳶳Abb. 2.16).
Unter dem Anodenteller wird oft Graphit angeordnet. Es hat eine hohe Wärmeka-
pazität bei niedrigem Gewicht (und damit niedrigem Beitrag zum Trägheitsmoment).
So kann die Drehanode während des Einschaltens des Anodenstromes mehr Wärme-
energie aufnehmen (bis zu 106 Ws), bevor die maximal zulässige Temperatur erreicht
wird. So eine Anode kann z. B. 10 s lang mit 100 kW betrieben werden. Danach muss
28 | Til Aach, Olaf Dössel

Wolfram-Rhenium Molybdän Graphit

Abb. 2.16: Schematische Darstellung eines


Anodentellers.

eine Pause erfolgen, in der diese Wärmeenergie wieder abgegeben wird. Der Anoden-
teller erwärmt sich während des Betriebes auf Temperaturen bis zu 2000°C.
Die Kathode soll eine möglichst punktförmige Elektronenquelle (< 1 mm) mit
möglichst großem Strom sein (bis zu 1 A). In den meisten Röntgenröhren werden Glüh-
wendeln aus Wolframdraht verwendet, es werden aber auch flächenhafte Elektronen-
quellen und Quellen aus vielen senkrecht stehenden Nanoröhrchen vorgeschlagen
(Feldemission). Die Wolframwendel wird auf Temperaturen um die 2600°C erhitzt,
so dass viele Elektronen die Austrittsarbeit überwinden können und in die Vakuum-
kammer gelangen (thermische Emission). Dort werden sie mit einem sogenannten
Wehnelt-Zylinder abgesaugt. Durch eine optimierte Form dieses Metallringes ge-
lingt es, den Brennfleck zu fokussieren und ihm ein Gauss-förmiges Profil zu geben
(Halbwertsbreite 0,6 bis 0,8 mm), da dieses Profil die Modulationsübertragungsfunk-
tion MFT des Systems natürlich beeinflusst (s. 󳶳Kap. 21, Systemtheorie). Im „Stand-
by“-Betrieb wird die Temperatur der Glühwendel etwas heruntergefahren, um die Le-
bensdauer der Röhre zu verlängern. Wenn die Röntgenröhre Strahlung emittieren soll,
wird der Heizstrom der Glühwendel hochgefahren. Der eigentliche Anodenstrom wird
durch eine unabhängige Regelung am Wehnelt-Zylinder eingestellt.
Die Vakuumkammer wurde früher aus Glas gefertigt, mit Pumpen auf ein Vakuum
von ungefähr 10−6 mbar abgepumpt und der Pumpstutzen dann „abgeschmolzen“.
Später ging man dazu über, dass nur der mittlere Bereich zur Isolation der Hochspan-
nung aus Glas und die Enden aus Metall gefertigt wurden. Heute werden oft auch ke-
ramische Materialien für die Isolation verwendet.
Das Drehlager befindet sich bei den üblichen Röntgenröhren im Vakuum. Das
grenzt die Wahl der Schmierstoffe ein: Es können nur flüssige Metalle verwendet wer-
den. Blei wird nach dem Hochlaufen der Röhre flüssig, es gibt auch Metalllegierungen
(eutektische Gemische), die schon bei Zimmertemperatur flüssig sind (z. B. eine Indi-
um-Gallium-Zinn-Legierung). Üblich sind Kugellager, es gibt aber auch Gleitrillenla-
ger, bei denen sich vergleichbar mit dem Aquaplaning ein „Wulst“ aus dem flüssigen
Metall ausbildet, auf dem das drehende Teil quasi schwimmt.
Der Motor ist meistens ein Asynchron-Motor, der den Anodenteller auf Drehzah-
len von 100 bis 150 /s bringt (das sind 6000 bis 9000 Umdrehungen pro Minute).
Es gibt Röntgenröhren mit zwei Elektronenquellen (z. B. zwei Wolfram-Wendeln)
– damit ist es möglich, von einem Modus mit kleinem Fokus und kleinem Strom
auf einen Modus mit größerem Fokus und größerem Strom umzuschalten. In eini-
2 Bildgebung durch Projektionsröntgen | 29

Öl zur Kühlung

Rotation Kathode Motor

Ablenkungs- Anode
spulen
Elektronen-
strahl Röntgenstrahlen

Abb. 2.17: Röntgenröhre mit rotierendem Vakuumgefäß (Drehkolben-Röhre) (Quelle: Siemens


Healthcare).

gen Röntgenröhren befindet sich eine Ablenkeinheit für den Elektronenstrahl, so


dass elektronisch von einem Fokus auf einen anderen um wenige Millimeter ver-
schobenen Fokus umgeschaltet werden kann. Dies ist für die Computertomographie
wichtig (s. 󳶳Kap. 3.5.5, CT und „flying focus“). Schließlich gibt es Röntgenröhren,
bei denen der Anodenstrom mithilfe eines Gitters in wenigen Millisekunden an- und
ausgeschaltet werden kann.
Im Jahr 2001 wurde von Siemens ein neuartiger Röhrentyp vorgestellt: eine Rönt-
genröhre mit rotierender Vakuumkammer (Drehkolben-Röhre). Das Interessante
daran ist, dass das Lager nun nicht mehr im Vakuum angeordnet ist und der Ano-
denteller direkten Kontakt mit dem Kühlmedium hat (z. B. Öl). Bei dieser Röhre liegt
die Kathode in der Mitte der Drehachse. Im Koordinatensystem des rotierenden Va-
kuumgefäßes wird der Elektronenstrahl mithilfe von Magnetfeldern auf einem aus
dem Anodenmaterial realisierten Kreisring mit hoher „Umdrehungsgeschwindigkeit“
herumgeführt. Nun dreht sich gleichzeitig das Vakuumgefäß genau mit der glei-
chen Umdrehungsgeschwindigkeit in umgekehrter Richtung, so dass der Fokus im
Laborkoordinatensystem stehen bleibt (󳶳Abb. 2.17).
Alle Röntgenröhren befinden sich in einem Schutzgehäuse, welches die Kühlung,
die Abschirmung, das Austrittsfenster für die Röntgenstrahlen und die Hochspan-
nungszuführung enthält. Röhre und Gehäuse werden auch „Strahler“ genannt.
Durch das Gehäuse wird bei Betrieb kontinuierlich eine Kühlflüssigkeit, meist Öl,
hindurch gepumpt. Es ist mit Absorbermaterial (meist Blei) ausgekleidet, so dass
nur an einer Stelle Röntgenstrahlung austreten kann. Als Fenster ist für diagnos-
30 | Til Aach, Olaf Dössel

tische Röntgenstrahlung eine Scheibe aus dickem Aluminium vorgeschrieben, um


die weiche Röntgenstrahlung, die den Patienten schädigen könnte, die aber nicht
zur Bildgebung beiträgt, zu absorbieren (bis 60 kV: 2 mm Al; bis 80 kV: 3 mm Al; bis
120 kV: 4 mm Al).

Röntgen-Strahler: System zur Erzeugung von Röntgenstrahlen inklusive Gehäuse, Kühlung und
Abschirmung.

2.4.2 Röntgengeneratoren und Belichtungssteuerung

Der sogenannte Generator erzeugt die Hochspannung für die Röntgenröhre und steu-
ert die bildgebende Dosis. Es geht also darum, eine Hochspannung im Bereich 60 bis
120 kV und einen Strom von einigen mA bis 1 A für eine genau definierte Zeit sehr ge-
nau einzustellen. Es gibt Röntgengeneratoren, die kurzzeitig eine elektrische Leistung
von 100 kW bereitstellen.
Früher wurde hierfür direkt der Netz-Drehstrom (in Europa: 50 Hz) verwen-
det, der in Dreiecksschaltung an eine Primärwicklung eines Hochspannungstrafos
angeschlossen wurde. Der Trafo enthielt zwei Sekundärkreise, einen in Dreiecks-
schaltung und einen in Sternschaltung. Die abgehenden sechs Leitungen wurden
mit einer Vollweggleichrichtung über zwölf Dioden auf die Röntgenröhre gegeben.
So ergaben sich zwölf Spannungspulse in einer Periode des 50-Hz-Signals. Ein Glät-
tungskondensator sorgte für eine ausreichend konstante Hochspannung. Leider sind
50-Hz-Hochspannungstransformatoren groß und schwer.
Heute verwendet man überwiegend Hochfrequenz-Hochspannungsgenera-
toren (󳶳Abb. 2.18). Die Netzspannung wird zunächst gleichgerichtet und dann mit
Hochleistungs-Halbleiter-Bauelementen zerhackt. In der Anfangsphase dieser Tech-
nologie wurden Frequenzen von 10 kHz realisiert, heute sind Frequenzen bis 100 kHz
üblich. Das ermöglicht eine noch kompaktere Bauweise und führt nicht mehr zu
hörbaren Schwingungen. Dieses hochfrequente Signal wird nun mit einem Transfor-
mator auf die gewünschte Hochspannung transformiert und wieder gleichgerichtet.
Wegen der hohen Frequenz genügt ein sehr kleiner Glättungskondensator.

Hochfrequenz-Hochspannungsgenerator: Einrichtung zur Erzeugung der für eine Röntgenröhre


notwendigen Hochspannung. Hierbei wird die Netzspannung zunächst gleichgerichtet, dann in
eine hochfrequente Spannung umgewandelt, auf die Hochspannung transformiert und wieder
gleichgerichtet.

In der Steuerungselektronik des Generators sind typische Belastungskurven der Röh-


ren gespeichert. Je nach Anodenspannung und Anodenstrom darf die Röhre nur ei-
ne gewisse Zeit eingeschaltet werden, bevor sie Schaden nimmt. Der Generator sollte
2 Bildgebung durch Projektionsröntgen | 31

Röntgenröhre

DC AC
Netz
AC DC

Drehanoden-
Motor-
steuerung

AC

DC
Spannungs- IH
U
regelung Heizkreis
I

Abb. 2.18: Prinzip des Hochfrequenz-Hochspannungsgenerators (nach [Morneburg 1995]).

bei Erreichen dieser Grenze abschalten – so wird möglicherweise eine unterbelichtete


Aufnahme in Kauf genommen, die Röhre aber geschützt.
Das Einstellen der richtigen bildgebenden Dosis ist für die Qualität der Aufnah-
men von entscheidender Bedeutung. Sie wird in 󳶳Kap. 2.5.1 für das Film-Folien-Sys-
tem eingeführt und wird in 󳶳Kap. 2.6 (Bildqualität) weiter erläutert. Hier sollen die
Techniken beschrieben werden, mit denen die gewünschte bildgebende Dosis einge-
stellt werden kann.
Nach 󳶳Gl. (2.7) beträgt die von der Röhre abgegebene Leistung der ungefilterten
Bremsstrahlung
Pt = k ⋅ IA ⋅ Z ⋅ UA2 (2.22)
Die abgegebene Dosis ist damit

D = k ⋅ IA ⋅ Z ⋅ UA2 ⋅ TE (2.23)

wobei TE die Belichtungszeit ist.


Das Spektrum der Röntgenstrahlung hinter dem Patienten ist anders als vor dem
Patienten: Vom niederenergetischen Ende wurde mehr absorbiert als vom hochener-
getischen Ende. Die Röntgenstrahlen sind auf dem Weg durch den Patienten „härter“
geworden (Strahlaufhärtung).

Strahlaufhärtung: Veränderung der Röntgenstrahlung beim Durchtritt durch Materie. Röntgenröh-


ren emittieren u. a. Bremsstrahlung, die ein breites Spektrum hat. Trifft die Röntgenstrahlung auf
den Patienten, so wird der niederenergetische Teil stärker abgeschwächt als der höherenergeti-
sche Teil, da die niederenergetischen Quanten im Körper stärker absorbiert werden, so dass sich
der Schwerpunkt des Strahlenspektrums hin zu höheren Energien verschiebt.
32 | Til Aach, Olaf Dössel

Dies lässt sich näherungsweise berücksichtigen, indem man einen etwas größeren Ex-
ponenten für die Anodenspannung verwendet:

D = k ⋅ IA ⋅ Z ⋅ UAn ⋅ TE (2.24)

mit ungefähr n = 3. So nimmt die bildgebende Dosis stärker als nach 󳶳Gl. (2.23) vor-
hergesagt mit der Anodenspannung zu. Will man also für einen ausgewählten Detek-
tortyp (s. 󳶳Kap. 2.5) eine bestimmte bildgebende Dosis vorgeben, um eine optimal be-
lichtete Aufnahme zu erhalten, so muss man das richtige Produkt aus Anodenstrom,
Belichtungszeit und (Anodenspannung)n wählen. Offensichtlich hängt die bildgeben-
de Dosis auch stark von der Größe des untersuchten Körperteils (z. B. Arm oder Tho-
rax) und von der Größe bzw. Dicke des Patienten ab.
Bei der sogenannten „Dreiknopf-Steuerung“ gibt der Bediener der Anlage alle
drei Größen selbst vor – dies ist riskant und führt nur bei großer Erfahrung zu brauch-
baren Bildern. Die „Zweikopf-Steuerung“ bedeutet, dass die Anodenspannung und
das „Milliampere-Sekunden-Produkt“ (mAs-Produkt) vorgegeben werden. Die Anla-
ge wählt dann selbst den größtmöglichen Anodenstrom, so dass die Belichtungszeit
minimiert wird.
Bei der „Einknopf-Steuerung“ wird schließlich nur noch die Anodenspannung
vorgegeben. Das System enthält eine Belichtungsautomatik, die selbst das richtige
mAs-Produkt wählt (Automatic Exposure Control, AEC). Bilddetektoren mit Halblei-
ter-Flachdetektoren (s. 󳶳Kap. 2.5.4) können in Realzeit das Signal in der Bildebene
bestimmen und die Belichtung so lange einschalten, bis die gewünschte bildgeben-
de Dosis erreicht ist. Film-Folien-Systeme (s. 󳶳Kap. 2.5.1) und Speicherfoliensysteme
(s. 󳶳Kap. 2.5.2) benötigen einen oder mehrere Sensoren hinter dem Bilddetektor, wel-
che die bildgebende Dosis messen und so die richtige Belichtungszeit wählen. Das ist
nicht unproblematisch. Zum einen muss eine Region of Interest (ROI) definiert werden,
in der die Detektoren liegen. Diese ROI muss dem vom Benutzer eingestellten Strah-
lungsfeld folgen, damit kein Sensor in einem Bereich liegt, der gar nicht von Rönt-
genstrahlen getroffen wird. Dann dürfen nicht einer oder mehrere Detektoren in stark
abgeschatteten Gebieten liegen, z. B. hinter Knochen. Schließlich ist das Spektrum der
Röntgenstrahlung hinter dem Bilddetektor härter als das Spektrum vor dem Detektor.
Trotz dieser Schwierigkeiten können Systeme mit Belichtungsautomatik in der Regel
die Zahl der falsch belichteten Bilder deutlich reduzieren.

2.5 Detektion von Röntgenstrahlung


2.5.1 Film-Folien-Systeme

Röntgenfilme bestehen aus einer Trägerschicht, auf die beidseitig lichtempfindliche,


ca. 3. . . 5 nm dicke Emulsionsschichten aufgebracht sind. Als Photondetektoren die-
nen Silberbromidkristallkörner in den Emulsionsschichten, die durch Ionenbindun-
2 Bildgebung durch Projektionsröntgen | 33

Abb. 2.19: Lichtkasten mit verstellbaren Blenden ohne Röntgenfilm (Foto: T. Oesterlein, IBT am KIT).

gen zwischen positiv geladenen Silberionen und negativ geladenen Bromidionen ge-
bildet werden. Die einfallenden Quanten lösen eine Redox-Reaktion aus, bei der Silber
entsteht, wodurch der Film geschwärzt wird. Zunächst oxidiert ein Röntgenphoton der
Energie h𝜈, welches auf ein Silberbromidkorn fällt, Bromidionen zu Brom gemäß
Br− + h𝜈 = Br + e− (2.25)
wobei freie Elektronen entstehen. Die Elektronen reduzieren Silberionen zu Silber
durch
Ag+ + e− = Ag . (2.26)
In den Emulsionsschichten entstehen damit Silberkeime. Die Entwicklung des Films
reduziert an den Keimen Millionen weiterer Silberionen zu Silberatomen, die den
Film entsprechend der Belichtung schwärzen. Es entsteht ein „negatives“ Bild, auf
dem stärker schwächende Strukturen, wie Knochen, hell dargestellt werden. Die
Empfindlichkeit des Filmes wird durch die Größe der Silberbromidkristalle bestimmt.
Höhere Empfindlichkeit erfordert dabei größere Kristallkörner, wodurch die Auflö-
sung sinkt. Zur Befundung werden die entwickelten und fixierten Röntgenfilme vor
einen Lichtkasten gehängt, der die Filme von hinten möglichst homogen durchleuch-
tet (󳶳Abb. 2.19).
Quantitativ wird die Schwärzung des Films durch die optische Dichte So beschrie-
ben. Die optische Dichte gibt die logarithmierte Schwächung an, die Licht beim Durch-
gang durch den Film erfährt. Bezeichnet man die vom Lichtkasten einfallende Lichtin-
tensität mit IL0 und die transmittierte Intensität mit IL , so ist die optische Dichte
IL0
So = log10 (2.27)
IL
34 | Til Aach, Olaf Dössel

Durch die Logarithmierung ist die optische Dichte der Helligkeitsempfindung des
menschlichen Auges angepasst, die logarithmisch von der Lichtintensität abhängt.
Der Film wird nun wesentlich durch seine Schwärzungskurve charakterisiert, wel-
che die Abhängigkeit der optischen Dichte von der (ebenfalls logarithmierten) De-
tektordosis angibt. Die Detektordosis ist das Produkt aus der auf den Film fallenden
Röntgenintensität Idet und der Belichtungszeit TE :

Ddet = Idet ⋅ TE (2.28)

Mit der auf den Patienten einfallenden Intensität I0 ergibt sich dann aus dem
Lambert–Beerschen Gesetz das Schwächungsintegral
d
I
ln det = − ∫ 𝜇(x)dx (2.29)
I0
0

Bezieht man die Detektordosis auf eine Referenzdosis Dref , so erhält man als Belich-
tungsmaß
d
D I ⋅T
B = ln det = ln det E = − ∫ 𝜇(x)dx + const. , (2.30)
Dref Iref ⋅ TE
0

welches bis auf eine additive Konstante dem Schwächungsintegral entspricht.


󳶳Abb. 2.20 zeigt beispielhaft eine Schwärzungskurve. Die Steigung des (näherungs-
weise) linearen Teils der Kurve wird als Gammawert des Films bezeichnet. Eine steile
Kurve ergibt hohe Kontraste, erlaubt aber nur einen kleinen Belichtungsbereich,
während ein kleiner Gammawert geringeren Kontrast über einem größeren Belich-
tungsbereich ergibt.
Röntgenfilme nutzen allerdings nur etwa ein bis zwei Prozent der einfallenden
Röntgenstrahlung zur Bildgebung, der Großteil der Strahlung durchdringt den Film,
ohne zur Bildgebung beizutragen. Die Emulsionsschicht kann nicht dicker gemacht
werden, da sonst die Entwickler- und Fixierlösung nicht mehr in die Schicht eindrin-
gen kann. Die Filme werden deshalb mit Verstärkerfolien kombiniert, in denen sich
der Film hinter einer Folie oder zwischen zwei Folien befindet, die aus Lumineszenz-
stoffen bestehen. Aufgabe der Verstärkerfolien ist die Umsetzung eines möglichst
großen Teils der einfallenden Röntgenstrahlung in sichtbares Licht, dessen Spektrum
der spektralen Empfindlichkeit des Filmes möglichst gut angepasst ist. Die Rönt-
genstrahlung hebt dabei Elektronen aus dem Valenzband des Lumineszenzstoffes
in das Leitungsband. Beim schrittweisen Zurückfallen in das Valenzband wird Licht
ausgesandt, welches den Film belichtet. Beispiele für Leuchtstoffe sind terbiumdotier-
tes Gadoliniumoxidsulfid (Gd2 O2 S : Tb, grüne Lichtemission) oder terbiumdotiertes
Lantanoxybromid (LaOBr : Tb, blaue bis ultraviolette Lichtemission). Die Röntgen-
absorption der Leuchtstoffe hängt von der Energie der Quanten und der Dicke der
Verstärkerfolien ab. Die Leuchtstoffe enthalten viele Elemente mit hoher Ordnungs-
zahl, um eine hohe Röntgenabsorption zu erreichen. Für 100 μm dicke Folien liegt sie
2 Bildgebung durch Projektionsröntgen | 35

3,5

2,5

2
S₀

1,5

0,5

0
0 0,5 1 1,5 2 2,5 3
B

Abb. 2.20: Schwärzungskurve eines Röntgenfilms (nach [Morneburg 1995]).

für diagnostische Röntgenstrahlung zwischen 30 und 75 %. Um Auflösungsverluste


und Verzeichnungen möglichst klein zu halten, müssen die Folien dicht auf dem
Film aufliegen. Film-Folien-Systeme werden dazu oft in Kassetten untergebracht,
welche die (mehrfach verwendbaren) Folien auf den Film pressen und gleichzeitig
den Film vor Lichteinfall von außen schützen. Gegenüber der direkten Nutzung von
Film erlauben Verstärkerfolien dann eine Dosisreduktion um einen Faktor 10 bis 20.

Film-Folien-System: System zur Aufnahme von Röntgenbildern. Hierbei wird die Röntgenstrahlung
mittels Lumineszenz-Folie in sichtbares Licht umgewandelt, das dann mit einem Film aufgenom-
men wird.

Die Empfindlichkeit von Film-Folien-Systemen hängt von der Röntgenstrahlqualität


ab und wird oft für eine Anodenspannung von 70 kV angegeben. Nach DIN 6867 ist
die Empfindlichkeitszahl S umgekehrt proportional zur Luftkerma, die eine optische
Dichte von S0 = 1 über dem Schleier des Films erzeugt. 󳶳Tab. 2.1 zeigt verschiedene
Empfindlichkeitszahlen und die entsprechende Luftkerma.

Empfindlichkeit S in DIN Luftkerma in μGy Tab. 2.1: Empfindlichkeitsklassen von Film-Folien-


System und zugehörige Luftkerma.
50 20
100 10
200 5
400 2,5
800 1,25
36 | Til Aach, Olaf Dössel

2.5.2 Speicherfoliensysteme

Ähnlich wie bei Verstärkerfolien erfolgt auch bei Speicherfoliensystemen die Bildge-
bung durch mehrfach verwendbare röntgenempfindliche Folien, die in Kassetten un-
tergebracht sind. Im Unterschied zu Verstärkerfolien können die in Speicherfolien-
systemen eingesetzten Speicherphosphore die aufgezeichneten Bilder allerdings bis
zu mehreren Tagen oder Wochen speichern. Das Auslesen der Bildinformation erfolgt
durch Anregung mit einem Laser. 󳶳Abb. 2.21 verdeutlicht die Bildgebung durch ein
Speicherfoliensystem [Oppelt 2005]: Zunächst hebt die einfallende Röntgenstrahlung
Elektronen aus dem Valenzband des Speicherphosphors in das Leitungsband. Zum
Teil fallen diese freien Elektronen unter spontaner Lichtaussendung wieder in das Va-
lenzband zurück. Ein Teil der Elektronen wird jedoch von Haftstellen eingefangen, die
durch Dotierung in das Folienmaterial eingebracht werden und deren Energieniveau
etwas unterhalb des Leitungsbandes liegt.

Speicherfolie: System zur Aufnahme von Röntgenbildern, bei dem zunächst die Speicherfolie be-
lichtet und danach in einer separaten Einrichtung das Bild erzeugt wird.

In einem Auslesegerät wird die belichtete Speicherfolie mit einem Laser im roten Wel-
lenlängenbereich abgetastet, wodurch die von den Haftstellen eingefangenen Elektro-
nen in das Leitungsband gehoben werden und von dort unter Aussendung von kurz-
welligerem, blauen Licht in das Valenzband zurückfallen. Das Licht wird von einem
Photomultiplier aufgezeichnet, anschließend wird das Signal digitalisiert. Ein Farb-
filter mit einer Durchlasskurve im blauen Bereich verhindert dabei, dass Licht von
dem Ausleselaser auf den Photomultiplier fällt. Die Speicherfolie wird zuletzt durch

Ablenk-
Leitungsband spiegel

Laser Photomultiplier
Valenzband
Farbfilter

Leuchtzentren

Speicherfolie

(a) (b)

Abb. 2.21: Belichtung (a), metastabile Speicherung und Auslesen (b) bei einer Speicherfolie.
2 Bildgebung durch Projektionsröntgen | 37

intensives Ausleuchten in den Grundzustand zurückversetzt und kann für die nächste
Aufnahme verwendet werden.
Mittels Speicherfoliensystemen aufgezeichnete Bilder liegen nach dem Aus-
leseprozess somit als digitale Radiographien vor. Zudem weisen sie einen deutlich
höheren Empfindlichkeitsbereich als Film-Folien-Systeme auf und sind damit unemp-
findlicher gegenüber Fehlbelichtungen. Aufgrund ihrer Bauform können Speicher-
folienkassetten meist in denselben Röntgensystemen verwendet werden, in denen
klassisch analoge Film-Folien-Kassetten benutzt wurden.

2.5.3 Röntgenbildverstärker

Film-Folien-Systeme und Speicherfolien zeichnen einzelne Radiographien auf, die


erst nach dem Entwicklungsprozess bzw. dem Ausleseprozess betrachtet werden
können. Zur Beobachtung dynamischer Vorgänge in Echtzeit, z. B. bei der Platzierung
eines Katheters, ist jedoch die direkte Umsetzung der auf den Detektor fallenden
Röntgenstrahlung in ein sichtbares Bewegtbild erforderlich. Diese Bildgebungsmo-
dalität wird als Durchleuchtung oder Röntgenfluoroskopie bezeichnet und durch
elektronenoptische Bildverstärker (󳶳Abb. 2.22) ermöglicht.

Röntgenbildverstärker: System zur Aufnahme von Röntgenbildern, bestehend aus einer Lumines-
zenzschicht, einer Photokathode, einer Elektronenoptik und einem Fluoreszenzschirm.

Der Röntgenbildverstärker besteht aus einer evakuierten Röhre von 17 bis 40 cm


Durchmesser. Die Röntgenquanten fallen auf den fluoreszierenden Eingangsleucht-
schirm des Bildverstärkers und erzeugen dort Lichtquanten („Szintillator“). Die
Lichtquanten treffen auf die mit dem Eingangsschirm verbundene Photokathode, wo

Elektroden der Elektronenoptik


einfallende
Röntgen- Elektronenbahnen
strahlen

Ausgangs-
leuchtschirm

Anodenspannung
+25 bis +35 kV
Eingangs-
leuchtschirm Photokathode (0 V) Vakuumgefäß

Abb. 2.22: Schematischer Längsschnitt durch einen Röntgenbildverstärker.


38 | Til Aach, Olaf Dössel

sie Photoelektronen auslösen. Die an jedem Punkt der Photokathode ausgelösten


Photoelektronen werden dabei in verschiedene Richtungen emittiert. Eine Elektro-
nenoptik, bestehend aus Photokathode, ringförmigen Hilfselektroden und einer
Anode, beschleunigt die Photoelektronen in Richtung des Ausgangsleuchtschirms,
wobei die Elektronen eine Potentialdifferenz von 30 bis 35 kV durchlaufen. Gleichzei-
tig bündelt die Elektronenoptik die von jedem Punkt der Photokathode emittierten
Elektronen derart, dass sie auf je einen Punkt des Ausgangsschirms treffen und dort
Lichtquanten erzeugen. Auf dem Ausgangsschirm mit einem Durchmesser von ca. 25
bis 50 mm entsteht so ein sichtbares Bewegtbild, was durch eine Kamera aufgezeich-
net und unmittelbar auf einem Bildschirm wiedergegeben wird. Die hohe Effizienz
eines Bildverstärkers wird dabei wesentlich durch die Umsetzung von Lichtquanten
in Photoelektronen und deren Beschleunigung durch die Elektronenoptik erreicht
[Oppelt 2005]: Bei diagnostischer Röntgenstrahlung erzeugt ein im Eingangsschirm
absorbiertes Röntgenquant rund 3000 Lichtquanten, von denen jedoch nur ein Teil
die Photokathode erreicht. Insgesamt entstehen dort rund 300 Photoelektronen je ab-
sorbiertem Röntgenquant. Bei Beschleunigung mit 30 kV erzeugt jedes Photoelektron
bei Auftreffen auf dem Ausgangsschirm etwa 1000 Lichtquanten, wodurch sich rund
300 000 Lichtquanten pro absorbiertem Röntgenquant ergeben.
Der Eingangsschirm eines Bildverstärkers soll eine möglichst hohe Röntgenab-
sorption aufweisen und spektral möglichst gut an die nachgeschaltete Photokathode
angepasst sein. In den allermeisten Fällen besteht er aus natriumdotiertem Cäsium-
jodid (Cs I : Na), dessen K-Absorptionskanten bei 36 keV für Cäsium und bei 33 keV
für Jod liegen. 󳶳Abb. 2.23 zeigt den Massenabsorptionskoeffizienten von Cäsiumjo-
did über der Energie sowie eine typische spektrale Verteilung diagnostischer Rönt-
genstrahlung. Das Spektrum des erzeugten Lichts hat ein Maximum bei etwa 400 nm
und ist gut an die spektrale Empfindlichkeit von Photokathoden aus Cäsiumantimon
angepasst. Der Eingangsschirm wird durch Aufdampfen von Cäsiumjodid auf einem
Substrat hergestellt, wobei eine säulenartige Struktur entsteht. Diese Säulen verhal-
ten sich wie Lichtleiter für die erzeugten Lichtquanten, die eine laterale Ausbreitung
des Lichts auf dem Weg zur Photokathode verhindern (󳶳Abb. 2.24). Hierdurch kön-
nen relativ dicke Eingangsschirme (etwa 400 μm) mit einer hohen Röntgenabsorption
hergestellt werden, ohne dass dies mit wesentlichen Auflösungsverlusten einhergeht.
Neben der Verstärkung ermöglicht die Elektronenoptik durch Umschalten der
Potentiale der Hilfselektroden auch eine Bildvergrößerung, indem nur ein Ausschnitt
des Eingangsschirms auf den Ausgangsschirm projiziert wird. Die Aufnahme des
Schirmbildes durch eine Kamera erfordert einen planaren Ausgangschirm. Die schar-
fe Abbildung des Eingangsbildes auf dem Ausgangsschirm wird dann allerdings
durch einen gekrümmten, näherungsweise kugelkalottenförmigen Eingangsschirm
begünstigt, der zu geometrischen Verzerrungen des Bildes führt. Am Rand des Bildver-
stärkers liegende Punkte können nicht so effektiv auf den Ausgangsschirm abgebildet
werden, so dass es dort zu einer leichten Abdunklung kommt („Vignetting“). Dar-
über hinaus sind Röntgenbildverstärker aufgrund ihrer Größe recht unhandlich und
2 Bildgebung durch Projektionsröntgen | 39

Massenschwächungskoeffizient von CSI:Na


30
Cs−Kante
Massenschwächungskoeffizient in cm²/g

25 CsI

Relative spektrale Verteilung


I−Kante
der Strahlung
20

15

10

0
20 25 30 35 40 45 50 55 60 65 70
Energie in keV

Abb. 2.23: Massenschwächungskoeffizient von Cäsiumjodid und relative spektrale Verteilung


von Röntgenstrahlung (Anodenspannung 70 kV, Dämpfung durch 15 cm Wasser) (nach [Morneburg
1995]).

Röntgenstrahlung

Röntgenquant

CsI-Schichtdicke
CsI (ca. 0,4 mm)

Photokathode

Abb. 2.24: Säulenstruktur des aufgedampften Cäsiumjodids und deren Wirkung als Lichtleiter.
40 | Til Aach, Olaf Dössel

(a) (b)

Abb. 2.25: Schematische Darstellung der direkten (a) und indirekten (b) Konversion.

empfindlich gegenüber äußeren elektrischen und magnetischen Feldern. Röntgen-


bildverstärker-Kamera-Systeme werden deshalb zunehmend durch Flachdetektoren
auf Halbleiterbasis abgelöst.

2.5.4 Halbleiter-Flachdetektoren

Flachdetektoren auf Basis von amorphem Silizium werden seit Beginn dieses Jahr-
hunderts in immer stärkerem Maße sowohl für diagnostische als auch interventionel-
le Röntgenbildgebung eingesetzt. Die verwendete Technologie deckt dabei Anforde-
rungen der dynamischen Bildgebung wie Fluoroskopie oder Angiographie bis hin zur
statischen Röntgenbildgebung ab.

Halbleiter-Flachdetektoren: System zur Aufnahme von Röntgenbildern, basierend auf einer Um-
wandlung von Röntgenquanten in elektrische Ladung, die dann mithilfe einer Elektronik bestimmt
(„ausgelesen“) wird.

Flachdetektoren werden heute bis zu einer Größe von ca. 50 × 50 cm hergestellt und
weisen je nach Anwendung bis zu ca. 10 Megapixel auf (für die Mammographie sogar
deutlich mehr). Kern des Detektionsprozesses ist die Umwandlung von Röntgenstrah-
lung in elektrische Ladung. Unterschieden wird hierbei zwischen direkter Konversion
und indirekter Konversion. Bei direkter Konversion wird die einfallende Röntgenstrah-
lung durch Photoabsorption (meist in amorphem Selen) unmittelbar in elektrische La-
dung umgewandelt. Bei indirekter Konversion hingegen wird die Röntgenstrahlung
durch Szintillation zunächst in sichtbares Licht umgesetzt, welches von Photodioden
detektiert und in Ladung konvertiert wird [Aach 1999, Overdick 2006, Oppelt 2005].
󳶳Abb. 2.25 zeigt die beiden Prinzipien schematisch. In beiden Fällen folgt auf die
Konversion eine Pixel-Elektronik, die Photodioden, Dünnfilmtransistoren als Schalt-
elemente und Pixel-Kapazitäten enthält, sowie die allen Pixeln gemeinsame Auslese-
elektronik [Overdick 2006]. Da die mit indirekter Konversion arbeitenden Detektoren
mit Abstand am weitesten verbreitet sind, werden nur diese hier behandelt.
2 Bildgebung durch Projektionsröntgen | 41

CsI-Szintillator

a-Si Sensormatrix

Verstärker/Multiplexer

A/D-Wandler
Adressierung
Glassubstrat

Abb. 2.26: Schematische Ansicht eines Flachdetektors mit indirekter Konversion.

Vorspannungs-
leitungen
Zeilen-
treiber
Gateleitungen

Auslese-
leitungen Analog-
Digital-
analoger Multiplexer Umsetzer

Abb. 2.27: Vereinfachtes Schaltbild der aktiven Pixelmatrix.

󳶳Abb. 2.26 zeigt schematisch die Ansicht eines Flachdetektors mit indirekter Kon-
version. Die zu detektierende Röntgenstrahlung trifft zuerst auf die Szintillatorschicht
und wird dort in sichtbares Licht umgewandelt. Wie bei Röntgenbildverstärkern wird
hier überwiegend Cäsiumjodid eingesetzt, welches in einer säulenartigen Struktur mit
einer Schichtdicke zwischen 0,3 und 2,5 mm auf den Detektor aufgebracht wird. Durch
Dotierung mit Thallium wird das Maximum der emittierten Lichtintensität in den grü-
nen Wellenlängenbereich (ca. 550. . . 600 nm) gelegt, wo die Empfindlichkeit der Pho-
todioden hoch ist [Aach 1999]. Das erzeugte Licht trifft auf die Photodioden der in ei-
ner Matrixstruktur angeordneten Pixel. Das Prinzipschaltbild der aktiven Matrix zeigt
󳶳Abb. 2.27.
Die in Sperrrichtung betriebenen Photodioden werden über die Vorspannungs-
leitung auf die Vorspannung aufgeladen. Das von der Szintillatorschicht einfallende
Licht erzeugt innerhalb der Photodioden freie Elektron-Lochpaare, durch welche die
Photodioden entsprechend dem Lichteinfall entladen werden. Der Ausleseprozess er-
folgt zeilenweise, indem die Dünnfilmtransistoren einer Zeile durch die Zeilentreiber
über die Gateleitungen durchgeschaltet werden. Die Photodioden werden dann über
die in Spaltenrichtung angeordneten Ausleseleitungen nachgeladen, wobei die in jede
Photodiode fließende Ladung durch einen ladungssensitiven Verstärker erfasst wird.
42 | Til Aach, Olaf Dössel

Abb. 2.28: Mit einem Flachdetektor ausgestattetes C-Bogensystem.

Das so in jedem Pixel erzeugte Signal wird anschließend digitalisiert. Die Pixelgrö-
ßen liegen zwischen 100 und 200 μm, wobei die Photodioden ca. 70 % der Pixelfläche
ausfüllen. 󳶳Abb. 2.28 zeigt ein Beispiel für ein mit einem Flachdetektor ausgerüstetes
C-Bogen-System.
Durch ihre flache Form treten bei Flachdetektoren im Gegensatz zu Röntgen-
bildverstärkern keine geometrischen Verzerrungen und kein Vignetting (Abfall der
Lichtintensität zu den Bildrändern hin) auf, außerdem sind ihre mechanischen Ab-
messungen und ihr Gewicht geringer. Die erzielbare Bildqualität wird wesentlich
durch das Übertragungsverhalten des Detektorsystems für Bildsignal und Quan-
tenrauschen sowie von dem systemintern generierten Rauschen bestimmt. Die we-
sentlichen systeminternen Rauschquellen sind das Rauschen der ladungssensitiven
Verstärker und das Reset-Rauschen der Photodioden [Aach 1999, Overdick 2006].
Letzteres wird auch als kTC-Rauschen bezeichnet, da sich seine Varianz aus dem
Produkt der Boltzmann-Konstanten k, der Temperatur T und der Pixelkapazität C
(ca. 2 pF) berechnet. Aus diesen Größen wird als Qualitätsmaß für ein Detektorsystem
die detektierte Quanteneffizienz (DQE) berechnet und als ortsfrequenzabhängige
Funktion aufgetragen. Das 󳶳Kap. 2.6 führt zunächst in die DQE ein und zeigt dann
beispielhaft Ergebnisse für einige Flachdetektorsysteme.

2.5.5 Streustrahlenraster

Wie 󳶳Abb. 2.12 zeigt, wird der Hauptanteil der Schwächung von diagnostischer Rönt-
genstrahlung im menschlichen Körper durch Compton-Streuung verursacht. Durch
die Streuung werden die Röntgenquanten aus ihrer direkten Bahn abgelenkt. Diejeni-
gen Quanten, die nach Streuvorgängen noch auf den Detektor treffen, erreichen ihn
deshalb nicht mehr entlang einer vom Anodenbrennfleck ausgehenden geraden Linie,
sondern auf indirektem Weg (󳶳Abb. 2.29).
2 Bildgebung durch Projektionsröntgen | 43

Brennfleck

Patient

Raster

Bleilamellen

Detektor

Abb. 2.29: Streuung in einem durchstrahlten Objekt und Wirkung eines Streustrahlenrasters.

Streustrahlenraster: System bei der Aufnahme von Röntgenbildern, mit dem die störende Streu-
strahlung im Bild unterdrückt werden kann.

Bezeichnet man die den Detektor direkt erreichende Intensität als Primärintensität
Ip und die ihn nach Streuung erreichende Intensität als Streuintensität Is , so ist der
Streustrahlanteil P definiert als
I
P= s (2.31)
Ip
Der Streustrahlanteil hängt unter anderem von der Größe und der Dicke des
durchstrahlten Bereiches des Patienten ab und kann zwischen 50 und 90 % liegen.
Die Streuintensität ist nahezu homogen über den Detektor verteilt und überlagert sich
als kontrastreduzierender Schleier der Primärintensität. Die damit einhergehende Zu-
nahme der Gesamtintensität der auf den Detektor treffenden Strahlung erhöht zudem
das Rauschen in dem detektierten Bild, wodurch geringe Intensitätsunterschiede
nicht mehr wahrnehmbar werden. Der Kontrast C zwischen zwei benachbarten Bild-
regionen mit geringfügig unterschiedlichen Röntgenintensitäten I1 und I2 ist dabei
gegeben durch
I −I 𝛥I
C= 1 2 = (2.32)
I1 + I2 2 ⋅ I
wobei I für die mittlere Intensität steht (vgl. 󳶳Kap. 21.6, Systemtheorie). Der Kontrast
Cp ohne Streustrahlung ergibt sich damit zu
𝛥Ip
Cp = (2.33)
2 ⋅ Ip
44 | Til Aach, Olaf Dössel

Akzeptanzwinkel für Röntgenstrahlen


Schachtmedium
Bleilamellen

Abb. 2.30: Schnitt durch ein Streustrahlenras-


D d Röntgenfilm
ter.

mit der mittleren Primärintensität Ip . Unter Berücksichtigung der Streuintensität er-


gibt sich für den Kontrast
𝛥Ip
Cs = = Cp ⋅ (1 − P) (2.34)
2(Ip + Is )

Bei einem Streustrahlanteil von 80 % reduziert sich der 󳶳Kontrast somit auf 20 % des
Kontrastes der Primärintensität.
Zur Reduktion der Streuintensität werden nach Gustav Bucky (1913) sogenannte
Streustrahlenraster auf den Detektor aufgebracht [Morneburg 1995]. Sie bestehen aus
vielen dünnen Bleilamellen, zwischen denen sich ein für Röntgenstrahlung durchläs-
siges Schachtmedium befindet (󳶳Abb. 2.30). Ein Großteil der Primärintensität kann
die Schächte zwischen den Bleilamellen wegen des geradlinigen Weges von der Quel-
le zum Raster ungehindert passieren, während ein wesentlicher Anteil der Streuinten-
sität wegen des schrägen Einfalls auf die Bleilamellen trifft und dort absorbiert wird.
Physikalisch ist ein Streustrahlenraster durch seine Primärstrahltransparenz
Tp , seine Streustrahltransparenz Ts und seine Selektivität 𝛴 gekennzeichnet. Bezeich-
net man die den Detektor mit aufgebrachtem Raster erreichende Primärintensität mit
Ipr und die ihn erreichende Streuintensität mit Isr , so gilt:

Ipr Isr Tp
Tp = , Ts = , 𝛴= (2.35)
Ip Is Ts

Ziel bei der Dimensionierung eines Streustrahlenrasters sind eine möglichst hohe Pri-
märstrahltransparenz, eine möglichst niedrige Streustrahltransparenz und damit eine
möglichst hohe Selektivität. Diese physikalischen Kenngrößen hängen dabei von den
geometrischen Größen des Rasters in 󳶳Abb. 2.30 ab. Typische Werte für ein Streustrah-
lenraster sind h = 1,4 mm für die Lamellenhöhe, d = 0,07 mm für die Lamellenbreite
und D = 0,18 mm für die Schachtbreite. Die Selektivität hängt allerdings auch von der
Anodenspannung ab und liegt typisch zwischen 3 und 12.
2 Bildgebung durch Projektionsröntgen | 45

Der mit einem Streustrahlenraster erzielbare Kontrast Cr berechnet sich zu

𝛥Ipr Tp ⋅ 𝛥Ip
Cr = =
2(Ipr + Isr ) 2(Tp Ip + Ts Is )
𝛴
= Cp ⋅ (1 − P) ⋅
𝛴 − P(𝛴 − 1)
𝛴
= Cs ⋅ (2.36)
𝛴 − P(𝛴 − 1)
Liegt der Streustrahlanteil ohne Einsatz eines Streustrahlenrasters wie in obigem
Beispiel bei P = 80 % und wird nun ein Streustrahlenraster mit der Selektivität 𝛴 = 12
eingesetzt, so ergibt sich für den Kontrast

Cr = Cp ⋅ 0, 75 = Cs ⋅ 3, 75 (2.37)

Durch den Einsatz des Streustrahlenrasters wird der Kontrast also um das 3,75-
Fache erhöht, und zwar auf das 0,75-Fache des Kontrastes, der sich ganz ohne Streuin-
tensität ergeben würde.

2.6 Bildqualität: Modulationsübertragungsfunktion (MTF) und


detektierte Quanteneffizienz (DQE)
Die Erzeugung von Röntgenquanten in der Röntgenröhre unterliegt statistischen
Schwankungen. Bezeichnet man die Anzahl der erzeugten Quanten pro Fläche und
Zeit mit n, so gehorcht diese einer Poisson-Verteilung [Aach 1999, Buzug 2004]. Die
Wahrscheinlichkeit Pr, dass n den Wert k annimmt, ist damit gegeben durch

nk0 −n0
Pr(n = k) = e (2.38)
k!
wobei k eine nichtnegative ganze Zahl und n0 ein Parameter der Poisson-Verteilung
ist (vgl. 󳶳Kap. 21.5, Systemtheorie). Mittelwert und Varianz 𝜎2 der Poisson-Verteilung
sind beide gleich dem Parameter n0 . Fasst man den Mittelwert als Signal S auf und die
Varianz 𝜎2 als sogenanntes Quantenrauschen, so ist das „intrinsische“ Signal-Rausch-
Verhältnis (SNR) der Strahlung gegeben durch

SNR = S2 /𝜎2 = n0 (2.39)

Ein höherer mittlerer Quantenfluss n0 erhöht also die Quantenrauschleistung li-


near, die Signalleistung quadratisch und das SNR wiederum linear. Wir betrachten
nun das in 󳶳Abb. 2.31 gezeigte Modell eines Detektors. Auf die Pixelfläche Ap fallen in
der Belichtungszeit TE im Mittel

Sin = n0 ⋅ Ap ⋅ TE = q0 (2.40)
46 | Til Aach, Olaf Dössel

AP

I
Abb. 2.31: Vereinfachtes Diagramm eines Rönt-
gendetektors als Absorptionsstufe (Quantenab-
sorption 𝛼, Pixelfläche Ap ).

Quanten, was als Eingangssignal des Detektors aufgefasst werden kann. Die Varianz
der einfallenden Quanten beträgt aufgrund der Poisson-Natur ebenfalls 𝜎2 = q0 , wo-
durch sich das SNR am Eingang ergibt zu. SNRin = S2in /𝜎in
2
= q0

Signal-Rausch-Verhältnis (SNR): Verhältnis der Signalleistung bezogen auf die Rauschleistung.

Quantenrauschen: durch den statistischen Charakter beim Nachweis von Röntgenquanten her-
vorgerufenes Rauschen im Bild. Die Häufigkeit, mit der in einem Pixel eine bestimmte Zahl von
Röntgenquanten gezählt wird, schwankt und kann mit der POISSON-Statistik beschrieben wer-
den.

Bezeichnet man die Quanteneffizienz, d. h. den Anteil der vom Detektor tatsächlich
nachgewiesenen Quanten, mit 𝛼, so erhält man am Detektorausgang:
2
Sout = 𝛼 ⋅ q0 = 𝜎out
SNRout = S2out /𝜎out
2
= 𝛼 ⋅ q0
DQE0 = SNRout /SNRin = 𝛼 (2.41)
Das SNR am Detektorausgang entspricht also dem Mittelwert der nachgewiesenen
Quanten und wird deshalb auch als Anzahl der rauschäquivalenten Quanten (Noi-
se Equivalent Quanta, NEQ) bezeichnet. Ein realer Detektor, der nur einen Anteil 𝛼
der einfallenden Quanten nachweist, kann deshalb wie ein idealer Detektor aufge-
fasst werden, der alle Quanten detektiert, aber mit geringerer Quantendosis betrie-
ben wird. Durch Normierung des SNR am Detektorausgang auf das SNR am Detektor-
eingang erhält man eine von der Quantendosis unabhängige Größe, die sogenannte
󳶳detektierte Quanteneffizienz DQE .
Als Beispiel betrachten wir einen Flachdetektor mit einer Pixelgröße von Ap =
200 μm × 200 μm und einer Quanteneffizienz 𝛼 = 70 %, der im Fluoroskopiemodus mit
25 Bildern pro Sekunde, einer Dosisrate von 0,25 μGy/s und einem Spektrum mit einer
mittleren Quantenenergie von 60 keV betrieben wird. Die Belichtungszeit ergibt sich
somit zu TE = 1/25 s und die Dosis pro Bild zu D = 10 nGy. Aus 󳶳Abb. 2.13 liest man
2 Bildgebung durch Projektionsröntgen | 47

q₀ Sout Abb. 2.32: Diagramm eines Röntgendetektors,


a H(u,v) bestehend aus einer Absorptionsstufe, Verstär-
Nq² N²out
kung, ortsfrequenzabhängiger Filterung und
G N²sys additivem Systemrauschen.

für diese Strahlqualität und Dosis eine Quantendosis von qDA = 35 ⋅ 103 Quanten pro
mm2 und μGy ab. Die mittlere auf einen Pixel einfallende Zahl von Röntgenquanten
pro Bild, die Rauschleistung und das SNR am Eingang betragen damit
Sin = q0 = D ⋅ qDA ⋅ Ap = 14
2
𝜎in = q0 = 14
S2in
SNRin = = 14 (2.42)
𝜎in
2

Am Detektorausgang ergibt sich


Sout = 𝛼q0 = 9,8
2
𝜎out = 𝛼q0 = 9,8
S2out
SNRout = = 9,8 (2.43)
𝜎out
2

Die bisherige vereinfachte Behandlung von NEQ und DQE ging von örtlich homo-
genen Aufnahmen aus, bei der jedes Pixel mit demselben Signal belichtet wird und
vernachlässigte das vom Detektorsystem selbst erzeugte Rauschen. Im Folgenden lei-
ten wir deshalb eine erweiterte Definition für NEQ und DQE elektronischer Detektor-
systeme ab, die die Ortsfrequenzabhängigkeit der Modulationsübertragungsfunk-
tion (󳶳Modulation Transfer Function, MTF) des Detektors sowie Systemrauschen
berücksichtigen. Wir folgen hier den Ableitungen in [Aach 1999, Rabbani 1987].
󳶳Abb. 2.32 zeigt das zugrunde liegende Detektormodell: Der Absorptionsstufe
folgt eine Verstärkung um den Faktor G, welche die Konversion von Röntgenquan-
ten in andere Informationsträger wie Elektronen beschreibt. Auf die Verstärkerstufe
folgt eine auflösungsbegrenzende lineare verschiebungsinvariante Filterung, die
beispielsweise Streueffekte im Szintillator und die Integration über die Pixelgröße
erfasst und im Ortsfrequenzbereich durch die MTF beschrieben wird. Zum Schluss
wird unabhängiges, vom Detektorsystem erzeugtes Rauschen mit dem Rauschleis-
tungsdichtespektrum Nsys (u) addiert, wobei u für die Ortsfrequenz steht.
Die in 󳶳Abb. 2.32 dargestellte Verarbeitungskette filtert somit sowohl das Signal
wie auch das Quantenrauschen am Detektoreingang. Bei der Ortsfrequenz Null ergibt
sich für das Ausgangssignal bei einer mittleren Anzahl von q0 einfallenden Röntgen-
quanten pro Pixel
Sout = q0 ⋅ 𝛼 ⋅ G (2.44)
wobei die MTF bei der Ortsfrequenz Null auf eins normiert wurde. Das einfallende
Quantenrauschen ist weiß [Rabbani 1987, Aach 1999], d. h., sein Rauschleistungsdich-
48 | Til Aach, Olaf Dössel

tespektrum Nq (u) ist frequenzunabhängig und hat für jede Ortsfrequenz denselben
Wert
Nq (u) = q0 (2.45)
Bei Übertragung des Quantenrauschens über die Verarbeitungskette in 󳶳Abb. 2.32
wird das Quantenrauschen verstärkt und mit der MTF gefiltert, so dass das ursprüng-
lich weiße Rauschen zu farbigem Rauschen wird. Unter Berücksichtigung des additi-
ven unabhängigen Systemrauschens mit dem Rauschleistungsdichtespektrum Nsys (u)
erhalten wir für das Rauschleistungsdichtespektrum am Detektorausgang

Nout (u) = q0 ⋅ 𝛼 ⋅ G2 ⋅ MTF2 (u) + Nsys (u) (2.46)

Wir betrachten nun eine Aufnahme mit dem Sinussignal

qu (x) = q0 (1 + 𝜀 sin(2𝜋ux)) , 0<𝜀≪1 (2.47)

wobei x für die Ortskoordinate und u für die Ortsfrequenz steht. Da die über alle Pixel,
d. h. über x, gemittelte einfallende Anzahl von Röntgenquanten unverändert bei q0
liegt, ändert sich die Gesamtdosis für diese nahezu homogene Aufnahme gegenüber
der homogenen Aufnahme nicht, wodurch auch das in 󳶳Gl. (2.39) berechnete Rausch-
leistungsdichtespektrum am Detektorausgang praktisch unverändert bleibt. Die Si-
nusschwingung mit der Ortsfrequenz u erscheint auch am Ausgang des Detektors, da
sie eine Eigenfunktion bezüglich linearer verschiebungsinvarianter Filter darstellt, sie
wird allerdings skaliert. An Eingang bzw. Ausgang hat sie die Amplituden

Sin (u) = 𝜀 ⋅ q0 , Sout (u) = 𝜀 ⋅ q0 𝛼G ⋅ MTF(u) (2.48)

Mit 󳶳Gl. (2.41) ergibt sich somit für das ortsfrequenzaufgelöste SNR an Detektor-
eingang und Detektorausgang:

S2in (u)
SNRin (u) = = 𝜀2 ⋅ q0
Nq (u)
S2out (u) q20 𝜀2 𝛼2 G2 ⋅ MTF2 (u)
SNRout (u) = = (2.49)
Nout (u) q0 𝛼G2 ⋅ MTF2 (u) + Nsys (u)

Die DQE berechnet sich nun wie in 󳶳Gl. (2.41) aus dem Quotienten von SNR am
Eingang und Ausgang des Detektors zu

SNRout (u) q0 ⋅ 𝛼2 G2 ⋅ MTF2 (u)


DQE(u) = = (2.50)
SNRin (u) q0 ⋅ 𝛼G2 ⋅ MTF2 (u) + Nsys (u)

und für die NEQ folgt


NEQ(u) = q0 ⋅ DQE(u) (2.51)
Wir betrachten nun den Sonderfall eines hypothetischen rauschfreien Detektors
mit Nsys (u) = 0. Die DQE in 󳶳Gl. (2.41) nimmt dann für alle Ortsfrequenzen den
2 Bildgebung durch Projektionsröntgen | 49

Wert 𝛼 an. Wie das Signal erscheint auch das Quantenrauschen am Ausgang als
mit der Detektor-MTF gefilterte Version, ohne dass weitere spektrale Rauschanteile
hinzugefügt werden. Unter der hypothetischen Annahme einer für keine Ortsfre-
quenz verschwindenden MTF kann das Eingangssignal deshalb durch Filterung des
Ausgangssignals mit der inversen MTF wiederhergestellt werden, ohne dass das
Rauschen unverhältnismäßig verstärkt wird. Das durch die tiefpassartige MTF gefil-
terte Quantenrauschen wird durch diese Operation wieder zu weißem Rauschen. Ein
Ziel bei dem Entwurf von Detektorsystemen ist es, das Systemrauschen möglichst
für alle Ortsfrequenzen viel kleiner als das Quantenrauschen zu halten. Ist das Sys-
temrauschen gegenüber dem Quantenrauschen vernachlässigbar, spricht man von
quantenlimitierter Bildgebung.
Zusammenfassend hängt die Qualität von Röntgenbildern von der Röntgendosis
und den Eigenschaften des Detektorsystems ab, bei Letzteren vor allem von der MTF
und der DQE. Das SNR wird dabei durch die verwendete Dosis und durch Rauschquel-
len im Detektorsystem bestimmt. Die DQE beschreibt die Abnahme des SNR für jede
Ortsfrequenz bei Übertragung von Signal und Rauschen über das Detektorsystem. Die
MTF beschreibt den Verlust von Bildschärfe, während die DQE nicht nur das SNR am
Ausgang beeinflusst, sondern auch angibt, inwieweit der Schärfeverlust durch linea-
re verschiebungsinvariante Filterung ausgeglichen werden kann, ohne dass spektrale
Rauschanteile überproportional verstärkt werden. Die DQE ist deshalb als Qualitäts-
kriterium mindestens so wichtig wie die MTF.
󳶳Abb. 2.33 zeigt DQE-Kurven für ein Detektorsystem bestehend aus einem
Röntgenbildverstärker mit einem Eingangsschirmdurchmesser von 23 cm und ei-
ner CCD-Kamera mit einer Auflösung von 1 × 1 k Bildpunkten. Die Pixelgröße auf
dem Eingangsschirm liegt damit bei rund 0,22 mm, woraus sich eine Abtastrate von
rund 4,4 Pixeln pro Millimeter ergibt. Die maximal reproduzierbare Ortsfrequenz
(Nyquist-Frequenz) entspricht der halben Abtastrate und liegt bei 2,2 Linienpaaren
pro Millimeter (lp/mm). Der Eingangsschirm ist mit einer 0,4 mm dicken Szintillator-
schicht aus natriumdotiertem Cäsiumjodid beschichtet. Das Diagramm zeigt, dass
für Ortsfrequenzen unter 2 lp/mm die DQE der Gesamtkette fast ausschließlich durch
die DQE der Szintillatorschicht bestimmt wird und einen Maximalwert von 65 %
erreicht. Oberhalb von 3 lp/mm fällt die DQE des Bildverstärkers gegenüber derje-
nigen des Szintillators alleine deutlich ab. Grund hierfür ist weißes Schrotrauschen
der im Bildverstärker erzeugten Photoelektronen. Zu höheren Ortsfrequenzen hin
übersteigen diese Rauschanteile das durch die MTF des Bildverstärkers tiefpassgefil-
terte Quantenrauschen und senken die DQE. Die DQE des Gesamtsystems kann nur
bis zur Nyquist-Frequenz von 2,2 lp/mm gemessen werden und fällt durch weitere
Rauschquellen in der Kamera zwischen 2 lp/mm und der Nyquist-Frequenz rapide
ab.
󳶳Abb. 2.34 zeigt beispielhaft DQE-Kurven über der Ortsfrequenz für ein Flachde-
tektorsystem bei verschiedenen Röntgendosen. Die Pixelgröße beträgt 0,2 mm, wor-
aus sich eine Nyquist-Frequenz von 2,5 lp/mm ergibt. Die Maximalwerte der DQE lie-
50 | Til Aach, Olaf Dössel

0,7
CSI
XRII
0,6
XRII+CCD

0,5

0,4
DQE

0,3

0,2

0,1

0
0 1 2 3 4 5
Ortsfrequenz in lp/mm

Abb. 2.33: Gemessene DQE-Kurven für ein Röntgenbildverstärkersystem (Strahlqualität 60 keV).

0,8

0,7 1000nGy
100nGy
10nGy
0,6 5nGy

0,5
DQE

0,4

0,3

0,2

0,1

0
0 0,5 1 1,5 2 2,5
Ortsfrequenz in lp/mm

Abb. 2.34: Gemessene DQE-Kurven für ein Flachdetektorsystem bei verschiedenen Dosen.

gen zwischen 60 und 80 %. Generell fällt die DQE bei geringerer Dosis schneller ab als
bei höherer Dosis, da die Leistung des Quantenrauschens mit der Dosis abnimmt und
systeminternes Rauschen dann stärker ins Gewicht fällt.
Die folgenden Abbildungen zeigen DQE und MTF heute erhältlicher Halbleiterde-
tektoren [Trixell 2011]. 󳶳Abb. 2.35 zeigt links die DQE und rechts die MTF eines Flach-
detektors, der sowohl für Radiographie wie auch für Fluoroskopie einsetzbar ist. Die
Pixelgröße beträgt 148 μm, woraus sich eine Nyquist-Frequenz von 3,4 lp/mm und –
2 Bildgebung durch Projektionsröntgen | 51

70 100
60
80
50
40 60
DQE

MTF
30 40
20
20
10
0 0
0 0,5 1 1,5 2 2,5 3 3,5 4 0 0,5 1 1,5 2 2,5 3 3,5 4
Ortsfrequenz in lp/mm Ortsfrequenz in lp/mm

Abb. 2.35: DQE und MTF eines Flachdetektors für Radiographie und Fluoroskopie der Größe 2840 ×
2874 Pixel.

bei einer Matrixgröße von 2840 × 2874 Pixeln – Abmessungen der röntgenempfindli-
chen Fläche von rund 43 × 43 cm ergeben.

2.7 Phasenkontrast-Röntgen
In den letzten Jahren rückt eine neue Methode in den Bereich der medizinischen Bild-
gebung vor, mit der es gelingt, den Brechungsindex von Materialien im keV-Bereich
mit Röntgenstrahlung abzubilden. Der Brechungsindex kann allgemein geschrieben
werden als
n(x, y, z) = 1 − 𝛿(x, y, z) + i𝛽(x, y, z) (2.52)
wobei der Realteil von n (also 1 − 𝛿) der eigentliche Brechungsindex ist und der Imagi-
närteil (𝛽) proportional zum Röntgenschwächungskoeffizienten μ(x, y, z) ist. Die Ab-
weichung des Brechungsindex n von 1, also das 𝛿, ist im Bereich der Röntgenstrahlung
sehr klein: es ist nur von der Größenordnung 10−9 bis 10−10 . 𝛿 ist proportional zur Elek-
tronendichte; die Abbildung von 𝛿(x, y, z) verspricht daher einen neuen und anderen
Kontrast.
Wie kann es aber gelingen, so kleine Abweichungen von n zu messen? Die Antwort
ist das sogenannte Phasenkontrast-Röntgen.

Phasenkontrast-Röntgen: Abbildung der Abweichung des Brechungsindex von 1 bei und mithilfe
von Röntgenstrahlung.

Zunächst sei ein kleiner Ausflug in die Physik der Fata Morgana erlaubt (󳶳Abb. 2.36).
Über dem heißen Wüstensand (oder auch über einer heißen Straße) bildet sich
oft ein starker Temperaturgradient in der Richtung vom Boden nach oben aus (in
󳶳Abb. 2.36 die y-Richtung). Dieser Temperaturgradient führt zu einem Gradienten
des Brechungsindex: das oben definierte 𝛿 ist eine Funktion der Höhe y über dem
52 | Til Aach, Olaf Dössel

Abb. 2.36: Physik der Fata Morgana – Ablenkung des Lichtes durch einen Gradienten des Bre-
chungsindex.

∂δ
∂y
α
z

Abb. 2.37: Ablenkungswinkel als Integral des Gradienten vom Brechungsindex.

Boden. Trifft ein Lichtstrahl aus großer Entfernung auf dieses Gebiet, so wird er in
Richtung des Gradienten von 𝛿 abgelenkt. Es kann zu einer Spiegelung der Landschaft
am Horizont kommen, die dem Auge des Betrachters damit auf den Kopf gestellt er-
scheint. Mathematisch formuliert, akkumuliert jedes Volumenelement, durch das der
Lichtstrahl hindurch tritt, einen kleinen Ablenkungswinkel d𝛼 der proportional zum
Gradienten von 𝛿 in y-Richtung ist (d𝛿/dy).
Dies Prinzip lässt sich unmittelbar auf Röntgenstrahlen übertragen (󳶳Abb. 2.37).
Trifft ein Röntgenstrahl auf ein Material, welches senkrecht zur Ausbreitungsrichtung
einen Gradienten in 𝛿 aufweist, so wird der Röntgenstrahl in Richtung des Gradienten
abgelenkt. Sind die Ablenkungswinkel so klein, dass der Strahl innerhalb einer Säule
von Volumenelementen in Ausbreitungsrichtung (hier die z-Richtung) verbleibt, so
berechnet sich der gesamte Ablenkungswinkel in y-Richtung nach dem Weg z durch
das ablenkende Objekt zu:
d𝛿(x, y, z) I0
𝛼=∫ dz ln ( ) = ∫ 𝜇(z)dz (2.53)
dy I
Zum Vergleich ist auch die Gleichung zur Bestimmung des Integrals des Röntgen-
schwächungskoeffizienten angegeben.
Wie kann man nun den sehr kleinen Ablenkungswinkel 𝛼 messen?
Zunächst muss man Forderungen an die räumliche und zeitliche Kohärenz der
Röntgenquelle stellen, auf die hier nicht eingegangen werden kann [Schulz 2010].
Dann sind verschiedene Messprinzipien möglich von denen hier nur das Gitter-In-
terferometrische Verfahren (Talbot-Interferometer), beschrieben werden soll. Es erfor-
2 Bildgebung durch Projektionsröntgen | 53

1. Gitter 2. Gitter

2D-
Röntgen-
detektor

2D-
Röntgen-
detektor

Abb. 2.38: System zur Messung des Verlaufs des Brechungsindex von Röntgenstrahlen [Schulz
2010].

dert in der beschriebenen Form eine kohärente Röntgenquelle, z. B. Synchrotronstrah-


lung. Heute gelingt es, durch Anbringen eines weiteren Gitters zwischen Quelle und
Patient auch eine konventionelle Röntgenröhre zu nutzen.
Ein erstes Gitter, welches hinter dem zu untersuchenden Objekt angeordnet wird,
sorgt dafür, dass die Phase des einfallenden Röntgenstrahls regelmäßig moduliert
wird (󳶳Abb. 2.38). Ein Phasenhub von 𝜋 ist wünschenswert und die Intensität des
Röntgenstrahls sollte dadurch nur wenig moduliert werden. Dieses Gitter wird oft aus
Silizium gefertigt. In einer Publikation [Schulz 2010] werden folgende Werte angege-
ben: Gitterperiode p1 = 4,785 μm, Gitterhöhe D1 = 29 μm. In einem etwas größeren
Abstand (in der o. g. Publikation werden 479,4 mm gewählt) wird ein zweites Gitter
parallel zum ersten angeordnet. Es besteht aus periodisch angeordneten Durchlass-
und Sperrbereichen. In der o.g. Arbeit wird ein Gitter aus Goldstreifen gewählt (Peri-
ode p2 = 2,400 μm, Gitterhöhe D2 = 50μm). Dieses Gitter lässt sich sehr präzise und
mit einer Schrittweite im Bereich μm in der Gitterebene parallel verschieben. Dahin-
ter befindet sich ein flächenhafter Röntgendetektor bestehend aus einem Fluoreszenz-
schirm und einem Pixelraster (Pixelgröße z. B. 5,1 μm × 5,1 μm).
Das erste Gitter sorgt für ein Interferenzmuster in der zweiten Gitterebene. Eine
ebene Welle erzeugt ein Muster von regelmäßigen Interferenzmaxima und Interferenz-
minima (im Beispiel mit 2,4 μm Periode). Das zweite Gitter lässt je nach Position ent-
weder gerade alle Interferenzmaxima durch (große Intensität) oder es deckt gerade
alle Interferenzmaxima ab (kleine Intensität, Moiré-Effekt).
Wird nun ein Objekt in den Strahlengang gebracht, welches einen Gradienten
d𝛿/dy in y-Richtung aufweist, so wird die Wellenfront im Bereich eines Pixels um
den Winkel 𝛼 verkippt sein. Das wird dazu führen, dass sich das Interferenzmuster
in der Gitterebene 2 ein wenig verschiebt. Diese Verschiebung wird durch das schritt-
weise Verschieben von Gitter 2 detektiert, so dass nach der Messung für jede „Säule“
in z-Richtung der Winkel 𝛼 bekannt ist.
54 | Til Aach, Olaf Dössel

Wird nun über eine ganze Zeile in y-Richtung der Winkel 𝛼 ∼ ∫ d𝛿 dy


dz gemessen
(von Beginn des Objektes bis zum Ende), so kann durch einfache Integration das Inte-
gral von 𝛿 in z-Richtung berechnet werden. Zu dem aus dem klassischen Projektions-
röntgen bekannten Integral des Röntgenschwächungskoeffizienten kommt also ein
zweites neues Bild, welches die Abweichung des Brechungsindex von 1 zeigt und da-
mit einen neuartigen Kontrast ermöglicht. Insbesondere für weiche Gewebearten wie
z. B. das Gehirn, zeigt die neue Methode brilliante Bilder. Es wird ein hoher diagnos-
tischer Mehrwert erwartet, der allerdings noch in klinischen Studien nachgewiesen
werden muss.
Das Phasenkontrast-Röntgen lässt sich auch zu einem Schnittbildverfahren er-
weitern (s. 󳶳Kap. 3, Computer Tomographie). Die gesamte Messanordnung wird in
kleinen Winkelschritten um das Objekt bewegt bist ein Winkelbereich von 180° über-
strichen wurde. Dann kann jeder der in 󳶳Kap. 3.4 beschriebenen Algorithmen (Fouri-
er-Methode, gefilterte Rückprojektion, algebraische Rekonstruktion) eingesetzt wer-
den, um ein Schnittbild von 𝛿(x, y) zu berechnen. In Anlehnung an die Spiral-CT-
Methode können auch 3D-Datensätze 𝛿(x, y, z) bestimmt werden.

2.8 Gesetzliche Vorschriften zur Qualitätssicherung


Eine große Zahl von Verordnungen regelt den sachgerechten Umgang mit diagnosti-
scher Röntgenstrahlung, allen voran die Röntgenverordnung (RöV, zu finden unter
www.gesetze-im-internet.de, einem Service des Bundesministeriums der Justiz). Je-
des diagnostische Röntgensystem muss eine besondere Bauartzulassung haben. Es
muss eine Genehmigung durch die zuständige Behörde für den Betrieb der Anlage
vorliegen. Es müssen ein Strahlenschutzverantwortlicher und ein Strahlenschutz-
beauftragter mit Nachweis der erforderlichen Fachkunde eingesetzt werden. Die
„Konstanzprüfung“ ist eine vorgeschriebene Prozedur nach DIN 6868, mit der die
Qualität des Röntgengerätes bei der Bauartzulassung, bei der Abnahme und im lau-
fenden Betrieb regelmäßig (täglich/wöchentlich/monatlich) geprüft werden muss.
Das Personal, das im Umfeld von Röntgensystemen beschäftigt ist, gehört zur Gruppe
der „beruflich strahlenexponierten Personen“. Für sie sind die Messung der Perso-
nendosis und das Führen eines Strahlenpasses vorgeschrieben. Die Anwendung
von Röntgenstrahlen am Patienten darf nur durch Ärzte erfolgen, welche die erfor-
derliche Fachkunde erworben haben. Die Anwendung unterliegt mehreren ärztlichen
Leitlinien, von denen nur in begründeten Fällen abgewichen werden darf.

Röntgenverordnung (RöV): Festlegung der grundlegenden Sicherheitsnormen für den Schutz der
Gesundheit der Arbeitskräfte und der Bevölkerung gegen die Gefahren durch ionisierende Strah-
lung.
2 Bildgebung durch Projektionsröntgen | 55

Konstanzprüfung: Gesetzlich vorgeschriebene Prozedur zur Qualitätssicherung von bildgebenden


Systemen, die mit ionisierenden Strahlen arbeiten.

2.9 Medizinische Applikationen und spezifische Systeme


Für die verschiedenen medizinischen Applikationen werden Systeme aus Röntgen-
röhre und Bilddetektor zusammengestellt, welche die Bildaufnahme durch den Arzt
unterstützen und erleichtern. Eine kleine Auswahl soll hier beschrieben werden.
Das einfachste Röntgensystem ist für einzelne „Blitz“-Aufnahmen optimiert und
besteht nur aus der Röntgenquelle (inkl. Generator und Belichtungssteuerung) und
dem Detektorsystem. Hinzu kommt eine Patientenliege, in welche die Aufnahme für
die Detektorkassette integriert ist. Diese Systeme werden beispielsweise in der Ortho-
pädie und Unfallchirurgie eingesetzt (Verdacht auf Knochenfraktur, Bandscheiben-
vorfall etc.). Zur Erkennung von Knochenfrakturen wird eine hervorragende Auflö-
sung gefordert, damit auch kleine Haarrisse im Knochen nicht übersehen werden. Für
Lungenaufnahmen (Verdacht auf Lungenentzündung, Tuberkulose etc.) kann die De-
tektorkassette in eine senkrecht stehende Halterung eingesteckt werden. Das Strah-
lungsfeld kann durch Blenden eingeengt werden – ein Lichtkegel lässt die genaue Po-
sition des bei der Aufnahme eingestellten Röntgenstrahlfeldes erkennen.
Die Mammographie ist bis heute die beste Methode, um Tumoren in der weibli-
chen Brust zu erkennen und zu klassifizieren (gutartig – bösartig). Für die Mammo-
graphie wurden spezifische Systeme entwickelt, die auf diese Anwendung hin opti-
miert sind. Die Brust lässt sich in diesen Systemen definiert flachdrücken, und der
Kontrast ist in Hinblick auf Mikrokalzifizierungen optimiert.

Mammographie: Abbildung der weiblichen Brust zur Erkennung von Tumoren, meistens mithilfe
von Röntgenstrahlen.

Für die Durchleuchtung, also die kontinuierliche Aufnahme eines funktionellen Ab-
laufs im Körper des Patienten (bzw. dem Einlauf eines Kontrastmittels), sind verschie-
dene Systeme im Einsatz. Für die Durchleuchtung des Magen-Darm-Traktes werden
Systeme eingesetzt, bei denen der Patient aus der Senkrechten in die Waagerechte ge-
kippt werden kann (Verdacht auf Passagestörungen der Speiseröhre, Blinddarment-
zündung, Darmverschluss etc.).
Für die Angiographie des Herzens (Koronarangiographie: Darstellung der Herz-
kranzgefäße) und des Gehirns (zerebrale Angiographie: Darstellung der Blutgefäße
im Gehirn) sind sogenannte C-Bogen-Systeme optimal. Hierbei sind Röntgenquelle
und Detektor über einen C-förmigen Arm von z. B. 1,5 m Durchmesser verbunden
(󳶳Abb. 2.28). Die Anordnung ist so aufgehängt, dass sie im Raum geschwenkt und
56 | Til Aach, Olaf Dössel

verschoben werden kann, um den jeweils gewünschten Blickwinkel auf das Herz bzw.
Gehirn zu ermöglichen. Es gibt sogar Systeme, bei denen zwei C-Bögen ineinander
angeordnet sind, um gleichzeitig den Blick aus zwei Richtungen auf den Gefäßbaum
zu ermöglichen (biplane Durchleuchtung).
Zeigt sich bei einer Koronarangiographie eine Stenose in den Herzkranzge-
fäßen, so beginnt der Kardiologe sofort mit einer Aufweitung des verstopften Gefäßes
(Ballondilatation; perkutane transluminale koronare Angioplastie, PTCA) und
platziert dann eine Gefäßstütze (Stent). All dies erfolgt unter Röntgenkontrolle. Auch
Herzschrittmacher und Defibrillatoren werden unter Röntgenkontrolle implantiert.

C-Bogen: System aus Röntgenröhre und flächenhaftem Röntgendetektor, die in Form eines großen
„C“ fest miteinander verbunden sind, aber zusammen um den Patienten herum bewegt werden
können.

Angiographie: Abbildung der Blutgefäße.

Kontrastmittel: Substanz, die in den Körper des Patienten eingebracht wird, um den Kontrast für
eine bestimmte diagnostische Fragestellung zu erhöhen.

Ballondilatation: Aufweitung eines verengten Blutgefäßes mithilfe eines aufblasbaren Ballons.

Stent (dt. Stütze, Schiene): Gefäßstütze, um ein verengtes Blutgefäß dauerhaft wieder durchgän-
gig zu machen.

Für eine bessere Darstellung der Blutgefäße bei der Angiographie wurde die digitale
Subtraktionsangiographie (DSA) entwickelt. Hierbei werden zwei (logarithmierte)
Bilder voneinander subtrahiert: Das erste Bild erfolgt ohne Kontrastmittel („Maske“)
und das zweite mit Kontrastmittel („Fülllauf“). So sind die Blutgefäße ohne zusätzli-
che Schatten durch die z. B. davor oder dahinter liegenden Knochen zu erkennen.

Digitale Subtraktionsangiographie (DSA): Verfahren zur Gefäßdarstellung mittels Röntgenstrah-


len, bei dem zwei logarithmierte Bilder subtrahiert werden – eines mit Kontrastmittel (Fülllauf)
und eines ohne Kontrastmittel (Maske). So werden nur die Blutgefäße dargestellt, in die das Kon-
trastmittel hineingelangt ist.

Nierensteine können im Röntgenbild erkannt werden; die Navigation bei der Nieren-
stein-Zertrümmerung mit Ultraschall erfolgt überwiegend unter Röntgenkontrolle. In
Operationssälen wird immer öfter ein mobiler C-Bogen eingesetzt, um während der
Operation eine Röntgenaufnahme durchführen zu können (󳶳Abb. 19.1).

2.10 Neuere Entwicklungen und Trends


Die neuen flachen Röntgendetektoren werden immer besser. Heute (2013) werden fol-
gende Daten erreicht: Detektorgröße bis 43 × 43 cm, 4000 × 4000 Pixel, 140 × 140 μm
2 Bildgebung durch Projektionsröntgen | 57

Pixelgröße (bei der Mammographie bis 50 × 50 μm), Zeitauflösung im Bereich 1 bis


30 ms, Dynamikbereich der Signalamplitude 14 bis 16 bit.
Mit einem C-Bogen können Röntgenröhre und Detektor in ca. 3 s einen Winkelbe-
reich von 180°um den Patienten herum überstreichen. Mit Methoden der Computer-
tomographie (s. 󳶳Kap. 3, CT) kann daraus ein 3D-Datensatz berechnet werden. So ist
es heute möglich, im Operationssaal in 3 s mit einem C-Bogen einen 3D-Datensatz zu
generieren.
Es wird an neuen Röntgendetektoren geforscht, bei denen die Röntgenstrahlung
direkt in einer Halbleiter-Diode absorbiert wird (direct conversion), ohne den „Um-
weg“ über die Fluoreszenzschicht und die Umwandlung in sichtbares Licht zu neh-
men. So könnte ein energieselektiver Röntgendetektor entstehen, mit dem beispiels-
weise die Unterdrückung der Streustrahlung besser gelingen könnte.

Quellenverzeichnis
Aach T., Schiebel U., Spekowius G.: Digital image acquisition and processing in medical X-ray
imaging. Journal of Electronic Imaging 1999; 8 (Special Section on Biomedical Image
Representation): 7–22.
Boone J. M., Seibert J. A.: An accurate method for computer-generated tungsten anode X-ray spectra
from 30 to 140 kV. Medical Physics 1997; 24 (11): 1661–1670.
Haxel O.: Entstehung, Eigenschaften und Wirkung ionisierender Strahlung. In: Diethelm L (Hrsg.):
Handbuch der medizinischen Radiologie, Teil 1, Physikalische Grundlagen und Technik. Berlin,
Heidelberg, New York: Springer Verlag, 1968: 1–107.
Heinzerling J.: Röntgenstrahler. In: Ewen K. (Hrsg.): Moderne Bildgebung. Stuttgart: Thieme Verlag,
1998.
Hsieh J.: Computed tomography. Principles, design, artifacts, and recent advances. Bellingham,
Washington: SPIE Press, 2003.
Johns H. E., Cunningham J. R.: The physics of radiology. Springfield: Thomas, 1974.
Overdick M.: Detectors for X-ray imaging and computed tomography. In: Spekowius G., Wendler T.
(Hrsg.): Advances in healthcare technology. Dordrecht: Springer, 2006: 49–64.
Rabbani M., Shaw R., van Mettler R.: Detective quantum efficiency of imaging systems with
amplifying and scattering mechanisms. Journal Optical Society of America A 1987; 4 (5):
895–901.
Schulz G., Weitkamp T., Zanette I., Pfeiffer F., Beckmann F., David C., et al.: High-resolution
tomographic imaging of a human cerebellum: comparison of absorption and grating-based
phase contrast. J R Soc Interface 2010; 7: 1665–1676.
Trixell, Moirans, France: Products, Technical Description.
www.trixell.com/html-gb/frameset{_}products.html?1. Zugriff: 8.11.2011.

Verzeichnis weiterführender Literatur


Beutel J., Kundel H. L., van Metter R. L.: Handbook of Medical Imaging Volume 1. Bellingham: SPIE
Press, 2000.
Buzug T. M.: Einführung in die Computer-Tomographie. Berlin: Springer, 2004.
58 | Til Aach, Olaf Dössel

Dössel O.: Bildgebende Verfahren in der Medizin. Berlin: Springer, 2000.


Morneburg H.: Bildgebende Systeme für die medizinische Diagnostik. Erlangen: Publicis, 1995.
Oppelt A.: Imaging systems for medical diagnostics. Erlangen: Publicis, 2005.
Webb A.: Introduction to biomedical imaging. Hoboken: John Wiley, 2003.

Testfragen
1. Skizzieren, beschriften und erklären Sie den Aufbau einer Röntgenröhre für die medizinische
Diagnostik.
2. Skizzieren und erklären Sie das Spektrum einer Röntgenröhre für die medizinische Diagnostik
(spektrale Leistungsdichte über der Photonenenergie). Aus welchen Teilen setzt sich das Spek-
trum zusammen und welche physikalischen Prozesse spielen sich in der Anode ab? Wie verläuft
das Spektrum zu niedrigen Energien hin und warum? Wie ändert sich das Spektrum, wenn man
die Anodenspannung erhöht?
3. Wie wird in modernen Röntgengeneratoren die Hochspannung erzeugt (Blockschaltung und Er-
klärung)?
4. Welche Prozesse werden bei der Abschwächung von Röntgenstrahlen in Materie beobachtet?
Wie verläuft der Schwächungskoeffizient über der Photonenenergie (qualitativ)? Welcher Pro-
zess dominiert in Muskel, welcher in Blei?
5. Röntgenstrahlung dringt in Materie ein. Wie hängt die Röntgenintensität von der Tiefe ab, wenn
μ(x) gegeben ist (Gleichung und Erklärung)? Was versteht man in der Röntgentechnik unter einer
Projektion?
6. Von welchen Größen hängt die bildgebende Dosis ab? Nennen Sie drei Methoden, mit denen die
richtige Belichtung von Röntgenbildern erreicht werden kann.
7. Was versteht man unter einem Film-Folien-System? Erklären Sie die Komponenten, die physi-
kalischen Prozesse und die Qualitätsmerkmale. Beschreiben Sie die Komponenten, Prozesse
und Qualitätsmerkmale eines Speicherfoliensystems. Skizzieren Sie den Aufbau eines Halblei-
ter-Flachdetektors für Röntgenstrahlung und beschreiben Sie die Funktion.
8. Wozu dient ein Streustrahlenraster? Wie ist die Selektivität eines Streustrahlenrasters definiert?
9. Wie ist die Modulationsübertragungsfunktion MTF definiert und wie kann man sie messen?
10. Wie ist die detektive Quantenausbeute DQE im Allgemeinen definiert? Wie kann man die DQE des
Eingangsschirms eines Film-Folien-Systems beschreiben und bestimmen?
11. Wie sind die Ionendosis, die Energiedosis und die Äquivalentdosis definiert und in welcher Ein-
heit werden sie gemessen?
12. Welche Gesetze und Verordnungen regeln die sachgerechte Anwendung von Röntgenstrahlung
in der medizinischen Diagnostik?
13. Was versteht man unter einem C-Bogen?
14. Was versteht man unter Koronarangiographie? Was versteht man unter zerebraler Angiographie?
Welche diagnostischen Fragen will der Arzt damit beantworten?
15. Was versteht man unter digitaler Subtraktionsangiographie DSA? Was wird genau berechnet und
dargestellt und warum?
Thorsten M. Buzug, Thomas Flohr
3 Computertomographie

3.1 Einleitung | 60
3.2 Historie der Computertomographie | 62
3.3 Technologie | 70
3.4 Bildrekonstruktion | 77
3.5 Artefakte | 87
3.6 Aufnahmeplanung, Datenaufbereitung und Bilddarstellung | 91
3.7 Klinische Anwendungen | 96
3.8 Dosis und Dosisreduktion | 102
3.9 Spezielle CT-Systeme | 106

Zusammenfassung: Die Computertomographie (CT) ist das Verfahren, welches als


erstes axiale überlagerungsfreie Schnittbilder aus dem menschlichen Körper er-
zeugen konnte. Gleichzeitig ermöglicht die CT, selbst kleine Dichteunterschiede
zwischen unterschiedlichen Gewebetypen aufzulösen. Die Erfindung der Computer-
tomographie war ein enormer Meilenstein für die Diagnostik. Aufgrund der klaren
physikalisch-diagnostischen Aussage sowie der Fortschritte bei der Reduktion der
Strahlenbelastung wird die Computertomographie auch in Zukunft ihren festen Platz
in der radiologischen Klinik behalten. In diesem Kapitel werden die Historie der
Computertomographie, die moderne Technologie, die Mathematik der Bildrekon-
struktion sowie praktische Aspekte wie klinische Applikationen und Konzepte zur
Dosisreduktion dargelegt.

Abstract: Computed Tomography (CT) was the first method capable of acquiring cross-
sectional images of the human body and resolving even small differences in the den-
sity of various types of tissue. The invention of Computed Tomography marked a key
milestone for diagnostic capabilities in medicine. Due to the simple scanner opera-
tion, the precise physical and diagnostic evidence provided by the grey values of the
image, and the remarkable progress in reducing the dose of radiation, Computed To-
mography will remain established in the field of radiology. In this chapter, the history
of Computed Tomography, its modern technology, the mathematics of image recon-
struction, as well as practical, clinical applications and concepts to reduce the radia-
tion dose are outlined.
60 | Thorsten M. Buzug, Thomas Flohr

3.1 Einleitung
Die Computertomographie (CT) ist heute genauso spannend wie zu Beginn ihrer Ent-
wicklung in den sechziger und siebziger Jahren des letzten Jahrhunderts. Sie stellt das
Verfahren dar, das als Erstes axiale überlagerungsfreie Schnittbilder aus dem mensch-
lichen Körper erzeugen und dabei selbst kleine Dichteunterschiede zwischen unter-
schiedlichen Gewebetypen auflösen konnte (󳶳Abb. 3.1). Die Erfindung der Compu-
tertomographie war ein enormer Schritt innerhalb der diagnostischen Möglichkeiten
der Medizin. Heute gibt es einige konkurrierende Verfahren zur Computertomogra-
phie, allen voran die Magnetresonanztomographie (MRT). Obwohl seit Erfindung der
Magnetresonanztomographie der Computertomographie immer wieder ihr Ende vor-
ausgesagt wurde, hat sie doch durch die technischen Entwicklungen der letzten Jah-
re, insbesondere durch die Einführung der Spiral-CT und der Mehrschicht-CT, ihren
festen Platz in der Radiologie nicht nur behauptet, sondern ihr Anwendungsspek-
trum sogar erweitert. Mittlerweile sind kommerzielle CT-Geräte mit 64 oder 128 Zeilen
verfügbar, und einige Hersteller bieten sogar CT-Geräte mit noch mehr Zeilen (bis zu
320) an. Unterstützt durch dreidimensionale Bildverarbeitungstechniken, entstanden
neue Anwendungen wie z. B. die CT-Angiographie, die Darstellung der Gefäße mit-
tels der Computertomographie, die in vielen Fällen die klassische Katheterangiogra-
phie ersetzen kann. Selbst die Herzkranzgefäße können durch moderne Computer-
tomographen scharf und ohne Bewegegungsartefakte abgebildet werden. In einigen
Kliniken entfällt inzwischen der konventionelle Schockraum und wird durch einen
CT-basierten Schockraum ersetzt. Die Erstversorgung der Patienten erfolgt hier inter-
mittierend mit der Bildgebung. Gerade im Bereich der schnellen 3D-Diagnostik von
Traumapatienten (Unfallopfer) ist die Computertomographie der Standard.

Computertomographie (CT): abbildendes Verfahren in der Medizin zur überlagerungsfreien


Schnittbilddarstellung auf Basis von Röntgenstrahlen.

Computerized Axial Tomography (CAT): Computertomographie im anglikanischen Sprachraum.

In letzter Zeit entstanden darüber hinaus aber auch interessante technische, anthro-
pologische und forensische sowie archäologische und paläontologische Anwendun-
gen der Computertomographie, welche die Stellung des Verfahrens über die Verwen-
dung in der Medizin hinaus als allgemeindiagnostisches Werkzeug zur zerstörungs-
freien Materialprüfung und dreidimensionalen Visualisierung weiter stärken.
Aufgrund der einfachen Handhabung und der klaren physikalisch-diagnosti-
schen Aussage sowie der Fortschritte bei der Reduktion der Strahlenbelastung wird
die Computertomographie ihren festen Platz im radiologischen Umfeld behalten.
Wenn man heute von Tomographie spricht, so ist dies trotz alternativer diagnostischer
Verfahren wie MRT (Magnetresonanztomographie) oder PET (Positronen-Emissions-
Tomographie) immer noch ganz stark mit CT, also der Röntgen-Computertomogra-
3 Computertomographie | 61

Abb. 3.1: Mittels moderner, sehr schneller CT-Scanner mit Multizeilen-Detektorsystemen lassen sich
heute Ganzkörperübersichten aufnehmen, bei denen selbst kleinere Gefäße gut abbildbar sind. Die
hier gezeigte Aufnahme entstand mit einem CT-Gerät mit 64 Zeilen und 0,5 s Gantry-Rotationszeit.
Die Untersuchungszeit zur Abbildung des gesamten Körpers betrug etwa 25 s (Bildmaterial: Radiolo-
gisches Institut der Universität Tübingen).

phie, verbunden. Im englischsprachigen Raum wird die Computertomographie auch


CAT (󳶳Computerized Axial Tomography) genannt.
Die Darstellung der Herzkranzgefäße (󳶳Abb. 3.12, 3.17, 3.18) oder der kleineren
Gefäße (󳶳Abb. 3.1) ist heute klinische Routine. Selbst wenn sich ein Chirurg auf den
intraoperativen Eindruck des Bildverstärkers eines C-Bogens vorbereiten möchte,
werden keine zusätzlichen Röntgenaufnahmen benötigt, denn aus dem präope-
rativ aufgenommenen tomographischen Schichtenstapel lassen sich synthetische
Projektionen berechnen, die den konventionellen Aufnahmen praktisch gleichen.
Aufgrund der hohen Qualität der Planungs-Übersichtsaufnahmen wird in einigen
CT-basierten Schockräumen sogar auf konventionelle Röntgenaufnahmen verzichtet.
Hinzu kommt, dass die Berufsgenossenschaften bei Arbeitsunfällen zunehmend auf
einer tomographischen Abklärung bestehen. Auch deswegen ist die CT in der Unfall-
klinik zur Standarddiagnostik avanciert. Mit den neuen Multizeilen-Detektoren kann
die Zeit für eine 3D-Bildakquisition heute wesentlich reduziert werden, was für die
Traumadiagnostik einen deutlichen Fortschritt darstellt.
62 | Thorsten M. Buzug, Thomas Flohr

Mit den modernen CT-Systemen ergeben sich neue Anforderungen an die Infra-
struktur einer Klinik. Die durch Bildschirmbefundungsplätze ersetzten Lichtkästen
sind dabei nur ein äußeres Zeichen dieses Wandels. Entscheidend sind natürlich ein
leistungsfähiges PACS (Picture Archiving and Communication System) sowie ein Klini-
knetzwerk mit hoher Bandbreite.
Darüber hinaus erfordert die Bilderflut der modernen Computertomographen ein
anderes Umgehen der Ärzte mit diesen Daten. Tatsächlich ist heute nicht mehr die
Datenaufnahme das zeitliche Nadelöhr bei einer Untersuchung, sondern Patienten-
lagerung und ärztliche Befundung. Da die großen Datensätze mit hunderten von Bil-
dern nicht mehr Schicht für Schicht betrachtet werden können, ist zu beobachten,
dass sich die Paradigmen ändern und dreidimensionale Bildnachverarbeitungsver-
fahren eine wesentliche Rolle spielen. Zunehmend sind dreidimensionale Bilder des
Patienten Bestandteil der Befundung (siehe z. B. 󳶳Abb. 3.1). Dabei ist die Entwicklung
der hochauflösenden Multizeilen-Detektoren wiederum eine Voraussetzung für quali-
tativ hochwertige Sekundärrekonstruktionen und ihre dreidimensionalen Visualisie-
rungen.
In diesem Kapitel sollen die Historie der Computertomographie, die moderne
Technologie mit Schwerpunkt auf Röntgenstrahlenerzeugung und -detektion, die
Bildrekonstruktion sowie die Ursachen von Bildartefakten besprochen werden. Dar-
über hinaus sind Aspekte der Bedienung und Anwendung, Einblicke in die klinische
Applikation, der Dosis bei der Computertomographie und Techniken zur Dosisre-
duktion sowie ein kurzer Abschnitt über spezielle CT-Entwicklungen enthalten. Da
dieses Kapitel nur den Charakter eines Überblicks besitzt, sei an dieser Stelle schon
auf aktuelle Bücher verwiesen, die eine ausführliche Beschreibung der Technologie
der Computertomographie geben [Buzug 2008, Hsieh 2003, Kalender 2000, Seeram
2001].

3.2 Historie der Computertomographie


Konventionelle Röntgenverfahren haben den schwerwiegenden Nachteil, dass sie le-
diglich Projektionsbilder liefern. Die durch die Projektion hervorgerufene Überlage-
rung räumlicher Strukturen führt zu einem Verlust an räumlicher Information und zu
einem erheblichen Kontrastverlust: Alle Objekte längs eines Röntgenstrahls werden
in einem Röntgenbild integriert dargestellt.

3.2.1 System-Generationen

Die Computertomographie vermeidet die Überlagerung von verwischten Ebenen und


erzeugt überlagerungsfreie Schnittbilder mit so großem Kontrast, dass auch Weichtei-
le gut abgebildet werden. Der diagnostische Qualitätssprung, der damit einherging,
3 Computertomographie | 63

begründet den enormen Erfolg der Computertomographie. Etabliert ist eine Unter-
scheidung in vier Generationen von Computertomographen, die in 󳶳Abb. 3.2 zu sehen
sind. Diese Unterscheidung ist historisch gewachsen und bezieht sich sowohl auf die
Art, wie Röntgenquelle und Detektor konstruiert sind, als auch auf die Art, wie beide
sich um den Patienten bewegen.
– Erste Generation: Die erste Generation von Computertomographen besitzt eine
Röntgenquelle, die einen einzelnen Nadelstrahl, auf Englisch „pencil beam“,
aussendet, der mithilfe von entsprechenden Kollimatoren aus dem Röntgen-
kegel selektiert wird. Auf der der Röntgenquelle gegenüberliegenden Seite des
Messfeldes befindet sich ein einzelner Detektor, der synchron mit der Rönt-
genquelle linear verschoben wird und dabei eine Reihe von Messwerten (eine
sogenannte Projektion) aufnimmt, die das Messfeld abdecken. Abhängig von den
spezifischen Schwächungseigenschaften des Gewebes wird die Intensität des
Nadelstrahls beim Durchgang durch den Körper geschwächt – der Detektor re-
gistriert die geschwächte Intensität für jede Messposition. Der Messvorgang wird
unter verschiedenen Projektionswinkeln 𝛾 wiederholt. Der erste CT-Scanner, den
ein Außenseiter, nämlich die für Schallplatten bekannte Firma EMI, gebaut hatte,
beruhte auf dem Nadelstrahlprinzip. 1972 realisierte Godfrey N. Hounsfield
(1919. . . 2004) diesen ersten Computertomographen in den EMI Forschungslabo-
ratorien. Dafür erhielt er 1979 zusammen mit Allen M. Cormack (1924. . . 1998)
den Nobelpreis für Medizin. 󳶳Abb. 3.3 zeigt ein Foto des ersten Siemens-Kopf-
scanners aus dem Jahre 1974. Interessant ist, dass dieser Tomograph zwei in
Patientenlängsrichtung angeordnete Detektoren besaß. Er konnte so gleichzeitig
zwei Schichten des Patienten aufnehmen und war damit ein früher Vorläufer
eines Mehrzeilen-CT-Gerätes. CT-Scanner der ersten Generation werden nach
ihrem Aufnahmeprinzip auch „Translations-Rotations-Scanner“ genannt.

Pencil beam (dt. Nadelstrahl): Nadelgeometrie eines Röntgenstrahls.

Die ersten kommerziellen CT-Scanner folgten dem Translations-Rotationsprin-


zip, sie besaßen einen eng fokussierten Röntgenstrahl und einen einzelnen NaI-
Szintillationsdetektor. Dieses technisch heute nicht mehr realisierte Prinzip ist von
grundsätzlicher Bedeutung, da die mathematischen Verfahren zur Rekonstruktion
hier besonders einfach zu verstehen sind. Insbesondere kann man die mathemati-
schen Verfahren für die moderneren Geometrien durch geeignete Koordinatentrans-
formationen aus der Nadelstrahlgeometrie gewinnen.
Die weitere rasante Entwicklung der Computertomographie wurde von drei we-
sentlichen Forderungen vorangetrieben: Reduktion der Aufnahmezeit, bessere Nut-
zung der Röntgenröhre und nicht zuletzt Reduktion der Kosten. Auf dem Weg, diese
64 | Thorsten M. Buzug, Thomas Flohr

lineare Röntgenröhre
Verschiebung

Röntgen-
strahl

Iso-Zentrum

(a) Detektor (b) kleines Detektor-Array

Kollimator

(c) großes Detektor-Array (d) geschlossenes Detektor-Array

Abb. 3.2: Erste Generation: Rotation-Translation des Nadelstrahls (a), zweite Generation: Rotati-
on-Translation eines kleinen Fächerstrahls (b), dritte Generation: Rotation-Rotation eines großen
Fächerstrahls (c) und vierte Generation: Rotation-Fix mit geschlossenem Detektorring (d).

Faktoren zu optimieren, gibt es mehrere historische Stationen, die in den folgenden


Abschnitten kurz besprochen werden sollen.
– Zweite Generation: Der Computertomograph der zweiten Generation besitzt eine
Röntgenquelle mit Fächerstrahlgeometrie und ein kurzes Detektorarray mit etwa
30 Elementen (󳶳Abb. 3.2 (b)). Allerdings ist die Fächerstrahlöffnung immer noch
sehr klein, so dass auch hier Röhre und Detektor linear verschoben werden müs-
sen, bevor ein neuer Projektionswinkel eingestellt werden kann. Bei den ersten
3 Computertomographie | 65

(c)

(a) (b)

Abb. 3.3: Historische Meilensteine der CT-Scanner. 1974: Siretom (1. Generation); 2009: Siemens
Definition Flash (Dual Source CT-Scanner, 2 × 3. Generation), Blick in die Gantry.

Geräten betrug der Öffnungswinkel des Röntgenfächerstrahls etwa 10°. Immer-


hin konnte aber die Akquisitionszeit schon auf einige Minuten pro Schicht ge-
senkt werden, da mit einem solchen Array gleichzeitig mehrere Intensitätswerte
gemessen werden können. Das Messfeld war dennoch so klein, dass nur Schädel-
aufnahmen durchgeführt werden konnten.
Die Tatsache, dass bei dem Tomographen der ersten und zweiten Generation der
Schädel als klinischer Applikationsschwerpunkt gewählt wurde, liegt im Wesent-
lichen an der langen Akquisitionszeit. Der Schädel ist gut zu fixieren und zeigt
keine großen Bewegungen innerhalb der Aufnahmezeit. Das ist bei Aufnahmen
im Bereich des Thorax oder des Abdomens natürlich anders, da die Bewegungen
des Herzens und der Lunge sowie über das Zwerchfell auch die Bewegungen der
weichen Organe des Abdomens zu Artefakten in den rekonstruierten Bildern füh-
ren. Die Rekonstruktionsmathematik erfordert es, dass alle zu rekonstruierenden
Punkte einer Schicht über einen Winkelbereich von 180° durchleuchtet werden.
Wenn sich aufgrund der Patientenbewegung ein Punkt während eines Umlaufs
des Scanners in der Schicht bewegt oder gar aus der Schicht heraus wandert, führt
dies zu inkonsistenten Daten und damit zu Fehlern in der Bildrekonstruktion.
– Dritte Generation: Das Hauptziel neuer Entwicklungen in den 70er Jahren des
letzten Jahrhunderts war die Reduktion der Akquisitionszeit auf unter 20 s. Dies
66 | Thorsten M. Buzug, Thomas Flohr

sollte ausreichen, um in einer Atemanhaltephase des Patienten auch Bilder des


Abdomens ohne deutliche Bewegungsartefakte zu rekonstruieren. Ein großer Ent-
wicklungsschritt in diese Richtung war die konsequente Weiterführung des Fä-
cherstrahlkonzeptes der zweiten Generation, nämlich die Einführung eines we-
sentlich größeren Öffnungswinkels des Röntgenfächers und eines entsprechend
längeren Detektorarrays. 󳶳Abb. 3.2 (c) zeigt das Prinzip dieser dritten Generati-
on wiederum schematisch. Das rekonstruierbare Messfeld ist hier ebenfalls illus-
triert. Der Öffnungswinkel des Röntgenfächers beträgt zwischen 40° und 60°, und
das Detektorarray ist in der Regel als Detektorbogen mit heute zwischen 700 und
1000 Elementen ausgelegt. Auf diese Weise kann unter jedem eingestellten Pro-
jektionswinkel 𝛾 das gesamte Messfeld von typischerweise 50 cm Durchmesser, in
dem jetzt auch der Körperstamm liegen kann, simultan durchleuchtet werden. So-
mit kann bei der dritten Generation gänzlich auf die lineare Verschiebung der Ab-
tasteinheit verzichtet werden. Mit diesem Ansatz verkürzt sich die Akquisitions-
zeit erheblich, da eine kontinuierliche Drehung erfolgen kann, ohne dass Pausen
für die lineare Verschiebung eingelegt werden müssen.
Praktisch alle heute installierte Geräte sind Fächerstrahlsysteme der dritten
Generation. 󳶳Abb. 3.3 rechts zeigt einen modernen CT-Scanner, bei dem die
Geometrie der dritten Generation zwei Mal unter 90° implementiert wurde, aus
dem Jahre 2009. Dieses sogenannte Dual Source CT wird in 󳶳Kapitel 3.9.1 de-
tailliert beschrieben. Während sich die Geräte äußerlich wenig unterscheiden,
hat sich die Röhren- und Detektortechnologie in den letzten Jahrzehnten erheb-
lich weiterentwickelt. Insbesondere die verbreitete Einführung der Mehrzeilen-
Technologie führte zu einem Entwicklungssprung in der Computertomographie.
Mehrzeilen-CT-Detektoren weisen mehrere in Patientenlängsrichtung angeordne-
te Detektorzeilen auf und können so mehrere Schichten des Patienten gleichzeitig
aufnehmen (heutzutage sind 64 und mehr Zeilen Standard). Gleichzeitig wurde
die Rotationszeit der CT-Geräte immer weiter verkürzt, sie beträgt heute in der
Routine 0,5 s und darunter und kann für Spezialanwendungen wie Herz-CT bis
auf 0,27 s reduziert werden.
– Vierte Generation: Die vierte Generation der Computertomographen unterschei-
det sich hinsichtlich der Röntgenquelle nicht von den Tomographen der dritten
Generation. Auch hier dreht sich die Fächerstrahlquelle kontinuierlich ohne li-
neare Verschiebung um das Messfeld. Der Unterschied zur dritten Generation
liegt im geschlossenen, ortsfesten Detektorring mit bis zu 5000 Einzelelementen.
Hierbei kann die Röntgenröhre außerhalb (󳶳Abb. 3.2 (d)) oder innerhalb des De-
tektorrings rotieren. Für die Anordnung der Röhre außerhalb des Detektorrings
ist klar, dass der Röntgenstrahl nicht die der Quelle jeweils nahe liegenden De-
tektoren von hinten durchstrahlen darf. Daher wird der Detektorring gegenüber
der Bahn der Röhre dynamisch geneigt, so dass die Sichtlinie zwischen der Röhre
und dem Arbeitsbereich des Detektorrings nur durch den Patienten (und den
Patiententisch) und nicht durch die Detektorelektronik geht. Tomographen der
3 Computertomographie | 67

vierten Generation bilden sogenannte inverse Fächerstrahlen aus, deren jeweilige


Zentren die einzelnen Detektoren sind.
Man nennt den inversen Fächer auch Detektorfächer im Unterschied zum Rönt-
genfächer der Tomographen dritter Generation. Lediglich beschränkt durch die
Abtastrate, mit der die einzelnen Detektoren ausgelesen werden können, kann ein
sehr dichter inverser Fächer gemessen werden. Auf diese Weise ist im Gegensatz
zu den Tomographen der dritten Generation eine deutlich bessere Abtastung in-
nerhalb eines Fächers möglich. Allerdings lassen sich bei CT-Geräten der vierten
Generation keine Kollimatorlamellen zwischen den einzelnen Detektorelemen-
ten anbringen, die zur wirksamen Streustrahlunterdrückung notwendig wären.
CT-Geräte der vierten Generation leiden darum unter Streustrahlartefakten, die
sich unter anderem in schlechteren Kontrasten bemerkbar machen. Zudem ist es
sehr schwierig, das Mehrzeilen-Prinzip auf CT-Scanner der vierten Generation zu
übertragen. Darüber hinaus sind infolge der großen Anzahl an einzelnen Detek-
torelementen und die insgesamt sehr große Detektorfläche die Kosten sehr hoch,
weswegen das Prinzip der vierten Generation mittlerweile aufgegeben wurde.

3.2.2 Spiral-CT

Ein Entwicklungsschritt, der einen enormen Sprung in der Leistungsfähigkeit von


Computertomographen der dritten Generation zur Folge hatte, ist die Einführung der
Schleifringtechnologie. Mit ihr eröffnet sich die Möglichkeit, die Gantry dauerhaft
rotieren zu lassen.

Gantry (dt. Gerüst, Kranportal): Rahmen, der die Bildaufnahmeeinheit trägt.

Spiral-CT: CT-Verfahren mit kontinuierlichem Tischvorschub während der Rotation des CT-
Abtastsystems.

Da der Röntgenröhre kontinuierlich Energie zugeführt werden muss und außerdem


Mess- und Steuersignale übertragen werden müssen, war bei den ersten Scannern
durch die Kabelzuführung der Winkelverfahrweg beschränkt. Dieses Problem stell-
te eine hohe Barriere für die Reduktion der Akquisitionszeiten dar, da die Abtastein-
heit ständig anfahren und wieder stoppen musste. Es wurden zwar sowohl bei Links-
als auch der nachfolgenden Rechtsdrehung jeweils Daten akquiriert, aber durch die
entstehenden Drehmomente waren der Scangeschwindigkeit Grenzen gesetzt. Die Ka-
belverbindung wurde bei diesem Prozess in der einen Richtung abgewickelt und in
der anderen Richtung vorsichtig wieder aufgewickelt. Gelöst wurde dieses Problem
durch die 󳶳Schleifringtechnologie. Die Energie wird hierbei durch Schleifkontak-
te vom äußeren Rahmen auf die sich drehende Abtasteinheit übertragen, während
mit anderen Schleifringen gleichzeitig Mess- und Steuersignale übertragen wurden.
68 | Thorsten M. Buzug, Thomas Flohr

Jetzt konnte die Abtasteinheit, welche die Röntgenquelle und in der dritten Generati-
on auch das Detektorarray trägt, kontinuierlich rotieren. Inzwischen sind Rotations-
frequenzen von mehr als zwei Umdrehungen pro Sekunde Standard. Der schnellste,
heute kommerziell erhältliche CT-Scanner bringt es mit einer Rotationszeit von 0,27 s
auf fast vier Umdrehungen pro Sekunde.
Für Spezialanwendungen gibt es auch kleinere Kompaktgeräte, die ihre Unab-
hängigkeit von einer äußeren Energiezufuhr während der Rotation der Abtasteinheit
durch Akkumulatoren herstellen. Ein Beispiel hierfür ist der mobile Tomoscan M
Computertomograph von Philips.
Bei der Übertragung der Messdaten zurück auf den stationären Teil der Gantry
findet man grundsätzlich verschiedene Wege. Während manche Geräte ihre Daten
über einen Schleifkontakt nach außen führen, wird insbesondere bei moderneren
Mehrzeilen-CT-Scannern eine kontaktlose kapazitive RF-Übertragung genutzt. Bei
der derzeitigen Entwicklung zu einer immer größer werdenden Detektorenanzahl bei
gleichzeitiger Steigerung der Umdrehungsgeschwindigkeit stellen die hohen Datenra-
ten bei der Übertragung von der Abtasteinheit auf den stationären Teil der Gantry eine
Herausforderung dar, der in neueren Geräten auch mit optischer Datenübertragung
begegnet wird.
Die kabellose Energie- und Datenübertragung ermöglichte ein neues CT-Scanpro-
tokoll. Bei kontinuierlichem Patiententischvorschub und kontinuierlicher Rotation
des Messsystems ist es nämlich nun möglich, Daten auf einer spiralförmigen Abtast-
bahn zu messen. Dieses Spiral-CT-Verfahren, auf das in 󳶳Kapitel 3.4.3 noch einmal
eingegangen wird, wurde 1989 von Willi Kalender an einem Prototyp erfolgreich
demonstriert [Kalender 1989].

3.2.3 Mehrschicht-CT

Das erste Beispiel eines Ganzkörper-Mehrzeilen-CT-Gerätes war der im Jahre 1993 vor-
gestellte Zweizeilen-CT-Scanner Elscint TWIN (Elscint, Haifa, Israel). Im Jahre 1998
wurden von verschiedenen Herstellern Mehrzeilen-CT-Scanner kommerziell einge-
führt, die gleichzeitig vier in Patientenlängsrichtung benachbarte Schichten aufneh-
men konnten. In rascher Folge wurden in den letzten zehn Jahren neue Generationen
von 6-, 8-, 16-, 64- und neuerdings 128- oder sogar 256-Schicht-CT-Geräten auf den
Markt gebracht (󳶳Abb. 3.4). Diese rasante Entwicklung gab der CT als klinische Un-
tersuchungsmethode neue Impulse und führte zu neuen klinischen Anwendungen,
die wesentlich zur Renaissance der CT in den letzten Jahren beigetragen haben.

Mehrschicht-CT: CT-Gerät mit mehreren in Patientenlängsrichtung hintereinander angeordneten


Detektorzeilen, das gleichzeitig mehrere Schichten des Patienten aufnehmen kann.
3 Computertomographie | 69

Röntgenstrahler

Einzelschicht-Detektor

Röntgenstrahler

Mehrschicht-Detektor

Abb. 3.4: Prinzip der Mehrschicht-CT. Mehrere in Patientenlängsrichtung benachbarte Detektorzei-


len nehmen gleichzeitig mehrere Schichten des Patienten auf.

Klinische Applikationen profitieren vielfältig von der Mehrschicht-Technologie:


– durch kürzere Untersuchungszeiten, was insbesondere für Trauma- und Notfall-
patienten sowie in der Pädiatrie wichtig ist. Ein Vierzeilen-CT-Scanner z. B. kann
bei sonst unveränderten Aufnahmeparametern das Untersuchungsgebiet in ei-
nem Viertel der Zeit abdecken.
– durch größere Volumenabdeckung, ein für CT-Angiographien oder kombinierte
Thorax-Abdomen-Untersuchungen wichtiger Aspekt
– durch verbesserte Auflösung in Patientenlängsrichtung, weil das Untersuchungs-
gebiet in der gleichen Untersuchungszeit mit dünneren Schichten aufgenommen
werden kann.

Letzteres ist insbesondere dann von Bedeutung, wenn dreidimensionale Bildnachver-


arbeitungsschritte geplant sind. Anstelle der 10 mm Schichtdicke eines Einzeilen-CT-
Gerätes kann mit einem 4-Zeilen-Scanner der gleiche anatomische Bereich in der glei-
70 | Thorsten M. Buzug, Thomas Flohr

chen Zeit mit 2,5 mm Schichtdicke untersucht werden, mit einem 16-Zeilen-Scanner
sogar mit einer Schichtdicke von 0,625 mm.
Die meisten klinischen Untersuchungsprotokolle nutzen eine Kombination die-
ser Vorteile in verschiedenen Ausprägungen. Die sehr gute räumliche Auflösung
in allen drei Raumrichtungen durch die Wahl dünner Schichten erlaubt qualitativ
hochwertige dreidimensionale Volumenrekonstruktionen in der klinischen Routine.
Technologien wie geneigte multiplanare Reformatierungen (MPR) oder Maximum-
Intensity-Projektionen (MIP) erreichen dabei eine der axialen Schicht gleichwertige
Bildqualität.

3.3 Technologie
Computertomographen bestehen aus einem Frontend, dem eigentlichen Scanner, und
einem Backend, der Bedienkonsole, und der Bildbetrachtungseinheit (engl.: View-
ingstation). Das Frontend besteht aus Röntgenröhre, Filter, Blenden, Kollimator, De-
tektorsystem, Generator, Kühlsystem, Datenerfassungssystem, Schleifring, Patienten-
tisch, Elektronikkomponenten, Motorsteuerungen und Mechanik. Sämtliche dieser
Komponenten sind heute technisch hoch entwickelt und haben zum Teil lange Ent-
wicklungszeiten hinter sich. In diesem Abschnitt sollen aufgrund ihrer zentralen Be-
deutung nur die Hauptkomponenten des Frontends besprochen werden, die Röntgen-
röhre und das Detektorsystem.

3.3.1 Röntgenröhre

Röntgenstrahlung besteht aus elektromagnetischen Wellen des Wellenlängenbe-


reichs 10−8 bis 10−13 m und wird beim Eintritt schneller Elektronen in ein Metall
erzeugt (s. auch 󳶳Kap. 2.2.1 und 2.4, Projektionsröntgen). Dabei ist die Energie der
Röntgenstrahlung abhängig von der Geschwindigkeit v der Elektronen. Diese wie-
derum ist abhängig von der Beschleunigungsspannung UA zwischen Kathode und
Anode, die von dem Bediener im CT-Scanprotokoll im Bereich zwischen 80 kV und
140 kV eingestellt werden kann, z. B. in den Abstufungen 80 kV, 100 kV, 120 kV und
140 kV. Während die Beschleunigungsspannung die maximale Energie des Röntgen-
spektrums bestimmt, steuert der Anodenstrom, der ebenfalls durch den Bediener
festgelegt wird, die Intensität des erzeugten Röntgenspektrums.
Beim Eintritt der beschleunigten Elektronen in die Anode laufen dicht an der An-
odenoberfläche mehrere Prozesse ab. Die Elektronen werden durch die elektrischen
Felder der Atome im Anodenmaterial abgelenkt und abgebremst. Die Abbremsung
geschieht dabei in Wechselwirkungen mit den orbitalen Elektronen und dem Atom-
kern. Bei der Beschleunigung elektrischer Ladung wird Energie in Form einer elek-
tromagnetischen Welle frei – es entstehen (Röntgen-)Photonen. Aufgrund der Vielfalt
3 Computertomographie | 71

der Abbremsungsprozesse im Anodenmaterial ist das sogenannte Bremsspektrum


kontinuierlich, seine maximale Energie ist durch die Beschleunigungsspannung be-
stimmt. Dem kontinuierlichen Bremsspektrum überlagert sich ein Linienspektrum,
das durch direkte Wechselwirkung der schnellen Elektronen mit inneren Hüllenelek-
tronen des Anodenmaterials entsteht. Da sehr niederenergetische, sogenannte wei-
che Röntgenstrahlung vollkommen im Patienten absorbiert wird und somit nicht zum
Bildgebungsprozess beiträgt, wird sie durch direkt an der Röhre angebrachte Metall-
filter gedämpft. Typische Filtermaterialien sind Aluminium, Kupfer oder Tantal.
Der Wirkungsgrad der Energieumwandlung in Röntgenstrahlung liegt bei Wolf-
ramanoden (Kernladungszahl Z = 74) mit einer Beschleunigungsspannung von UA =
100 kV in der Größenordnung von 1 %. Damit hat man ein massives Wärmeproblem,
denn die Anode wird an der Oberfläche bis zum Glühen erhitzt, darf aber nicht schmel-
zen. Um die thermische Belastung auf der Anode zu verteilen, werden seit einigen
Jahrzehnten Drehanoden eingesetzt. Die Energie des Elektronenstrahls verteilt sich
auf einer abgeschrägten Bahn, der sogenannten Brennfleckbahn. Die Drehanode in
Röntgenröhren für die CT hat einen Durchmesser von 160. . . 220 mm und rotiert mit
einer Frequenz von bis zu 200 Hz (12 000 Umdrehungen pro Minute). Die Wärmespei-
cherkapazität des Anodentellers und des Röhrengehäuses – gemessen in Mega He-
at Units, MHU – bestimmt die Leistungsfähigkeit der Röntgenröhre. Sie entscheidet,
wie schnell und mit welcher Leistung CT-Scans wiederholt werden können, ohne den
Anodenteller zu überhitzen. Bei der Konstruktion von Röntgenröhren versucht man,
die Wärmespeicherkapazität und die Rate, mit der Wärme abgeführt werden kann zu
vergrößern. Hier werden zum Beispiel Flüssigmetall-Spiralrillenlager verwendet. Auf-
grund des großflächigen Kontakts des Flüssigmetalls ist die Wärmeableitung über das
Innere des Lagers sehr effizient.
Im Drehgehäuse-Strahler (󳶳Abb. 3.5) ist ein völlig anderes Konstruktionsprinzip
verwirklicht. Hier rotiert das gesamte Röhrengehäuse einschließlich der Kathode, und
die Anode bildet eine Außenwand des Gehäuses. Sie kann daher durch direkten Kon-
takt mit einer Kühlflüssigkeit großflächig und sehr effizient gekühlt werden. Durch
die sehr hohe Rate, mit der Wärme abgeführt wird, haben Röhren vom Drehgehäuse-
Typ hohe Leistungsreserven und ermöglichen hohe Wiederholraten von Aufnahmen.
Die Abwesenheit mechanisch bewegter Teile und Lager im Vakuum erlaubt ein kom-
paktes Strahlerdesign mit einem Anodendurchmesser von nur 120 mm und dennoch
einer maximalen Leistung von 100 kW. Allerdings muss der Elektronenstrahl auf dem
Weg von der Kathode zur Anode permanent elektromagnetisch abgelenkt werden, um
einen stabilen Brennfleck an der gewünschten Stelle der Anode herzustellen.
Die Größe und Form des Brennflecks auf dem Anodenteller beeinflusst die me-
dizinischen Abbildungseigenschaften. Aufgrund der Schrägung des Anodentellers
ist die Projektion der Brennfleckgeometrie in Richtung der austretenden Strahlung
entscheidend für die Qualität der Abbildung. Man spricht daher von dem optischen
Brennfleck, der möglichst klein gehalten werden muss. Üblich sind bei diagnos-
tischen Röntgenröhren Abmessungen des optischen Brennflecks zwischen 0,3 und
72 | Thorsten M. Buzug, Thomas Flohr

Elektronenstrahl Anode

Kathode Röntgen-
strahlen

Abb. 3.5: Abbildung einer Drehgehäuse-Röntgenröhre für die CT (Straton, Siemens AG, Forchheim,
Deutschland). Drehgehäuse-Röntgenröhren können durch den direkten Kontakt der Anode, die eine
Außenwand des Gehäuses bildet, mit einem Kühlmedium effizient gekühlt werden.

2 mm, wobei durch Änderung der Fokussierung häufig zwischen zwei oder noch
mehr Brennfleckgrößen umgeschaltet werden kann. Je größer der Brennfleck ist,
desto besser verteilt sich die Wärmeenergie auf der Anode. Andererseits beeinträch-
tigt die Halbschattenunschärfe bei einem großen optischen Brennfleck die Schärfe
des Bildes. Der mathematische Zusammenhang der Brennfleckgröße mit der Abbil-
dungsqualität wird durch die sogenannte Modulationstransferfunktion (s. 󳶳Kap. 21.3,
Systemtheorie) beschrieben.
Ein weiterer Faktor, der in Bezug auf die Abbildungsqualität Beachtung finden
muss, ist die Richtungscharakteristik der Röntgenstrahlung, denn die Intensität der
Röntgenstrahlung ist für Strahlen, welche die Anode streifend verlassen, geringer.
Dieser Effekt ist auf die Selbstabsorption der Anode infolge der Oberflächenrauheit
zurückzuführen. Je kleiner der Winkel zwischen austretender Röntgenstrahlung und
der Anodenoberfläche ist, desto stärker wirkt sich die Absorption aufgrund der Rau-
heit entlang der Brennfleckbahn aus. Dieser sogenannte 󳶳Heel-Effekt verstärkt sich
mit der Alterung der Röhre, da allmählich Material durch Elektronenbeschuss abge-
tragen wird, wodurch die Rauheit der Brennfleckbahn zunimmt [Heinzerling 1998].
Für die Bildrekonstruktion ist es wichtig, die Strahlcharakteristik der Röntgenröhre
genau zu kennen, denn die Basis aller Rekonstruktionsverfahren ist die Annahme,
dass das zu untersuchende Objekt homogen ausgeleuchtet wird. Leichte Inhomoge-
nitäten können durch spezielle röntgenseitige Filter sowie durch eine Detektorkali-
brierung kompensiert werden.

3.3.2 Detektorsystem

Die Detektion von Röntgenstrahlung beruht auf Effekten der Wechselwirkung zwi-
schen Strahlung und Materie. Das heißt, die Röntgenquanten werden nicht direkt ge-
messen, sondern lediglich die Wechselwirkungsprodukte wie zum Beispiel Photoelek-
tronen.
3 Computertomographie | 73

Gasdetektoren
Aufgrund der Tatsache, dass Röntgenstrahlung die Fähigkeit besitzt, Gase zu ionisie-
ren, liegt es nahe, Detektoren zu verwenden, die auf diesem physikalischen Sachver-
halt basieren. Das Geiger-Müller-Zählrohr ist einer der bekanntesten Detektoren
für ionisierende Strahlung. Tatsächlich wurden die ersten Versuche zur Computer-
tomographie auch mit Geiger-Müller-Zählrohrdetektoren realisiert. Auf dem Prin-
zip der Ionisierung von Gasen basieren auch die Gasdetektoren, die bis vor eini-
gen Jahren in Tomographen der dritten Generation zum Einsatz kamen. Sie wurden
als Proportionalzähler betrieben und mit Xenon unter hohem Druck bis 25 bar be-
füllt. Xenongas wurde verwendet, weil es chemisch stabil ist und eine hohe Ordnungs-
zahl aufweist. Die eintreffenden Röntgenquanten ionisieren das Gas entsprechend
h𝜈+Xe → Xe+ +e− . Die ionisierten Xenonatome und die Elektronen werden durch eine
Hochspannung zur Kathode bzw. Anode beschleunigt. Der dort gemessene Strom ist
ein Maß für die Intensität der Röntgenstrahlung. Die relativ geringe Quanteneffizienz
des Ionisationsprozesses kann durch Erhöhung des Gasdrucks und durch tiefe Ioni-
sationskammern erhöht werden. Die große Kammertiefe bietet den Vorteil der Rich-
tungsselektivität, denn je länger der Weg der Quanten durch das Gas ist, desto größer
ist die Ionisierungswahrscheinlichkeit. Quanten mit schrägem Einfall legen nur einen
kurzen Weg in der Kammer zurück.
Allerdings ist die Quanteneffizienz von Gasdetektoren auch bei mechanisch auf-
wendigen Konstruktionen nicht höher als 60. . . 70 %, und es ist praktisch nicht mög-
lich, Mehrzeilen-Gasdetektoren zu bauen. Dieses Detektionsprinzip wurde daher in
modernen Computertomographen aufgegeben.

Szintillationsdetektoren
Die meisten Computertomographen sind heute mit Szintillationsdetektoren ausge-
stattet. Ein solcher Detektor besteht im Wesentlichen aus einem Kristall und einer Pho-
todiode. Die einfallende (kurzwellige) Röntgenstrahlung wird in dem Szintillations-
kristall zunächst in (langwelliges) Licht umgewandelt. Diese Kristalle bestehen zum
Beispiel aus Cäsiumjodid, Wismutgermanat oder auch Cadmium-Wolframat. Für
die Wahl der Kristalle spielen Anforderungen wie die Effizienz der Umwandlung von
Röntgenstrahlung in Licht, aber auch die Abklingzeit bzw. das Nachleuchten (After-
glow) der Kristalle eine große Rolle. Für sehr schnelle Abklingzeiten, die heute bei den
Subsekundenscannern benötigt werden, kommen Keramiken wie Gadoliniumoxysul-
fid (Gd2 O2 S) zum Einsatz. Die einzelnen Detektorblöcke sind auf einem Kreisabschnitt
an der sich drehenden Abtasteinheit angebracht. Dies ist in 󳶳Abb. 14.3 (c) am Scanner
der dritten Generation schematisch gezeigt.

Afterglow (dt. Nachleuchten): Nachleuchten der Detektorkristalle eines Röntgendetektors.


74 | Thorsten M. Buzug, Thomas Flohr

Damit möglichst nur Strahlung von der direkten Verbindungslinie zwischen Röntgen-
fokus und Detektor in den Kristall einfällt, verwendet man lamellenförmige Abgren-
zungen zwischen den einzelnen Kanälen. Ohne dieses sogenannte Streustrahlenras-
ter, das einen detektorseitigen Kollimator darstellt, würde einfallende Störstrahlung
die Bildqualität erheblich beeinträchtigen. Ein Nachteil des Streustrahlenkollimators
liegt auf der Hand. Durch die zur Abschirmung gestreuter Röntgenstrahlung not-
wendige Lamellendicke von etwa 0,1 mm hat der Detektor nur eine geometrische
Gesamteffizienz von 50. . . 80 %. Die Toträume reduzieren das Auflösungsvermögen.

Festkörper-Mehrzeilen-Detektoren
Die im vorhergehenden Kapitel beschriebenen Kristall- bzw. Keramikdetektoren kön-
nen durch Aneinanderreihung in Patientenlängsrichtung (z-Richtung) zu mehrzeili-
gen Detektorarrays zusammengefügt werden. Die zentrale Forderung hierbei ist, dass
die Toträume zwischen den einzelnen Detektorelementen möglichst klein bleiben. Im
Gegensatz zu den im technischen Einsatz häufig vorkommenden planaren Detektoren
werden in medizinischen Anwendungen praktisch ausschließlich zylindrische Anord-
nungen verwendet.
CT-Detektoren müssen es dem Benutzer ermöglichen, verschiedene Schichtdi-
cken einzustellen, die an die Anforderungen der jeweiligen Untersuchung angepasst
sind. Bei Einzeilen-Detektoren erfolgt die Schichtdickeneinstellung durch das Öffnen
oder Schließen der röhrenseitigen Blende, des sogenannten Kollimators. Schichtdi-
ckenangaben beziehen sich in der CT immer auf das Drehzentrum des Gerätes, durch
die geometrische Projektion sind die Schichtdicken am Detektor größer.
Bei Mehrzeilen-Detektoren muss dieses einfache Kollimationsprinzip allerdings
verlassen werden. Um hier kollimierte Schichten unterschiedlicher Dicke zu erhal-
ten, wird einerseits mit der röhrenseitigen Blende die gewünschte Gesamtbreite des
Strahlprofils eingestellt, andererseits werden die Signale mehrerer Detektorelemente
in Patientenlängsrichtung elektrisch kombiniert. Bei Mehrzeilen-CT-Detektoren muss
man deshalb zwischen ihrer physikalischen Zeilenzahl und der Anzahl der Schichten,
die sie liefern, unterscheiden. Der Detektor eines etablierten 16-Schicht-CT-Gerätes
(Siemens SOMATOM Emotion 16) besteht beispielsweise aus 16 zentralen Zeilen mit je
0,6 mm Schichtdicke sowie vier äußeren Zeilen an beiden Seiten mit je 1,2 mm Schicht-
dicke – insgesamt weist der Detektor 24 Zeilen mit 19,2 mm Gesamtbreite im Drehzen-
trum auf. Werden durch die röhrenseitige Blende nur die inneren 16 Zeilen beleuchtet,
liefert der Detektor 16 Schichten mit 0,6 mm Schichtdicke. Bei Bestrahlung des ganzen
Detektors werden je zwei innere Zeilen mit 0,6 mm Schichtdicke elektronisch zu einer
1,2 mm Schicht zusammengefasst, zusammen mit den vier äußeren 1,2-mm-Schichten
auf beiden Seiten erhält man somit 16 Schichten mit 1,2 mm Schichtdicke (󳶳Abb. 3.6).
Die 16-Schicht-Detektoren anderer Hersteller folgen ähnlichen Konstruktionsprinzipi-
en, sie liefern z. B. wahlweise 16 × 0,625 mm Schichten oder 8 × 1,25 mm Schichten.
3 Computertomographie | 75

Fokus der Röntgenröhre

röhrenseitiger Kollimator

Patientenlängsachse

Mess-
feld 16×0,6 mm

Mehrzeilen-Detektor

16×1,2 mm

Abb. 3.6: Schichtdickeneinstellung bei Mehrzeilen-Detektoren. Gezeigt ist ein Detektor mit 24 Zei-
len, der wahlweise je 16 0,6-mm-Schichten oder 16 1,2-mm-Schichten auslesen kann.

Andere gängige Mehrschichtdetektoren bestehen aus 64 Detektorzeilen, mit


– je nach Hersteller – 0,5 mm, 0,6 mm oder 0,625 mm kollimierter Schichtdicke.
Auch hier lassen sich dickere Schichten durch elektronische Addition der Signale
von je zwei Detektorzeilen akquirieren. Dies ergibt dann 32 1,0-mm-, 1,2-mm- oder
1,25-mm-Schichten. Ein CT-Gerät besitzt einen Detektor mit 128 kollimierten 0,625-
mm-Schichten (Gesamtbreite 8 cm); der momentan breiteste in einem kommerziell
erhältlichen CT-Gerät eingesetzte Detektor erlaubt die Kollimierung von 320 0,5-mm-
Schichten.
Wenn die Anzahl der Zeilen dieser Detektoren so groß wird, dass die Neigung der
zu rekonstruierenden Schicht nicht mehr zu vernachlässigen ist, sind größere An-
strengungen in der Rekonstruktionsmathematik erforderlich. Diese Anstrengungen
werden aber mit einer verbesserten Bildqualität belohnt.

Festkörper-Flat-Panel-Detektoren
Werden die Anzahl von Detektorzeilen und die Ausdehnung eines Detektors in Patien-
tenlängsrichtung so groß, dass man gesamte Organe wie das Herz, die Nieren oder das
Gehirn in einer einzigen Aufnahme mit einer Umdrehung des Messsystems untersu-
76 | Thorsten M. Buzug, Thomas Flohr

chen kann, ergeben sich qualitativ neue klinische Anwendungen. Heutzutage besitzt
das kommerziell verfügbare CT-Gerät Toshiba Aquilion One einen Detektor mit 16 cm
Abdeckung in Patientenlängsrichtung (auf das Drehzentrum bezogen), der diese An-
forderungen erfüllt.

Flat-Panel-Detektor: Flächendetektor für Röntgenstrahlen.

Daneben gibt es auch die Möglichkeit, mit sogenannten Flächendetektoren oder


Flat-Panel-Detektoren CT-Bilder aufzunehmen (s. auch 󳶳Kap. 2.5.4, Projektionsrönt-
gen, Halbleiter-Flachdetektoren). Sie werden insbesondere in C-Arm-Anlagen und
Angiographiegeräten eingesetzt, um zusätzlich zu Durchleuchtungsaufnahmen auch
Schichtbilder des Untersuchungsgebietes erhalten zu können. Vereinzelt wurden
Prototypen von CT-Scannern mit Flat-Panel-Detektoren gebaut, die speziellen For-
schungszwecken dienten.
Das Kernstück eines Flat-Panel-Detektors besteht aus einem Glassubstrat, auf
dem eine Matrix aus zum Beispiel 2048 × 2048 Sensoren mit einer Größe von je
200 μm aufgebracht ist [Brunst 2002]. Dies geschieht in Dünnfilmbeschichtungs-
technik monolithisch, so dass kein Aneinanderstückeln mehrerer kleinerer Panels
erforderlich ist. In Kombination mit der Photolithographie sowie weiterer Ätzschritte
ist diese Technik der übliche physikalisch-chemische Weg, der in der Mikroelektronik
beschritten wird, um sehr feine Strukturen herzustellen. Jedes einzelne Sensorele-
ment besteht aus einer Photodiode aus amorphem Silizium und einem Dünnfilmtran-
sistor (TFT). Auf die entstehende Pixelmatrix ist eine röntgenempfindliche Szintilla-
tionsschicht aus Cäsiumjodid (CsI) aufgebracht. Das einfallende Röntgenlicht wird
zunächst vom CsI-Szintillator in Licht umgewandelt, das zu den darunter liegenden
Photodioden weitergeleitet wird. Die Photonen werden in den Photodioden absor-
biert und erzeugen dort eine elektrische Ladung, die proportional zur Intensität der
Röntgenstrahlung ist. Während der Belichtung wird die Ladung in der Photodiode
integriert und gespeichert. Der eigentliche Auslesevorgang wird durch den Dünn-
filmtransistor gestartet, der die Ladung über die Datenleitung zur Ausleseelektronik
schaltet. Dort finden eine Verstärkung und die Analog-Digital-Wandlung statt.
Flat-Panel-Detektoren besitzen eine über weite Belichtungsbereiche lineare Dy-
namikkennlinie. Leider ist der Dynamikumfang deutlich kleiner als bei den in den
vorangegangenen Abschnitten besprochenen dedizierten CT-Detektoren. Im Bereich
der Niedrigkontrastauflösung erreichen Flat-Panel-Detektoren deshalb noch nicht
deren Leistungsfähigkeit, was insbesondere bei der Darstellung kleiner Dichteunter-
schiede wie z. B. im Gehirn zu klinisch nicht voll befriedigenden Ergebnissen führt.
Zudem erfolgt die Auslesung der Detektoren so langsam, mit einer Rate von
30. . . 100 Projektionen pro Sekunde, dass die Rotationszeit für die Aufnahme einer
ausreichenden Projektionszahl immer mehrere Sekunden beträgt. Die schnellen Rota-
tionszeiten moderner Subsekunden CT-Scanner lassen sich mit Flat-Panel-Detektoren
aus diesem Grund nicht erreichen.
3 Computertomographie | 77

Flat-Panel-Detektoren zeichnen sich allerdings durch eine exzellente Ortsauflö-


sung aus, die durch die kleine Pixelgröße bedingt ist. Um die Ortsauflösung zu opti-
mieren, wird das Cäsiumjodid in einem speziellen Aufdampfprozess so auf die Matrix
aufgebracht, dass es in direkten Kontakt mit der darunterliegenden Photodiodenma-
trix kommt. Dabei gelingt es, das Cäsiumjodid in Form feiner Nadeln zu strukturie-
ren. Werden innerhalb dieser Struktur durch einfallende Röntgenquanten Photonen
freigesetzt, dann wirken die Nadeln wie kleine Lichtfasern, so dass sich die Photonen
überwiegend entlang dieser Strukturen bewegen. Dieser Lichtleiteffekt ist ein Grund
für die relativ hohe Quanteneffizienz der digitalen Detektoren. Man kann nämlich
so die röntgensensitive Schicht des Detektors sehr dick aufdampfen, ohne dass durch
breitere Streuung die Ortsauflösung beeinträchtigt wird. Das Szintillationslicht bleibt
durch die CsI-Fasern auf einen sehr kleinen Fleck auf der Photodiodenmatrix gebün-
delt.

3.4 Bildrekonstruktion
Das zentrale Problem der Computertomographie ist leicht formuliert: Man rekonstru-
iere das Bild eines Objektes aus den Projektionen, also aus allen möglichen Linienin-
tegralen durch dieses Objekt. Mathematisch handelt es sich bei der Computertomo-
graphie um ein sogenanntes inverses Problem. Die Bedeutung des mathematischen
Begriffes des inversen Problems erschließt sich sofort: Man hat keinen direkten Ein-
blick in die räumliche Verteilung der Objekte, die man darstellen möchte. Stattdes-
sen werden nur die Projektionen der Objekte aus allen Raumrichtungen über einen
Winkelbereich von mindestens 180° gemessen, aus denen man nun – gewissermaßen
rückwärts – die räumliche Verteilung der Objekte berechnen muss. Es handelt sich
hierbei um die Inversion von Integraltransformationen. Aus einer Sequenz von ge-
messenen Projektionen {p𝛾1 (𝜉), p𝛾2 (𝜉), p𝛾3 (𝜉), . . .} muss also die räumliche Verteilung
der Schwächungskoeffizienten μ(𝜉, 𝜂) innerhalb einer gewählten Schicht durch den
Körper errechnet werden.

3.4.1 Fourier-Scheiben-Theorem

Abhängig vom Weg 𝜂, den die Röntgenstrahlen durch den Körper nehmen, wird deren
Intensität nach dem Lambert-Beerschen Gesetz exponentiell geschwächt. Die vom
Detektorelement 𝜉 registrierte Intensität I𝛾 (𝜉) bezogen auf die Nullintensität ohne Pa-
tient wird logarithmiert, das ergibt als eigentlichen Messwert das Linienintegral p𝛾 (𝜉)
der Schwächungen entlang des Röntgenstrahls aus der Richtung 𝛾. Dabei gilt der Zu-
sammenhang
+∞

p𝛾 (𝜉) = ∫ 𝜇(𝜉, 𝜂)d𝜂 . (3.1)


−∞
78 | Thorsten M. Buzug, Thomas Flohr

y ξ
f(x,y)

pγ(ξ)

Radon-
x Transformation 0° 180° γ

ξ
pγ(ξ)
)

γ
p

Abb. 3.7: Linienintegrale durch den Ortsraum, Projektionen und Darstellung im Radon-Raum bzw.
Sinogramm.

Der Ausdruck p𝛾 (𝜉) stellt eine Integration entlang des Weges dar, der durch die Po-
sition 𝜉 der Röntgenquelle bzw. des Röntgendetektors und des jeweils eingestellten
Projektionswinkels 𝛾 vorgegeben ist. Die Richtung des linearen Detektors sei durch
den Vektor
cos(𝛾)
n𝜉 = ( ) (3.2)
sin(𝛾)
und die Richtung des Röntgenstrahls durch den Vektor

− sin(𝛾)
n𝜂 = ( ) (3.3)
cos(𝛾)

gegeben. Sie stellen Einheitsvektoren dar, die die rotierende (𝜉, 𝜂)-Ebene der CT-
Gantry aufspannen. Um ein Bild des Körperinneren zu berechnen, ist es erforderlich,
dass jeder Punkt des Messfeldes aus allen Richtungen 𝛾, also über mindestens 180°,
durchleuchtet wurde. Durch die kreisförmige Bewegung von Röntgenröhre und Detek-
toreinheit lägen die Messwerte für ein einzelnes, punktförmiges Objekt im Messfeld in
dieser Datenrepräsentation auf einer sinusförmigen Kurve, daher wird das Diagramm
auch Sinogramm genannt. Für einen Patienten überlagern sich viele sinusförmige
Strukturen im Sinogramm. Das Sinogramm ist eine Repräsentation der Rohdaten des
Abtastprozesses. Mathematisch handelt es sich um den sogenannten Radon-Raum
(󳶳Abb. 3.7), benannt nach dem böhmischen Mathematiker Johann Radon [Radon
1917]. 󳶳Gleichung (3.1) stellt die 󳶳Radon-Transformation dar.
Das zentrale mathematische Hilfsmittel zur Bildrekonstruktion aus den Projek-
tionen ist das Fourier-Schichten- oder 󳶳Fourier-Scheiben-Theorem (engl.: Fouri-
er-Slice- oder Projection-Slice-Theorem ). Dieses Theorem stellt einen Zusammenhang
zwischen den Fouriertransformierten des Radon-Raums und denen des zu rekonstru-
3 Computertomographie | 79

ierenden Bildes her. Es besagt nämlich, dass man die eindimensionale Fouriertrans-
formierte P𝛾 (q) (mit q als der zu 𝜉 gehörenden Ortsfrequenz) des gemessenen Projekti-
onsprofils p𝛾 (𝜉) in der zweidimensionalen Fouriertransformierten F(u, v) des gesuch-
ten Bildes f (x, y) unter dem Winkel 𝛾 findet, unter dem das Profil gemessen wurde.
Dabei gilt, dass u = q cos(𝛾) und v = q sin(𝛾). Dies kann wie folgt leicht eingesehen
werden. Die Fouriertransformierte der Radon-Transformation ergibt sich mit
∞ ∞ ∞ ∞ ∞
−2𝜋iq𝜉 { }
P𝛾 (q) = ∫ p𝛾 (𝜉)e d𝜉 = ∫ { ∫ 𝜇(𝜉, 𝜂)d𝜂} e−2𝜋iq𝜉 d𝜉 = ∫ ∫ 𝜇(𝜉, 𝜂)e−2𝜋iq𝜉 d𝜉d𝜂
−∞ −∞ {−∞ } −∞ −∞
(3.4)
Nutzt man den geometrischen Zusammenhang 𝜉 = (r ⋅ n𝜉 ) = x cos(𝛾) + y sin(𝛾) zwi-
schen den Punkten auf dem Röntgenstrahl r = (x, y) im ruhenden Patientenkoordi-
natensystem und dem rotierenden Koordinatensystem der Gantry (𝜉, 𝜂) aus, so ergibt
sich weiter
∞ ∞ ∞ ∞

P𝛾 (q) = ∫ ∫ 𝜇(𝜉(x, y), 𝜂(x, y))e−2𝜋iq(r⋅n𝜉 ) dxdy = ∫ ∫ f (x, y)e−2𝜋iq(r⋅n𝜉 ) dxdy


−∞ −∞ −∞ −∞
∞ ∞ ∞ ∞

= ∫ ∫ f (x, y)e−2𝜋i(xq cos(𝛾)+yq sin(𝛾)) dxdy = ∫ ∫ f (x, y)e−2𝜋i(xu+yv) dxdy = F(u, v)


−∞ −∞ −∞ −∞
(3.5)

Damit ist gezeigt, dass F(u, v) = P (q). Würde man den Fourier-Raum F(u, v) über alle
gemessenen Winkel 𝛾 auf diese Weise füllen, so könnte man mit einer zweidimensio-
nalen inversen Fourier-Transformation das gesuchte Bild erhalten. Diese sogenannte
direkte Rekonstruktion wird heute allerdings aus Gründen des Rechenaufwands und
weil sie sich schwer auf Mehrzeilen-Geometrien übertragen lässt, nicht verwendet.

3.4.2 Gefilterte Rückprojektion

In praktisch allen CT-Scannern ist derzeit die gefilterte Rückprojektion implemen-


tiert. Im Rahmen dieses Verfahrens wird das Sinogramm zunächst einer Hochpassfil-
terung unterworfen. Dies geschieht im Frequenzraum durch lineare Gewichtung von
P𝛾 (q) mit |q|. Im Ortsraum ist die entsprechende mathematische Operation eine Fal-
tung mit einem Hochpass-Faltungskern. Das hochpassgefilterte Projektionsprofil h𝛾 (𝜉)
wird in einem zweiten Schritt nun über das zu berechnende Bildfeld zurückprojiziert,
und zwar in die Richtung 𝛾, aus der das Projektionsprofil p𝛾 (𝜉) ursprünglich auch ge-
messen wurde. Der Wert jedes Bildpixels entlang eines Strahls im Projektionsprofil
wird bei dieser Operation um den Wert der gefilterten Projektion erhöht (󳶳Abb. 3.8).
80 | Thorsten M. Buzug, Thomas Flohr

ξ
)

f(x,y)
γ
h

Abb. 3.8: Gefilterte Rückprojektion.

Bei einer großen Anzahl von Projektionsmessungen kann auf diese Weise das Bild
rekonstruiert werden, da sich die durch die Hochpassfilterung der einzelnen Projek-
tionen im Projektionsprofil erzeugten Unter- und Überschwinger gerade so überla-
gern, dass sie sich kompensieren. Mathematisch lässt sich diese spezielle Filterung
wie folgt verstehen:
Das Ziel der gefilterten Rückprojektion ist es, f (x, y) direkt aus den Projektionen zu
gewinnen. Hierzu muss man sich ansehen, wie die inverse Fourier-Transformation
von F(u, v)
∞ ∞

f (x, y) = ∫ ∫ F(u, v)e2𝜋i(xu+yv) dudv (3.6)


−∞ −∞

in Polarkoordinaten aussieht. Hierzu substituiert man u = q cos(𝛾) und v = q sin(𝛾).


Bei korrekter Verwendung des neuen Flächenelementes in Polarkoordinaten ergibt
sich für die inverse Fourier-Transformation dann zu
2𝜋 +∞

f (x, y) = ∫ ∫ F(q cos(𝛾), q sin(𝛾))e2𝜋iq(x cos(𝛾)+y sin(𝛾)) q dq d𝛾 . (3.7)


0 0

Das äußere Integral in 󳶳Gl. (3.7) lässt sich in zwei Teile aufspalten, wenn man die
Projektionen unter den Winkeln 𝛾 = [0, 𝜋) und 𝛾 = [𝜋, 2𝜋) separat behandelt. Damit
3 Computertomographie | 81

erhält man dann


𝜋 +∞

f (x, y) = ∫ ∫ F(q, 𝛾)e2𝜋iq(x cos(𝛾)+y sin(𝛾)) qdqd𝛾


0 0
2𝜋 +∞

+ ∫ ∫ F(q, 𝛾)e2𝜋iq(x cos(𝛾)+y sin(𝛾)) qdqd𝛾


𝜋 0
𝜋 +∞

= ∫ ∫ F(q, 𝛾)e2𝜋iq(x cos(𝛾)+y sin(𝛾)) qdqd𝛾


0 0
𝜋 +∞

+ ∫ ∫ F(q, 𝛾 + 𝜋)e2𝜋iq(x cos(𝛾+𝜋)+y sin(𝛾+𝜋)) qdqd𝛾 (3.8)


0 0

Aufgrund der Symmetrieeigenschaften der Fourier-Transformation bei reellen Orts-


daten gilt F(q, 𝛾 + 𝜋) = F(−q, 𝛾) = F(q, 𝛾), so dass man insgesamt schreiben kann
𝜋 +∞

f (x, y) = ∫ ∫ F(q, 𝛾)e2𝜋iq(x cos(𝛾)+y sin(𝛾)) |q| dqd𝛾 (3.9)


0 −∞

Mit dem Fourier-Slice-Theorem (󳶳Gl. (3.5) gilt nun weiter, dass F(q cos(𝛾),
q sin(𝛾)) = P𝛾 (q). Daher kann man folgenden Zusammenhang berechnen, in dem
man 𝜉 = x cos(𝛾) + y sin(𝛾) in den Exponenten der 󳶳Gl. (3.9) einsetzt. Es ergibt sich
𝜋 +∞

f (x, y) = ∫ ∫ P𝛾 (q)e2𝜋iq𝜉 |q| dqd𝛾 (3.10)


0 −∞

Für das Integral über q in 󳶳Gl. (3.10) schreibt man kurz


𝜋 +∞ 𝜋
{ }
f (x, y) = ∫ { ∫ P𝛾 (q) |q| e2𝜋iq𝜉 dq }d𝛾 = ∫ h𝛾 (𝜉)d𝛾 (3.11)
0 {−∞ } 0

Für einen festen Punkt r = (x, y) und einen festen Projektionswinkel 𝛾 ist 𝜉 die Projek-
tionskoordinate des Punktes r. Eine wichtige neue Größe ist nun
+∞

h𝛾 (𝜉) = ∫ P𝛾 (q) |q| e2𝜋iq𝜉 dq (3.12)


−∞

h𝛾 (𝜉) ist die eingangs schon erwähnte Hochpassfilterung der Projektion p𝛾 (𝜉), die
durch eine Multiplikation im Frequenzraum zustande kommt.
Wenn man das Scanprotokoll am CT vorbereitet, muss man immer einen Filter,
auch Faltungskern genannt, auswählen. Dieser Filter bezieht sich auf die Art der
oben beschriebenen Hochpassfilterung. Die lineare Gewichtung von P𝛾 (q) mit |q| ist
82 | Thorsten M. Buzug, Thomas Flohr

0,25 0,25
0,20 0,20
0,15 0,15
0,10 0,10
a2hSL(s)

a2hRL(s)
0,05 0,05
0,00 0,00
–0,05 –0,05
–0,10 –0,10
–0,15 –0,15
–4 –3 –2 –1 0 1 2 3 4 –4 –3 –2 –1 0 1 2 3 4
S/a S/a
a = Detektorabstand
0,5 0,5
HSL(w)

HRL(w)
0 0
–0,5 0 0,5 –0,5 0 0,5
wa wa

Abb. 3.9: Faltungskerne nach Shepp und Logan (SL) und nach Ramachandran und Lashminaray-
anan (RL) im Orts- und im Frequenzraum.

der mathematisch ideale Filter, er ist aber für praktische CT-Anwendungen wenig ge-
eignet, weil er hohe Frequenzen sehr stark betont und damit die Bildschärfe erhöht,
aber auch zu sehr starkem Bildrauschen führt. In der Praxis ist es oft empfehlens-
wert, die Gewichtung im Frequenzraum weniger aggressiv zu wählen und auf den
idealen Filter |q| einen Tiefpass T(|q|) anzuwenden – dadurch reduzieren sich die Bild-
schärfe, aber auch das Bildrauschen. Der Anwender kann an der Bedienkonsole eine
Vielzahl von Filtertypen von „sehr weich“ bis „sehr scharf“ auswählen, die an die je-
weils zu untersuchende Anatomie angepasst sind. Die Wahl eines Filters ist immer ein
Kompromiss zwischen hoher räumlicher Auflösung, die mit stärkerem Bildrauschen
einhergeht, und einem glatteren Bild mit weniger Bildrauschen und geringerer räum-
licher Auflösung. Eine Standardisierung dieser Filter, die gelegentlich mit Faltungs-
kern, Rekonstruktionsalgorithmus, Rekonstruktionsfilter oder Filterkernel bezeichnet
werden, gibt es nicht. 󳶳Abb. 3.9 zeigt zwei Beispiele für oft verwendete Faltungskerne.

3.4.3 Rohdateninterpolation bei der Spiral-CT

Einen ersten Schritt zu einer echten CT-Volumenaufnahme stellt das sogenannte


Spiralverfahren (s. 󳶳Kap. 3.2.2) dar, das Kalender 1989 auf der jährlich stattfinden-
den Konferenz der RSNA (Radiological Society of North America) zum ersten Mal
3 Computertomographie | 83

präsentierte [Kalender 1989]. Die Unzulänglichkeiten der Aufnahme und Aneinan-


derreihung einzelner Schichtbilder zur Abdeckung eines Untersuchungsvolumens
sind leicht zu sehen. Jedes Schichtbild hat aufgrund der Kollimierung eine gewis-
se Breite, die Schichtdicke. Innerhalb der Schichtdicke wird über die Intensität der
Röntgenstrahlen gewichtet mit dem Empfindlichkeitsprofil gemittelt. Diese Mitte-
lung ist immer dann ein Problem, wenn sich das Objekt durch schräg zur axialen
Schicht verlaufende Kanten auszeichnet, also die abzubildende Struktur sich in der
Vorschubrichtung des Patiententisches schnell ändert. Dann führt die Mittelung zu
einer Stufigkeit des Schichtenstapels, die der abzubildenden Struktur ein treppen-
förmiges Erscheinungsbild gibt. Außerdem verlängert sich die Untersuchungszeit für
die Aufnahme größerer anatomischer Bereiche durch das ständige Abbremsen und
Wiederbeschleunigen des Patiententisches, und es besteht die Gefahr der Fehl- oder
Doppelregistrung von anatomischen Details in den einzelnen Schichtbildern, etwa
wenn der Patient sich zwischen der Aufnahme von zwei axialen Bildern willkürlich
oder unwillkürlich bewegt.
Mit der Entwicklung der Schleifringtechnologie, die in 󳶳Kapitel 3.3 schon kurz
beschrieben ist, wurde es möglich, das Abtastsystem, also die Röhren-Detektorarray-
Anordnung, kontinuierlich drehen zu lassen. Wird der Patiententisch während die-
ser Drehung ebenfalls kontinuierlich vorgeschoben, dann umläuft die Röntgenquel-
le den Patienten auf einer besonderen Spiralbahn, einer Helix. In dieser Überlegung
geht man von einem Koordinatensystem aus, das sich mit dem Patiententisch bewegt,
denn natürlich läuft die Röntgenquelle weiterhin auf einer Kreisbahn. Nur aus Sicht
des Patienten ergibt sich die Spiralbahn. Damit ist eine lückenlose Erfassung des zu
untersuchenden Objektes möglich, wobei im Vergleich zur konventionellen Tomogra-
phie die Aufnahmezeit für ein Volumen entscheidend verkürzt werden kann und Fehl-
oder Doppelregistrierung anatomischer Details vermieden werden.
Es ist zunächst überraschend, dass die Spiral-Computertomographie über-
haupt funktioniert. Voraussetzung für die Rekonstruktionsverfahren ist die Vollstän-
digkeit der Daten in einer Ebene. Ein Objekt im Messfeld kann nur dann fehlerfrei
rekonstruiert werden, wenn alle Punkte des Objektes aus allen Richtungen – also
über einen Winkelbereich von 180° – durchstrahlt wurden. Nur dann passen die der
Rekonstruktion zugrunde liegenden Projektionsdaten aus unterschiedlichen Rich-
tungen zusammen. Bei der Spiral-CT bewegen sich die zu rekonstruierenden Objekte
aufgrund des kontinuierlichen Patiententischvorschubs aber aus der Bildebene her-
aus und es liegen keine vollständigen Daten zur Rekonstruktion mehr vor. Die zentrale
Idee der Rekonstruktion beim Spiralverfahren ist nun, dass die fehlenden Daten einer
Schicht durch Interpolation ergänzt werden. Man kann so eine beliebige Schichtlage
wählen, denn wegen des gleichmäßigen Tischvorschubes ist aus Sicht der Datenla-
ge keine axiale Position bevorzugt. Für die gewählte Schicht gibt es zunächst nur
einen einzigen Winkel 𝛾r , für den der Projektionsdatensatz p𝛾r (𝜉) vorliegt. Die Pro-
jektionsdaten p𝛾 (𝜉) aller anderen Winkel müssen entsprechend interpoliert werden.
Dabei geht man so vor, dass man die Daten, die unter den anderen benötigten Pro-
84 | Thorsten M. Buzug, Thomas Flohr

z z

d d/2
z₁ z z₂ z₁ z z₂

Abb. 3.10: Interpolation bei der Spiral-CT, links: 360° Interpolation, rechts: 180° Interpolation.

jektionswinkeln innerhalb der gewählten Schichtposition nicht gemessen wurden,


aus den jeweils nächstliegend benachbarten, bei den entsprechenden Projektions-
winkeln tatsächlich gemessenen Daten der Helixbahn interpoliert (󳶳Abb. 3.10). Die
Steighöhe der Helix, bezogen auf die eingestellte kollimierte Schichtdicke, definiert
den sogenannten Pitch. Neben der 360° -Spiralinterpolation wird bevorzugt die 180°
-Spiralinterpolation eingesetzt: Diese macht sich zunutze, dass für jeden unter einem
Projektionswinkel 𝛾 gemessenen Strahl ein Interpolationspartner nicht erst nach
einer vollen Rotation des Messsystems zur Verfügung steht, sondern schon nach etwa
einer halben Rotation, wenn Detektor und Röntgenröhre ihre Positionen vertauscht
haben. Durch Verwendung dieser sogenannten „komplementären Strahlen“ verrin-
gert sich der Abstand der Interpolationspartner und die Interpolation verbessert sich.

Pitch (dt. Abstand, Anstellwinkel): Tischvorschub pro Umdrehung des Abtastsystems bei der Com-
putertomographie, normiert auf die kollimierte Detektorbreite.

Als Folge der Spiralinterpolation entsteht aus der trapezförmigen kollimierten Schicht
ein glockenförmiges Schichtempfindlichkeitsprofil. Dessen Halbwertsbreite wird als
effektive Schichtdicke bezeichnet Die effektive Schichtdicke wird mit zunehmendem
Pitch größer, dadurch nimmt die räumliche Auflösung in Patientenlängsrichtung ab.
Die Zunahme der effektiven Schichtdicke ist für die 180°-Spiralinterpolation deutlich
geringer als für das 360°-Verfahren (󳶳Abb. 3.11).
Außerdem entstehen mit höherem Pitch durch Interpolation hervorgerufene Spi-
ralartefakte an Kontrastsprüngen, z. B. Knochenkanten. CT-Untersuchungen, die
besonders hohe Bildqualität erfordern, werden deshalb häufig mit kleinem Pitch
durchgeführt. Wenn der Röhrenstrom (der mAs-Wert) unverändert bleibt, ist das
Bildrauschen unabhängig vom Pitch, und die Strahlendosis nimmt mit zunehmen-
dem Pitch ab. In der Spiral-CT gilt deshalb die Regel, dass die Strahlendosis für den
Patienten durch Erhöhung des Pitches verringert werden kann.
3 Computertomographie | 85

Pitch 1, 180° LI
1

0,8

effektive Schichtdicke (Halbwertsbreite 0,6


FWHM des Schichtempfindlichkeitsprofils)
0,4

3 FWHM = 1,0
FWHM/kollimierte Schichtdicke

0,2
360° LI
2,5 0
–1,5 –1 –0,5 0 0,5 1 1,5

2 Pitch 2, 180° LI
1

1,5 0,8
180° LI
0,6
1
0,4
1 1,5 2 2,5 3
FWHM = 1,27
Pitch 0,2

0
–1,5 –1 –0,5 0 0,5 1 1,5
auf kollimierte Schichtdicke
normierte z-Achse

Abb. 3.11: Zunahme der effektiven Schichtdicke als Funktion des Pitchfaktors für die 180°- und 360°
-Spiralinterpolation.

3.4.4 Mehrschicht-Spiral-CT

Seit der breiten Einführung der Mehrzeilen-CT in die klinische Praxis wird die konven-
tionelle Aufnahme einzelner axialer Schichten nur noch bei speziellen Untersuchun-
gen eingesetzt, z. B. bei Schädelaufnahmen oder interventionellen Anwendungen. Der
weitaus größte Teil aller CT-Protokolle sieht die Erfassung von Mehrzeilen-Spiraldaten
vor.
In den letzten zehn Jahren wurden Verfahren zur Mehrschicht-Spiralrekonstruk-
tion entwickelt, die sowohl die komplizierten Abtastmuster der Messstrahlen entlang
der z-Achse als auch gegebenenfalls den Neigungswinkel der Messstrahlen gegen
eine senkrecht auf der z-Achse stehende Ebene berücksichtigen. Dieser sogenann-
te „Kegelwinkel“ kann – wie die Erfahrung zeigt – für CT-Geräte bis etwa sechs
Zeilen vernachlässigt werden, und die Messstrahlen können so behandelt werden,
als stünden sie senkrecht auf der z-Achse. Für CT-Geräte mit mehr Detektorzeilen
– und das ist der Großteil aller heute im klinischen Einsatz befindlichen CTs – muss
86 | Thorsten M. Buzug, Thomas Flohr

dieser jedoch bei der Rekonstruktion berücksichtigt werden, andernfalls ist mit einer
Beeinträchtigung der Bildqualität durch gravierende Kegelstrahlartefakte zu rechnen.
Wie in der Einzeilen-Spiral-CT müssen auch in der Mehrzeilen-Spiral-CT zur Re-
konstruktion eines Bildes Projektionen in der gewünschten Bildebene durch Interpo-
lation zwischen den vor und hinter der Bildebene aufgenommenen Messwerten er-
zeugt werden. Erste Ansätze zur Mehrzeilen-Spiralinterpolation waren Erweiterungen
der aus der Einzeilen-Spiral-CT bekannten 360°- und 180°-Interpolationsverfahren:
Die Spiralinterpolation erfolgte für jeden Projektionswinkel jeweils zwischen den bei-
den nächsten vor und hinter der Bildebene befindlichen Strahlen, auch wenn diese
z. B. von verschiedenen Detektorzeilen stammen konnten. Inzwischen werden meist
neuartige Interpolationsverfahren verwendet, wie die sogenannte z-Filterung, bei der
alle Strahlen innerhalb eines vorgebbaren Abstandes von der Bildebene gewichtet
zum Bild beitragen. Die Gewichtsfunktion ist frei wählbar, dadurch lassen sich Form
und Breite des Schichtempfindlichkeitsprofils einstellen. Bei manchen Mehrzeilen-
CT-Geräten wird die Gewichtsfunktion pitchabhängig so eingestellt, dass die effek-
tive Schichtdicke unabhängig vom Pitch konstant bleibt. Damit ist auch die räumli-
che Auflösung in Patientenlängsrichtung unabhängig vom Pitch immer gleich. Um
bei dieser Technik ein pitchunabhängiges Bildrauschen zu erhalten, muss der Röh-
renstrom (mAs-Wert) mit zunehmendem Pitch vergrößert werden. Dies geschieht bei
den genannten CT-Geräten automatisch. Als Konsequenz daraus nimmt allerdings die
Strahlendosis – anders als bei der Einzeilen-Spiral-CT – mit zunehmendem Pitch nicht
ab, sondern sie bleibt konstant. Die aus der Einzeilen-Spiral-CT bekannte Regel, zur
Verringerung der Dosis den Pitch zu erhöhen, lässt sich hier nicht anwenden.
Die Rekonstruktionsschichtdicke der Bilder nach der Aufnahme der Spiraldaten
ist bei den meisten Mehrzeilen-CT-Geräten in weiten Bereichen wählbar, sie kann nur
nicht kleiner als die kollimierte Schichtdicke sein. Bei vielen klinischen Anwendun-
gen ist die Untersuchung mit enger Kollimierung die Methode der Wahl, unabhän-
gig von der bei der nachfolgenden Bildrekonstruktion eingestellten Schichtdicke. Die
in der CT historisch übliche Unterscheidung zwischen der räumlichen Auflösung in
der Schichtebene und der räumlichen Auflösung senkrecht dazu, der transversalen
Auflösung, verliert mit der breiten Verfügbarkeit der Mehrzeilen-CT allmählich an Be-
deutung. Mit modernen 64-Zeilen-CT-Geräten können Daten mit isotroper Submilli-
meter-Auflösung aufgenommen werden. Isotrop bedeutet, dass die Auflösung in al-
len drei Raumrichtungen gleich ist. Die traditionelle Befundung axialer Schichten am
Monitor oder auf Film wird heute in zunehmendem Maße durch die interaktive Be-
fundung isotroper Volumendatensätze mit geneigten multiplanaren Reformatierun-
gen (MPRs) ersetzt. Oft werden aus dem gleichen Rohdatensatz Bildstapel mit ver-
schiedenen Schichtdicken rekonstruiert – dicke Schichten für einen ersten Überblick
und für die Archivierung im PACS und dünne Schichten für die dreidimensionale Bild-
nachverarbeitung.
3 Computertomographie | 87

3.5 Artefakte
Artefakte sind Bildfehler, die durch die Art der Rekonstruktion – das ist heute in der
Praxis die gefilterte Rückprojektion – oder durch den Einsatz spezieller Technologien
oder Anordnungen bei der Messwerterfassung entstehen. Die Kenntnis der Ursachen
von Artefakten ist die Voraussetzung für geeignete Gegenmaßnahmen. Diese Gegen-
maßnahmen sind umso wichtiger, da es in der Natur der gefilterten Rückprojektion
liegt, Artefakte über das gesamte Bild zu verteilen und so den diagnostischen Wert
des gesamten Bildes zu reduzieren. An dieser Stelle soll nur eine kurze Übersicht über
potentiell auftretende Artefakte gegeben werden. Eine ausführliche Diskussion ist in
[Buzug 2008] zu finden.

3.5.1 Teil- oder Partialvolumenartefakte

Durch die endliche Breite eines Detektorelements und die endliche Breite des Röhren-
fokus werden Intensitätswerte über einen Raumwinkelbereich gemittelt. Insbesonde-
re bei der Messung von Objektkanten kommt es dadurch zu Inkonsistenzen der Projek-
tionsprofile zwischen den einzelnen Winkeln. Als Konsequenz funktioniert die emp-
findliche Kompensation der Rückprojektion nicht mehr. Neben einer verschmierten
Darstellung von Objekten werden Objektkanten über das Objekt hinaus verlängert,
was sich in Form von Strichartefakten manifestiert. Diese Artefakte lassen sich nur
durch ein feineres Detektorarray und durch dünnere Schichten verringern. Insbeson-
dere der routinemäßige Einsatz von Submillimeter-Schichten in der Mehrzeilen-CT
hat das Problem dieser Partialvolumenartefakte stark reduziert.

3.5.2 Aufhärtungsartefakte

Die inhärente Annahme der gefilterten Rückprojektion ist die Verwendung mono-
chromatischer Röntgenstrahlung. Röntgenröhren (s. 󳶳Kap. 2.2.1) erzeugen jedoch
polychromatisches Röntgenlicht. Da die Schwächungskoeffizienten der Materie
wellenlängenabhängig sind, misst man bei niederenergetischer Strahlung andere
Schwächungswerte als bei hochenergetischer Strahlung. Die Röntgenabsorption ist
bei niedrigen Energien höher, deshalb werden bevorzugt niederenergetische Rönt-
genquanten absorbiert und ein Röntgenstrahl wird, nachdem er einen längeren Weg
durch Materie zurückgelegt hat, immer hochenergetischer – man spricht deshalb von
„Aufhärtung“. Wird nun ein Objektpunkt aus verschiedenen Richtungen von Strahlen
getroffen, die verschieden lange Wege im Objekt zurückgelegt haben und deshalb ver-
schiedene mittlere Energien aufweisen, passen die gemessenen lokalen Röntgenab-
sorptionskoeffizienten nicht mehr zusammen – es entstehen Aufhärtungsartefakte.
88 | Thorsten M. Buzug, Thomas Flohr

In allen medizinischen CT-Geräten ist eine Aufhärtungskorrektur implementiert,


die Aufhärtungsartefakte für wasserähnliche Objekte verschiedener Größe kompen-
sieren kann. Meistens ist diese Aufhärtungskorrektur eine Polynomfunktion des
Messsignals. Enthält das Untersuchungsobjekt aber zusätzlich deutlich von den
Schwächungseigenschaften von Wasser abweichende Substanzen, z. B. Knochen,
lassen sich Aufhärtungsartefakte nicht auf einfache Weise korrigieren. Hier sind in
modernen CT-Geräten oft iterative Aufhärtungskorrekturen verfügbar, die z. B. den
Knochen- und Weichgewebeanteil in jedem einzelnen Messstrahl abschätzen und
damit Aufhärtungsartefakte im Bild in mehreren Korrekturschritten abschwächen.

3.5.3 Metallartefakte

Metalle in Form von Zahnfüllungen, wie Amalgam oder Gold, sowie Hüftprothesen
oder chirurgische Schrauben und Clips führen zu sehr starken Aufhärtungsartefakten.
Hinzu kommen ein niedriges Signal-Rausch-Verhältnis im Bereich des Metallschat-
tens sowie ein erhöhtes Verhältnis von Streustrahlung zu Primärstrahlung.
Im rekonstruierten Bild führt dies häufig zu dunklen Streifen zwischen den Metall-
objekten und zu sternförmigen, von den Objekten ausgehenden Streifen, die das um-
liegende Gewebe überlagern und hierdurch die diagnostische Beurteilung erschwe-
ren. Im Extremfall ist die Absorption der Röntgenphotonen durch das Metall so groß,
dass Messstrahlen quasi ausgelöscht werden (sogenannte photon starvation). Es wur-
den Korrektur-Algorithmen vorgeschlagen, bei denen kleine Metallobjekte im Sino-
gramm als sinusförmige Linie identifiziert und dann im Radon-Raum interpoliert wer-
den, um so den Einfluss auf das gesamte Bild zu reduzieren.

3.5.4 Bewegungsartefakte

Bisher wurde stets davon ausgegangen, dass sich die Morphologie innerhalb der zu
rekonstruierenden Schicht während der Datenakquisition nicht ändert. Muss man
aber die zeitliche Veränderung des Schwächungskoeffizienten durch Bewegung
ebenfalls berücksichtigen, so ergibt sich das Problem der Rekonstruktion bei sich
ändernder Datengrundlage. In diesem Fall sind die gemessenen Daten beim Umlauf
des Abtastsystems um den Patienten inkonsistent. Ziel der heutigen Entwicklung von
Computertomographen, gerade in Bezug auf die Zeitkonstanten bei anatomischen
bzw. physiologischen Bewegungen, ist die Beschleunigung der Datenakquisition
durch schnellere Rotation der Gantry. Moderne CT-Geräte mit Rotationszeiten von
0,3 s und weniger benötigen zur Aufnahme eines für die Bildrekonstruktion notwen-
digen Halbumlaufs an Messdaten 150 ms und weniger – das reicht aus, um selbst
das Herz in der diastolischen Ruhephase bei nicht zu hoher Herzfrequenz ohne
Bewegungsartefakte abzubilden.
3 Computertomographie | 89

Anode
Elektronen-
strahl Fokusposition 1
Fokusposition 2
Kathode Projektion 1
Anode
Projektion 2

Patienten-
z längsrichtung
(z-Richtung)
Röntgen-
strahlen Detektor

Abb. 3.12: Prinzip des z-Springfokus.

3.5.5 Abtastartefakte

Das Shannonsche Abtasttheorem darf auch bei der Computertomographie nicht


verletzt werden. Das gilt sowohl für die Rekonstruktion einer axialen Schicht als
auch für die sogenannte sekundäre 󳶳Rekonstruktion von 3D-Datenansichten durch
Schichtenstapelung. Die Unterabtastung eines Signals führt zu den typischen Ali-
asing-Artefakten. Speziell für die verwendeten Detektorarrays mit rechteckigem
Empfindlichkeitsprofil der Detektorelemente gibt es das inhärente Abtastproblem,
dass die einzelnen Elemente eigentlich im halben Abstand ihrer eigenen Breite ange-
ordnet sein müssten. Da diese Forderung technisch nicht umsetzbar ist, behilft man
sich mit eleganten technischen Tricks.
Die heute realisierte Gegenmaßnahme gegen das Aliasing ist entweder die De-
tektorviertelverschiebung (auch quarter detector offset genannt) oder der sogenannte
Springfokus oder Flying-Focus der Röntgenröhre (󳶳Abb. 3.12).

Flying-Focus (dt. Springfokus): von Projektion zu Projektion wechselnde Position des Elektronen-
fokus auf der Anode der Röntgenröhre.

Dabei wird der Brennfleck des Röntgenstrahlers zwischen der Aufnahme aufeinander-
folgender Projektionen periodisch zwischen zwei Positionen auf dem Anodenteller
hin und her bewegt. Der Springfokus wird zur Erfüllung des Shannonschen Ab-
tasttheorems sowohl in der Schichtebene als auch senkrecht dazu eingesetzt: Beim
z-Springfokus wird die Amplitude der Fokusbewegung so eingestellt, dass aufeinan-
derfolgende Projektionen in Patientenlängsrichtung gerade um eine halbe kollimierte
Schichtdicke verschoben sind (󳶳Abb. 3.13). Je zwei solche Projektionen werden dann
zu einer Projektion mit doppelter Schichtanzahl, aber halbem Abtastabstand ver-
schachtelt.
90 | Thorsten M. Buzug, Thomas Flohr

konventionell z-Springfokus

Abb. 3.13: Unterdrückung von Spiralartefakten mit dem z-Springfokus durch die verbesserte Abtas-
tung in Patientenlängsrichtung.

Aus z. B. 64 Schichten mit 0,6 mm Schichtdicke und 0,6 mm Abtastabstand wer-


den so 128 überlappende 0,6-mm-Schichten mit 0,3 mm Abtastabstand. Durch den
z-Springfokus und die damit erzielte, feinere Abtastung verbessert sich die Auflösung
in Patientenlängsrichtung, und typische, windmühlenartige Spiralartefakte an Kno-
chenkanten werden wirkungsvoll unterdrückt (siehe 󳶳Abb. 3.9).

3.5.6 Ringartefakte

Es gibt eine Reihe von Defekten im Detektor oder der Detektorelektronik, die zur Ver-
schlechterung oder sogar zur Unbrauchbarkeit des Bildes führen können. Ein solcher
Defekt ist beispielsweise der Ausfall eines Detektorkanals. Bei Computertomographen
der dritten Generation entsteht dadurch ein ringartiges Artefakt im Bild. Im Verlauf
der gefilterten Rückprojektion bilden die Verbindungslinien zwischen dem betreffen-
den Detektorelement und der Röntgenquelle die Tangenten eines Kreises. Es entste-
hen nun für jeden Punkt jeder Linie Inkonsistenzen mit den Messwerten der jeweils
anderen Projektionsrichtungen und deren korrespondierenden Detektoren. Ausgefal-
lene Detektorkanäle können bei geringer Anzahl durch Interpolation zwischen den
Nachbarkanälen ersetzt werden. Jedoch führen auch kleinere Fehler, z. B. Abweichun-
gen eines Detektorelements von seinem Kalibrierzustand, zu Ringen im Bild. Moderne
Computertomographen sind deshalb mit Algorithmen ausgestattet, die Ringe im Bild
erkennen und bis zu einer gewissen Grenze auch korrigieren können.

3.5.7 Streustrahlenartefakte

Während es für das Detektorelement, das im direkten Strahlengang liegt, im Prinzip


egal sein kann, welcher physikalische Mechanismus der Wechselwirkung von Rönt-
3 Computertomographie | 91

genstrahlung mit Materie im Detail die Intensität verringert, so können andere De-
tektorelemente, die außerhalb der direkten Verbindungslinie liegen, sehr wohl unter
bestimmten Wechselwirkungen leiden. Besonders im Bereich stärker schwächender
anatomischer Objekte wie z. B. Schulter, Bauch und Becken kann es zu Messwertver-
fälschungen kommen, da die Streustrahlung mit einem beträchtlichen Anteil zum
Gesamtsignal beiträgt. Während die Streustrahlung für alle Projektionswinkel in etwa
gleich groß ist, gilt dies für das Nutzsignal nicht. In Projektionsrichtungen, in denen
stark absorbierende Objekte hintereinander liegen, kann das Nutzsignal so schwach
werden, dass die Streustrahlung das Signal dominiert. Bei der gefilterten Rückprojek-
tion kommt es dann aus dieser Projektionsrichtung zu Inkonsistenzen, die zu streifen-
artigen Artefakten führen.

3.6 Aufnahmeplanung, Datenaufbereitung und Bilddarstellung


In den nächsten Abschnitten werden einige wichtige Gesichtspunkte aus der Praxis
der Computertomographie dargestellt. Dazu zählen sowohl die Aufnahmeplanung als
auch die Datenaufbereitung und Bilddarstellung. Bei den klinischen Anwendungen
der Computertomographie ist die Planung der Aufnahmen besonders wichtig, denn
aufgrund der systembedingten Strahlendosis, die im Patienten deponiert wird, kön-
nen Aufnahmen nicht beliebig wiederholt werden. Neben der Planung, also der Vor-
bereitung der Bildakquisition, ist auch die Kenntnis der Darstellungsformen, also der
Bildnachverarbeitung, sehr wichtig, damit die in den Bildern enthaltene Informati-
on mithilfe moderner Visualisierungstechniken möglichst optimal aufbereitet werden
kann.

3.6.1 Aufnahmeplanung

Das wichtigste Element der Planung einer computertomographischen Aufnahme ist


die sogenannte Übersichtsaufnahme, die je nach Hersteller z. B. Topogram (Siemens),
Scanogram (Philips) oder Scout View (General Electric) genannt wird. Um diese Auf-
nahme zu akquirieren, wird die Drehung der Abtasteinheit gestoppt und in eine fes-
te Winkelposition gebracht. Möglich ist im Prinzip jede Position, typische Positionen
sind aber anterior-posterior (a. p.), d. h. die Durchleuchtung von der Patientenvor-
derseite zur Patientenrückseite, und lateral, d. h. die seitliche Durchleuchtung. Wäh-
rend der Durchleuchtung wird der Patiententisch kontinuierlich durch das Messfeld
geschoben.

Scanogram: Übersichtsaufnahme bei der Computertomographie (Philips).

Topogram: Übersichtsaufnahme bei der Computertomographie (Siemens).

Scout View: Übersichtsaufnahme bei der Computertomographie (General Electric).


92 | Thorsten M. Buzug, Thomas Flohr

Mithilfe der a. p. Übersichtsaufnahme kann jetzt der geplante Untersuchungsbe-


reich festgelegt werden. Bei der lateralen Übersichtsaufnahme ergibt sich zusätzlich
die Möglichkeit, bestimmte Schichtorientierungen durch Verkippung der Gantry fest-
zulegen. Dies ist bei Schädel- und Wirbelsäulentomogrammen häufig gewünscht.
Nach der Übersichtsaufnahme werden technische Parameter des eigentlichen CT-
Scans festgelegt, z. B. die Schichtdicke, die Anzahl der Schichten, der Faltungskern
oder der Pitch. Röhrenspannung und Röhrenstrom bestimmen die dem Patienten ver-
abreichte Strahlendosis. Typische Schichtdicken axialer Bilder sind bei Schädelauf-
nahmen 3. . . 8 mm, bei Aufnahmen des Abdomens 3. . . 5 mm. Oft werden mit moder-
nen Mehrschicht-CTs dünnere, kollimierte Schichten aufgenommen, und es werden
retrospektiv sowohl dickere Schichten für die Befundung als auch dünne Schichten
für die dreidimensionale Bildnachverarbeitung berechnet. Bei Untersuchungen der
Lendenwirbel z. B. war es in der Einzelschicht-CT üblich, die Gantry-Neigung der Ori-
entierung der einzelnen Wirbelkörper anzupassen. Mit Mehrschicht-CT-Geräten wird
oft die Wirbelsäule in Spiraltechnik mit ungekippter Gantry aufgenommen und die
entsprechend der Orientierung der Wirbel geneigten Schichtbilder werden retrospek-
tiv durch multiplanare Reformatierung des isotropen dreidimensionalen Bildstapels
erzeugt.

3.6.2 Hounsfield-Skala und Grauwertedarstellung

Bei der Computertomographie werden die rekonstruierten Schwächungswerte 𝜇 als


Graustufen dargestellt. Dabei hat sich ein Vorschlag von Hounsfield durchgesetzt,
die Schwächungswerte auf eine dimensionslose Skala zu transformieren und dabei
auf Wasser zu beziehen. Die Definition dieser CT-Werte ist dementsprechend durch:
CT-Wert = 1000 ⋅ (𝜇 − 𝜇Wasser )/𝜇Wasser gegeben. Die Einheit dieser Werte wird zu Eh-
ren Hounsfields [CT-Wert] = HU, Hounsfield-Einheit (Hounsfield Unit, HU) ge-
nannt. In dieser Skala erhält Luft den CT-Wert −1000 HU und Wasser den CT-Wert
0 HU. Die Skala ist im Prinzip nach oben hin offen, praktisch endet sie aber bei etwa
3000 HU. Der Wertebereich von insgesamt 4000 HU kann durch Bilder mit einer Grau-
stufentiefe von 12 Bit erfasst werden. Die Skalierung nach Hounsfield ist willkürlich,
hat aber praktische Konsequenzen. Da sich die Schwächungswerte fast aller Organe
– ausgenommen Knochen – nur wenig von Wasser unterscheiden, ist für diese durch
die Hounsfield-Skalierung eine Abweichung in Promille von dem Schwächungswert
von Wasser gegeben.

Hounsfield-Skala: auf die Eigenschaften von Wasser normierte Schwächungswerte in der Compu-
tertomographie. Die CT-Zahl (angegeben in HU – Hounsfield unit) gibt die Abweichung vom Schwä-
chungswert des Wassers in Promille an.
3 Computertomographie | 93

Radiologen sind es gewohnt, die CT-Werte als absolute Werte zu sehen, die Organen
eindeutig zuzuordnen sind. Abweichungen dieser CT-Werte für bestimmte Organe stel-
len für den Radiologen Pathologien dar. Zu berücksichtigen ist allerdings, dass CT-
Untersuchungen mit verschiedenen Röhrenspannungen durchgeführt werden kön-
nen, in der Regel 80 kV, 100 kV, 120 kV und 140 kV. Je nach Röhrenspannung ändern
sich die CT-Werte der untersuchten Organe. Dies muss der Radiologe bei der Diagnose
berücksichtigen.
Besonders signifikant ist diese Änderung, wenn jodhaltiges Kontrastmittel ver-
wendet wird, wie es in vielen CT-Untersuchungen inzwischen der Fall ist. Je nach
Anwendung werden vor der CT-Untersuchung 40. . . 150 ml Jodkontrastmittel in einer
Konzentration von 300. . . 400 mg Jod/ml intravenös mit einer Flussrate von 3. . . 6 ml/s
verabreicht. Das Kontrastmittel verteilt sich in die Gefäße und von dort aus in das Ge-
webe – durch die hohe Ordnungszahl von Jod absorbiert es Röntgenquanten besser
als körpereigene Elemente, so dass z. B. jodgefüllte Gefäße durch ihre starke Rönt-
genabsorption und ihren dadurch hohen Schwächungswert in Hounsfield-Einheiten
leicht von der Umgebung unterschieden werden können. Durch die unterschiedliche
Jodaufnahme wird die Differentialdiagnose verschiedener Läsionen z. B. in der Leber
erst ermöglicht. Die Verwendung von Kontrastmitteln ist auch die Basis von neuen
CT-Applikationen wie der CT-Angiographie, der Gefäßdarstellung mit CT. Die Absorp-
tion von Jod nimmt mit abnehmender Röhrenspannung stark zu, so dass jodgefüllte
Organe bei niedrigen Röhrenspannungen im CT-Bild deutlich heller erscheinen.
Man kann die gesamte Hounsfield-Skala in diagnostisch relevante Bereiche un-
terteilen. Für das menschliche Auge ist der gesamte Dynamikbereich von −1000 HU
bis 3000 HU in 4000 Stufungen nicht auflösbar. Tatsächlich kann der Mensch je nach
Helligkeit im Auswerteraum zwischen 20 und 50 verschiedene Grauwerte unterschei-
den. Sollen Unterschiede zwischen Organen erkennbar sein, die in Bezug auf ihre
Abschwächung sehr ähnlich sind, so müssen die für die jeweilige Anwendung rele-
vanten Bereiche der Hounsfield-Skala auf den wahrnehmbaren Grauwertebereich
geeignet abgebildet werden. Dieser Prozess heißt „Fensterung“: Ein Ausschnitt der
Hounsfield-Skala, der um die Fenstermitte WL (Window Level) zentriert ist und die
Fensterbreite WW (Window Width) aufweist, wird bei der Darstellung auf den gesam-
ten wahrnehmbaren Grauwertebereich gespreizt. Objekte mit CT-Werten höher als die
obere Fenstergrenze erscheinen bei der Darstellung weiß, Objekte mit CT-Werten klei-
ner als die untere Fenstergrenze werden schwarz abgebildet (Knochenfenster: WL =
+300 HU, WW = 1500 HU; Weichteilfenster: WL = +50 HU, WW = 350 HU). Bei
Thoraxaufnahmen hat man die besondere Schwierigkeit, dass Lungengewebe, Weich-
teile und Knochen diagnostisch interessant sein können, diese aber praktisch die ge-
samte Breite der Hounsfield-Skala abdecken. Für die Darstellung von Thoraxaufnah-
men haben sich drei Fenster als praktisch erwiesen. Zu den oben schon genannten
Weichteil- und Knochenfenstern kommt hier das sogenannte Lungen- bzw. Pleura-
fenster (WL = −200 HU, WW = 2000 HU) hinzu, in dem Lungengewebe geringerer
Dichte ebenfalls differenzierbar wird. Die Auswertesoftware an der klinischen view-
94 | Thorsten M. Buzug, Thomas Flohr

ingstation stellt eine Vielzahl von Fenstern mit entsprechend voreingestellten Para-
metersätzen zur Verfügung.

3.6.3 Dreidimensionale Datenvisualisierung

In den vorangegangenen Abschnitten wurde nur von zweidimensionalen Bildern ge-


sprochen. Mit der Computertomographie – 󳶳Abb. 3.1 zeigt das ganz eindrucksvoll –
verbindet man aber in der Medizin vor allem die dreidimensionale Bildgebung. Hier-
bei wird so vorgegangen, dass aus dem Bilderstapel, der zunächst immer aus einer Ab-
folge von axialen Schichtbildern besteht, Bilder in anderen Angulationen oder direkt
dreidimensionale Darstellungen der Anatomie errechnet werden. Man spricht hierbei
von sekundärer Rekonstruktion. Wenn die Schichtabfolge so gewählt wurde, dass
in Patientenlängsrichtung die räumliche Auflösung in derselben Größenordnung liegt
wie innerhalb der Schicht (isotrope Auflösung), dann lassen sich durch Interpolati-
on beliebig geneigte Ebenen durch das Volumen mit der Qualität axialer Schichtbil-
der berechnen. Dieses Verfahren nennt man multiplanares Reformatieren (MPR). Ty-
pischerweise stellt man zunächst die drei Hauptrichtungen nebeneinander dar: axial,
sagittal und koronal.

Multiplanares Reformatieren (MPR): Interpolation des aufgenommenen 3D-Datensatzes so, dass


beliebig geneigte Ebenen durch das Bildvolumen (2D-Bilderstapel) errechnet werden können.

Die Auflösung multiplanarer Reformatierungen (MPRs) hängt sowohl von der


Auflösung in der Bildebene ab als auch von der Auflösung in der Patientenlängs-
richtung (z-Auflösung), die durch die Schichtdicke der axialen Ausgangsbilder und
deren Rekonstruktionsinkrement bestimmt ist. Die Auflösung in Patientenlängsrich-
tung kann durch überlappende Bildrekonstruktion mit einem Schichtabstand des
0,5. . . 0,7-Fachen der Rekonstruktionsschichtdicke verbessert werden. Abhängig von
der Orientierung der MPR verändert sich der relative Einfluss der Auflösung in der
Bildebene und senkrecht dazu. Um das Bildrauschen in MPRs zu verringern, kann
die Dicke einer solchen Sekundärrekonstruktion erhöht werden. Dann werden alle
Bildpixel in einem bestimmten, vom Benutzer vorgegebenen Abstand senkrecht zur
Ebene der MPR gemittelt. Als Spezialfall können auch sogenannte curved MPRs auf
gekrümmten Linien definiert werden, um z. B. den Verlauf stark gewundener Gefäße
darzustellen.
Neben der MPR-Technik wird das Verfahren der Maximum-Intensity-Projection
(MIP) speziell bei angiographischen Fragestellungen angewendet. Hierbei wird ent-
lang einer virtuellen Sichtlinie nach dem höchsten Wert im CT-Volumen gesucht und
dieser dann dargestellt. Typischerweise wird für MIPs die Suche nach dem höchs-
ten CT-Wert entlang eines Sichtstrahls auf eine vorgebbare Entfernung orthogonal
zur Ebene der MIP beschränkt. Die Breite des Suchbereiches wird als Dicke der MIP
3 Computertomographie | 95

bezeichnet. Bei der Diagnose mit MIPs ist zu beachten, dass analog zu konventio-
nellen Röntgenaufnahmen jede räumliche Tiefeninformation verloren geht und dass
Strukturen verschwinden, wenn sie nicht den höchsten CT-Wert entlang einer Sicht-
linie darstellen. Das MIP-Verfahren lässt sich einfach variieren, indem zum Beispiel
nach dem minimalen Werten gesucht wird oder die Summe aller Werte entlang der
Sichtlinie gebildet und anschließend dargestellt wird.

Maximumintensitätsprojektion (MIP): Darstellung des maximalen Wertes einer virtuellen Projek-


tion entlang einer Linie durch ein 3D-Volumen.

Zwei ganz unterschiedliche Ansätze zur 3D-Visualisierung sind das Volumen- und
das Oberflächen-Rendering. Beim Volumen-Rendering wird jedem räumlichen Pi-
xel, dem sogenannten Voxel (volume element in Erweiterung zum Pixel: picture ele-
ment), eine physikalische Lichtabsorption, Reflexion und Streuung zugeordnet. Im
Computer beleuchtet man diesen „Datennebel“ dann mit einer virtuellen Lichtquel-
le und berechnet den optischen Eindruck, den eine reale Wechselwirkung des Lichts
mit diesem Nebel erzeugen würde. Ordnet man Knochen und Organen bzw. einem
Kontrastmittel in den Gefäßen unterschiedliche optische Eigenschaften zu, so lassen
sich aufschlussreiche Darstellungen berechnen, bei denen man mit spezieller Nach-
verarbeitung einzelne Organe in der Gesamtvisualisierung auch wieder unterdrücken
kann. Zu beachten ist dabei, dass die Zuordnung von Farben zu den in den CT-Bildern
dargestellten Objekten rein willkürlich ist.
Eine Alternative zum Volumen-Rendering ist das sogenannte Oberflächen-
Rendering. Die einzelnen Grautöne der Schichten im Datenstapel repräsentieren
die Stärke der physikalischen Schwächung des Röntgenstrahls. Im klinischen Umfeld
wird aus Abweichungen zur normalen Verteilung dieser Werte auf pathologische
Veränderungen des Patienten geschlossen. Bei der Visualisierung muss man sich
nun entscheiden, ganz bestimmte Wertebereiche darzustellen und andere gezielt
auszublenden. Entscheidet sich der Betrachter für einen konstanten Grauwert, so re-
präsentieren alle Raumpunkte mit diesem Wert eine sogenannte Isofläche. Diese Iso-
grauwertfläche wird dann mit Dreiecken graphisch nachgebildet (Triangulierung).
Das Mosaik aus Dreiecken wird nun wieder mit dem oben beschriebenen Verfah-
ren virtuell beleuchtet und dargestellt. Je größer die Anzahl der Mosaiksteine für
die Nachbildung der Fläche gewählt wird, desto detailgetreuer ist das Ergebnis.
Neben der Darstellung von Organ- oder Knochenoberflächen, die am Computer in-
teraktiv gedreht werden können, sind auf diese Weise auch Innenansichten von
Hohlorganen, Atemwegen und kontrastierten Gefäßen rekonstruierbar. Dadurch sind
virtuelle „Fahrten“ bzw. „Flüge“ z. B. durch das Bronchialsystem oder durch den
Darm möglich. Der zentrale Gewinn der 3D-Diagnostik liegt in der Reduktion der
Datenflut, die einer normalen Schicht-für-Schicht-Befundung nicht mehr zugänglich
ist. 3D-Darstellungen eignen sich außerdem gut, um Befunde herauszuarbeiten und
Nichtradiologen präsentieren zu können.
96 | Thorsten M. Buzug, Thomas Flohr

3.7 Klinische Anwendungen


Durch die Einführung des Mehrzeilenprinzips und die immer schnellere Gantry-Rota-
tion hat sich die CT eine Reihe neuer Anwendungen erschlossen, wie z. B. die Gefäß-
darstellung (CT-Angiographie) und hier insbesondere die Darstellung der Herzkranz-
gefäße (Cardio-CT).
Darüber hinaus versucht man in zunehmendem Maße, mit der CT nicht nur die
Anatomie des Patienten abzubilden, sondern funktionelle Bildgebung zu betreiben.
In diesem Zusammenhang sind insbesondere Perfusionsmessungen von Bedeutung,
bei denen der Blutfluss nach Kontrastmittelinjektion in verschiedenen Organen ana-
lysiert wird. Auch CT-Aufnahmen mit verschiedenen Röntgenspektren, sogenannte
Dual-Energy-CT-Aufnahmen, können das Anwendungsspektrum der CT erweitern, in-
dem sie die Möglichkeit zur chemischen Charakterisierung der untersuchten Organe
eröffnen. In diesem Abschnitt soll zusammenfassend und nur beispielhaft auf die Fül-
le der klinischen Applikationen moderner CT-Bildgebung hingewiesen werden.

3.7.1 Gefäßanalyse (CT-Angiographie, CTA)

CT-Angiographie ist die Darstellung der Gefäße nach intravenöser Injektion von jod-
haltigem Kontrastmittel. Die Gefäße können dann durch ihren hohen CT-Wert leicht
(z. B. mittels Schwellenoperationen) von ihrer Umgebung unterschieden werden
(󳶳Abb. 3.14). Ziel der CT-Angiographie ist die Analyse von Gefäßen und Gefäßver-
änderungen, z. B. Stenosen und Aneurysmen, und die Planung chirurgischer und
interventioneller Eingriffe, z. B. die Platzierung von Stents. Die CT-Angiographie er-
fordert eine hohe Ortsauflösung und eine insgesamt sehr kurze Untersuchungszeit,
um den gesamten Scan in einer bestimmten Kontrastmittelphase, z. B. der arteriellen
Phase, durchführen zu können. Aus diesem Grund werden hierzu Mehrzeilen-CT-
Scanner mit schneller Gantry-Rotation benötigt.

3.7.2 Cardio-CT

Die Abbildung des Herzens und der Herzkranzgefäße stellt hohe Anforderungen an
die CT. Zum einen ist eine hohe zeitliche Auflösung erforderlich – je kürzer die Auf-
nahmezeit für die Daten eines CT-Bildes ist, desto schärfer wird die bewegte Anatomie
des Herzens abgebildet. Zum anderen sollte die räumliche Auflösung in jeder Raum-
richtung deutlich weniger als einen Millimeter betragen, denn die Herzkranzgefäße
selbst haben nur wenige Millimeter Durchmesser. Um das Herz phasenkonsistent in
der diastolischen Ruhephase darzustellen, muss die Datenaufnahme mit dem EKG-
Signal des Patienten synchronisiert werden.
3 Computertomographie | 97

Abb. 3.14: CT-Angiographie: Darstellung einer Aortendissektion vor und nach der Behandlung (Ein-
satz eines Stents). Die Gesamtaufnahmezeit betrug unter Verwendung einer speziellen Hochpitch-
Technik an einem Dual Source CT nur etwa 2 s. Quelle: Deutsches Herzzentrum, München.

Die beiden grundlegenden Untersuchungstechniken für die Herz-CT sind die pro-
spektiv EKG-getriggerte Sequenzuntersuchung und die retrospektiv EKG-gegatete Spi-
raluntersuchung.
Bei der prospektiv EKG-getriggerten sequentiellen Untersuchung des Herzens
steuert das EKG-Signal des Patienten den Zeitpunkt der Aufnahme axialer Schicht-
bilder (󳶳Abb. 3.15). Der Patiententisch wird an die definierte Ausgangsposition in
der Patientenlängsrichtung gefahren. In einem vom Benutzer wählbaren zeitlichen
Abstand nach einer R-Zacke des EKGs des Patienten wird ein CT-Scan ohne Tischbe-
wegung durchgeführt. Dabei nimmt das CT-Gerät eine der Zeilenzahl entsprechende
Anzahl von Schichtbildern auf, die einen der gesamten Detektorbreite entsprechen-
den Abschnitt des Herzens abdecken.
Der Tisch wird nun an die nächste Position gefahren und im entsprechenden zeit-
lichen Abstand zur nächstmöglichen R-Zacke wird der nächste CT-Scan ausgelöst. Auf
diese Weise wird das Herzvolumen sequentiell mit axialen Schichtaufnahmen abge-
deckt. Die zeitliche Auflösung eines Schichtbildes entspricht der Aufnahmezeit der
zur Rekonstruktion dieses Bildes verwendeten Datenmenge. Zur Optimierung der zeit-
lichen Auflösung werden Teilumlauf-Daten aufgenommen. Diese umfassen einen Pro-
jektionswinkelbereich von 180° (einen Halbumlauf) plus den gesamten Fächerwinkel
des Detektors, insgesamt also etwa 240°. In der Nähe des Drehzentrums, wo das Herz
üblicherweise positioniert wird, reicht ein Halbumlauf an Daten (180°) zur Bildrekon-
98 | Thorsten M. Buzug, Thomas Flohr

Aufnahme

Tisch-
bewegung

Detektor-
breite
Patienten-
längsrichtung

Abb. 3.15: Prinzip der EKG-getriggerten sequentiellen Datenaufnahme. Das EKG-Signal des Pati-
enten ist schematisch dargestellt. Die gestrichelten weißen Linien markieren die z-Positionen der
einzelnen Detektorzeilen relativ zum Patienten, in diesem Beispiel für ein 8-Zeilen-Gerät. Mit einem
vom Benutzer wählbaren zeitlichen Abstand zur vorausgehenden R-Zacke werden Teilumlauf-Daten
aufgenommen, die als rote Rechtecke dargestellt sind. Mit der EKG-getriggerten Untersuchungs-
technik wird das Volumenbild des Herzens aus mehreren, entlang der z-Achse aneinandergereihten
Teilvolumina aufgebaut, die in aufeinanderfolgenden Herzzyklen erfasst werden. Die Ausdehnung
eines Teilvolumenbereiches entspricht der Breite des Detektors im CT-Gerät.

struktion aus. Die zeitliche Auflösung eines Bildes entspricht deshalb der halben Ro-
tationszeit des CT-Scanners, also z. B. 150 ms bei 0,3 s Rotationszeit.
Die prospektiv EKG-getriggerte Sequenz bietet den Vorteil einer sehr geringen
Strahlendosis für den Patienten, allerdings mit Einschränkungen bezüglich der ma-
ximal zulässigen Herzfrequenz. Für Patienten mit niedriger Herzfrequenz und regel-
mäßigem Herzschlag lassen sich bei Untersuchungen der Herzkranzgefäße Strahlen-
dosiswerte von nur etwa 2. . . 3 mSv erreichen. Die Aufnahmezeit für ein CT-Bild kann
mit Dual-Source-CT-Geräten auf Werte von weniger als 100 ms verringert werden, dies
erhöht die Bildqualität der Methode bei Patienten mit höheren Herzraten.
In retrospektiv EKG-gegateten Untersuchungen wird das Herz des Patienten mit
einem Spiral-Scan abgedeckt, bei dem der Tisch kontinuierlich bewegt wird und kon-
tinuierlich Messdaten erfasst werden. Parallel dazu wird das EKG des Patienten auf-
gezeichnet. Es dient nach der Datenaufnahme zur retrospektiven Auswahl derjenigen
Segmente aus dem Spiraldatensatz, die in den verschiedenen Herzschlägen jeweils in
der gleichen, vom Benutzer gewünschten Phase des Herzzyklus, aber unter anderen
Winkeln gemessen wurden und deshalb zur Bildrekonstruktion herangezogen wer-
den. 󳶳Abb. 3.16 zeigt das Prinzip der retrospektiv EKG-gegateten Spiral-CT des Her-
zens.
Die EKG-gegatete Spiral-CT erlaubt eine Bildrekonstruktion in verschiedenen
Herzphasen und somit die retrospektive Optimierung der Bildqualität durch Auswahl
derjenigen Herzphase, bei der am wenigsten Bewegungsartefakte auftreten. Nach-
3 Computertomographie | 99

Rekon

ub
ch
vors
ch
r Tis
he
lic
uier zima2
n
nti
ko
zima1

Detektorbreite

Patienten-
längsrichtung

Abb. 3.16: Prinzip der EKG-gegateten Spiral-CT. Das EKG-Signal des Patienten ist schematisch dar-
gestellt. Die gestrichelten weißen Linien markieren die z-Positionen der einzelnen Detektorzeilen
relativ zum Patienten, in diesem Beispiel für ein 8-Zeilen-Gerät. Der Tisch bewegt sich kontinuier-
lich und es werden kontinuierlich Messdaten erfasst. Zur Bildrekonstruktion werden nur Messda-
ten herangezogen, die in einem vom Benutzer wählbaren zeitlichen Abstand zur vorausgehenden
R-Zacke aufgenommen wurden (in der Abbildung als rote Rechtecke markiert). Die beiden horizonta-
len weißen Linien deuten zwei Bildpositionen zima1 und zima2 an. Weil aufgrund der kontinuierlichen
Tischbewegung in den Bildebenen keine vollständigen Teilumlaufdaten vorliegen, müssen die Pro-
jektionen an den gewünschten z-Positionen durch Spiralinterpolation erzeugt werden. Um das Herz
in jeder Herzphase ohne Abtastlücken abzubilden, ist eine Anpassung des Tischvorschubs an die
Herzfrequenz des Patienten erforderlich.

teilig ist die relativ hohe Strahlenexposition für den Patienten, denn anders als bei
EKG-getriggerten Untersuchungen wird der Patient während der gesamten Aufnahme-
zeit der Spirale bestrahlt. Mithilfe von EKG-gesteuerten Dosismodulationstechniken
(„ECG-Pulsing“) lässt sich die Patientendosis deutlich verringern. Während des Spi-
ralscans wird der Strom der Röntgenröhre gemäß dem EKG des Patienten moduliert:
Der voreingestellte Nominalwert wird nur während einer vom Benutzer definierten
Phase des Herzzyklus erreicht, die dann auch zur Bildrekonstruktion herangezogen
wird. Während der restlichen Zeit wird der Röhrenstrom auf Werte zwischen 4 und
25 % des Nominalwertes abgesenkt.
Neben der Darstellung der Herzkranzgefäße ist das Kalzium-Scoring bedeutsam,
es bezeichnet die Quantifizierung von Kalkablagerungen in den Koronararterien aus
einem CT-Scan des Herzens ohne Kontrastmittel. Diese Untersuchung wird meist bei
sehr geringer Strahlendosis in prospektiv EKG-getriggerter Sequenztechnik durchge-
führt.
100 | Thorsten M. Buzug, Thomas Flohr

Detektorbreite Detektorbreite

CT-Wert
Zeit
Scanbereich Scanbereich

Abb. 3.17: Verschiedene Möglichkeiten, um den Scanbereich bei einer Perfusionsuntersuchung zu


vergrößern. Links: Verwendung eines breiten Detektors. Rechts: periodische Tischbewegung.

3.7.3 Funktionelle CT

Hirnperfusion
Aus der zeitlichen Analyse des Ein- und Ausströmens des Kontrastmittels im Hirn-
gewebe lassen sich verschiedene funktionelle Parameter berechnen, wie das Blutvo-
lumen (Cerebral Blood Volume, CBV), der Blutfluss (Cerebral Blood Flow, CBF), die
mittlere Transitzeit (Mean Transit Time, MTT) und die Zeit bis zum Erreichen des Bo-
lusmaximum (Time to Peak, TTP). Eine farbkodierte Darstellung dieser Größen kann
mit den entsprechenden axialen CT-Bildern überlagert werden. Die Änderung der er-
wähnten Parameter in bestimmten Hirnarealen ist ein Indiz für eine Durchblutungs-
störung des Gehirns, die z. B. durch einen Hirninfarkt (Schlaganfall) hervorgerufen
werden kann. CT-Hirnperfusionsuntersuchungen geben wertvolle Hinweise auf die
Behandlungsoptionen von Hirninfarkten, insbesondere ob es sinnvoll ist, Gefäßver-
schlüsse durch eine Lyse-Therapie zu behandeln.
Zur Modellierung der Perfusionsparameter müssen CT-Daten der betreffenden
anatomischen Region über einen längeren Zeitraum gemessen werden. Die Aufnah-
medauer hängt von der klinischen Fragestellung und vom verwendeten Perfusions-
modell ab – typischerweise werden Schichtbilder alle 0,5. . . 2 s über einen Zeitraum
von 30. . . 60 s akquiriert. Die naheliegendste Methode zur Vergrößerung des Untersu-
chungsbereiches ist die Verwendung breiterer Detektoren, z. B. in einem CT-Gerät mit
16 cm Detektorbreite im Iso-Zentrum. Alternativ kann bei CT-Geräten mit schmalerem
Detektor der Patiententisch periodisch zwischen zwei Positionen hin- und her bewegt
und dabei kontinuierlich Daten aufgenommen werden (󳶳Abb. 3.17).
3 Computertomographie | 101

Abb. 3.18: Darstellung eines Perfusionsparameters (Permeabilität) für einen Patienten mit Bronchi-
alkarzinom, vor (links) und zwei Wochen nach Kombinationstherapie (rechts). Obwohl der Tumor
sich in seiner Größe nicht verändert hat, ist die verringerte Permeabilität ein Indikator für das Thera-
pieansprechen des Tumors. Courtesy of Vicky Goh, King’s College London.

Tumorperfusion
Die Messung des zeitlichen Verlaufs der Kontrastmittelanreicherung lässt sich zur
Differentialdiagnose von Tumoren verwenden. Neuere Studien zeigen, dass das
Ansprechen bestimmter Tumoren auf moderne Chemotherapien oder Anti-Angio-
genesetherapien mit Perfusionsmessungen vorausgesagt werden kann (󳶳Abb. 3.18).
Des Weiteren lässt sich während der Therapie der Behandlungserfolg durch Ände-
rung von Perfusionsparametern wie Blutvolumen und Blutfluss beurteilen, bevor der
Tumor auf die Behandlung durch eine Größenänderung reagiert.

3.7.4 Weitere CT-Applikationen

Lungenuntersuchungen: CT ist hervorragend zur Darstellung der Lunge und damit


z. B. zur Diagnose eines Lungenemphysems geeignet. In diesem Zusammenhang spie-
len vermehrt Werkzeuge zur automatischen, computergesteuerten Unterstützung des
Radiologen eine Rolle, mit denen die automatische Detektion und Markierung von
Rundherden in der Lunge möglich ist.
Virtuelle Endoskopie: Dreidimensionale CT-Daten in isotroper Auflösung die-
nen als Grundlage für anatomische Innenansichten von Hohlorganen und kontras-
tierten Gefäßen.
CT im Schockraum: In zunehmendem Maße werden CT-Untersuchungen als in-
itiale Diagnostik von Traumapatienten im Schockraum eingesetzt, da sie einen sehr
viel höheren diagnostischen Wert als konventionelle Röntgenuntersuchungen bieten.
Voraussetzungen dafür sind kurze Untersuchungszeiten und schnelle Bildgebung des
gesamten Körpers, sowie gute Zugänglichkeit der CT-Gantry.
102 | Thorsten M. Buzug, Thomas Flohr

Dentalplanung: Panorama und Querschnitte des Ober- und Unterkiefers zur Un-
terstützung des Kieferchirurgen bei der Planung von Prothesenimplantaten.
Bestrahlungsplanung: 3D-CT-Daten als Grundlage für die Dosisplanung bei der
Bestrahlung von Tumoren.
Bildgeführte Chirurgie: 3D-CT-Daten als Grundlage für die Planung chirurgi-
scher Eingriffe und für die intraoperative Navigation.
Interventionelle Bildgebung: Darstellung der Instrumentenspitze während ei-
ner Biopsie. Dies wird durch sehr schnelle Online-Bildgebung während der Interven-
tion insbesondere mit Mehrzeilen-Detektoren erleichtert.

3.8 Dosis und Dosisreduktion


3.8.1 Strahlendosis in der CT

In der Anfangszeit der Computertomographie war der Enthusiasmus aufgrund der


neuen diagnostischen Möglichkeiten grenzenlos, so dass man sich erst zweitrangig
Gedanken um die applizierte Dosis machte. Aus der Anzahl der installierten Geräte
in Deutschland und einer durchschnittlichen Anzahl von 3500 Untersuchungen pro
Jahr lässt sich abschätzen, dass heute einige hundert Millionen CT-Bilder pro Jahr auf-
genommen werden [Nagel 2002]. Während die Computertomographie nur etwa 4 %
aller röntgenbasierten Untersuchungen ausmacht, beträgt ihr prozentualer Anteil an
der kollektiven effektiven Dosis ungefähr 35 %. Damit leistet CT den größten Beitrag
zur medizinisch bedingten Strahlenexposition. Insbesondere seit der Einführung der
Mehrzeilen-CT ist zu beobachten, dass aufgrund der größeren Untersuchungsbereiche
und dünneren Schichten die Dosis für die einzelne Untersuchung eher steigt [Nagel
2002]. Damit ist allerdings auch ein erheblicher Zugewinn an diagnostischer Infor-
mation verbunden. Ausgelöst z. B. durch Berichte über unnötig hohe Strahlenexposi-
tion bei pädiatrischen CT-Untersuchungen [Sternberg 2000], die unnötigerweise mit
denselben Scanprotokollen wie bei Erwachsenen vorgenommen wurden, und ande-
ren Berichten über mögliche Strahlenrisiken durch CT, ist heute bei allen Herstellern
und Anwendern eine hohe Sensibilität in Bezug auf die applizierte Dosis erkennbar.
In der CT erhöht sich bei Verringerung der Strahlendosis das Bildrauschen, da-
mit wird die Erkennbarkeit von Strukturen mit geringem Kontrast erschwert. Den
Zusammenhang zwischen der Strahlendosis und dem gerade noch wahrnehmba-
ren Kontrast einer Lochreihe eines Messphantoms stellt die sogenannte Niedrig-
kontrastauflösung her [Morneburg 1995], die in den Datenblättern kommerzieller
CT-Geräte angegeben wird.
Im Folgenden sind einige im Scanprotokoll einstellbare Parameter und ihr Zu-
sammenhang mit der Strahlendosis dargestellt. Für eine ausführliche Diskussion der
Strahlenexposition in der Computertomographie sei z. B. auf das Buch von [Nagel
2000] verwiesen.
3 Computertomographie | 103

Strom-Zeit-Produkt (mAs-Wert)
Die Strahlendosis ist direkt proportional zum mAs-Wert, also zum Produkt aus Röh-
renstrom und Aufnahmezeit eines Schichtbildes. Die Varianz des Bildrauschens ist
umgekehrt proportional zum mAs-Wert. Die Standardabweichung des Bildrauschens,
die Wurzel aus der Varianz, ist damit umgekehrt proportional zur Wurzel aus dem
Strom-Zeit-Produkt.

Röhrenspannung
Bei Erhöhung der Röhrenspannung UA (s. 󳶳Kap. 2.2.1) erhöht sich die Intensität der
Strahlung und damit die Strahlendosis überproportional. Die Strahlung wird dabei
härter, ihre Durchdringungsfähigkeit nimmt zu und Bildkontraste nehmen ab. Bei
Aufnahmen ohne Kontrastmittel wird dies allerdings durch die bessere Quantensta-
tistik ausgeglichen. Ganz anders ist die Situation bei CT-Untersuchungen mit Kon-
trastmittel: Die Absorption von Jod steigt bei Erniedrigung der Röhrenspannung UA so
stark an, dass erhöhtes Bildrauschen durch den zunehmenden Jodkontrast mehr als
kompensiert wird und Aufnahmen mit einem gewünschten Kontrast-Rauschverhält-
nis mit geringerer Strahlendosis durchgeführt werden können. Dieser Zusammenhang
kann aber – wegen der Leistungsbegrenzung von CT-Strahlern bei niedrigen Röhren-
spannungen – nur bei dünnen Patienten voll ausgenutzt werden.

Schichtdicke
Bei der ersten Generation von 4-Zeilen-CT-Geräten musste das Strahlprofil am Detek-
tor so eingestellt werden, dass die Halbschattenbereiche in Patientenlängsrichtung
außerhalb der aktiven Zone der Detektorelemente lagen. Diese Halbschattenbereiche
stellten Strahlendosis für den Patienten dar, die nicht zur Bildrekonstruktion genutzt
wurde. Bei dünnen kollimierten Schichten, z. B. 4 × 1 mm, war der relative Beitrag
der Halbschattenzonen natürlich größer als bei dicken kollimierten Schichten, z. B.
4 × 5 mm. Deshalb ging mit der Wahl dünner kollimierter Schichten bei der ersten Ge-
neration von Mehrzeilen-CT-Geräten auch immer eine gewisse Dosiserhöhung einher.
Bei modernen Mehrzeilen-Scannern mit einer größeren Anzahl von Detektorzeilen
(≥ 16) spielt dieser Effekt keine Rolle mehr und die Strahlendosis ist bei sonst unverän-
derten Parametern praktisch unabhängig von der Wahl der kollimierten Schichtdicke.

Pitchfaktor
Ein Pitchfaktor von p = 1 bedeutet, dass sich der Tisch in einer vollen Umdrehung
der Abtasteinheit um eine Schichtdicke fortbewegt (s. 󳶳Kap. 3.4.3). Bei Veränderung
des Pitches gilt bei Einzeilen-CT-Systemen folgender Zusammenhang: Verringert man
den Pitch (p < 1), so misst man mit stärkerer Überlappung. Spiralartefakte verringern
sich, die Auflösung in Patientenlängsrichtung verbessert sich, dies jedoch auf Kosten
104 | Thorsten M. Buzug, Thomas Flohr

erhöhter Strahlendosis. Durch Erhöhung des Pitchfaktors (p > 1) kann man die Do-
sis verringern, allerdings auf Kosten zunehmender Spiralartefakte und schlechterer
Auflösung in der Patientenlängsrichtung durch wachsende effektive Schichtdicken.
Bei vielen Mehrzeilen-CT-Geräten gilt dieser Zusammenhang im Prinzip auch. Ei-
ne Ausnahme machen die Mehrzeilen-CT-Scanner der Fa. Siemens. Hier ist die Spi-
ralinterpolation so gestaltet, dass die räumliche Auflösung in Patientenlängsrichtung
unabhängig vom Pitch immer gleich ist. Um bei dieser Technik ein pitchunabhängiges
Bildrauschen zu erhalten, wird der Röhrenstrom (mAs-Wert) mit zunehmendem Pitch
automatisch vergrößert. Als Konsequenz daraus bleibt die Strahlendosis bei jedem
Pitch konstant.

Filterkern
Die Wahl des Filter- oder Faltungskerns hat zunächst keinen unmittelbaren Einfluss
auf die Dosis. Allerdings geht bei konstanter Strahlendosis höhere Bildschärfe, die
durch schärfere Faltungskerne erreicht wird, immer auf Kosten von erhöhtem Bildrau-
schen. Soll bei hoher Ortsauflösung das Rauschen verringert werden, muss die Strah-
lendosis erhöht werden.

3.8.2 Maßnahmen zur Dosisreduktion

Die effektivste Maßnahme zur Reduktion der Strahlendosis ist die Anpassung der Do-
sis an die Anatomie des Patienten. Gerade bei dünnen Patienten und bei Kindern kann
die Dosis zur Erreichung diagnostischer Bildqualität stark reduziert werden, und zwar
entweder manuell – durch Anpassung des mAs-Wertes oder gegebenenfalls auch der
Röhrenspannung – oder automatisch durch Techniken, die der Belichtungsautomatik
bei einer Fotokamera ähneln. Verfahren zur automatischen anatomischen Dosismo-
dulation sind in praktisch allen modernen CT-Scannern implementiert, unter Namen
wie z. B. „CareDose4D“ (Siemens). Sie lassen die Röhrenspannung unverändert und
passen den Röhrenstrom an die anatomische Situation an.
Dabei sind zwei Arten der Modulation zu unterscheiden. Der Röhrenstrom bzw.
die Dosis kann im ersten Schritt dynamisch an die anatomische Situation und die un-
terschiedlichen Schwächungsverhältnisse entlang der Patientenlängsachse (z-Achse)
angepasst werden (longitudinale Dosismodulation). In anatomischen Bereichen, in
denen eine kleine Schwächung der Röntgenintensität zu erwarten ist, z. B. im Bereich
der Lunge, können der Röhrenstrom und damit die Dosis herabgesetzt werden, ohne
dass es zu einer Verschlechterung der Bildqualität kommt. In anatomischen Bereichen
mit hoher Schwächung, z. B. der Schulter, ist im Gegensatz dazu eventuell sogar eine
Erhöhung des Röhrenstroms notwendig.
3 Computertomographie | 105

mAs mAs
100 % 100 %
verringerter Röhrenstrom
60 % 60 %

20 % 20 %
Winkel 20° 80° 20°
Winkel

erhöhter Röhrenstrom

Abb. 3.19: Prinzip der organselektiven Dosismodulation, hier zum Schutz der weiblichen Brust. Die
Dosisverteilungen entstanden durch Monte-Carlo-Simulation. Rot bedeutet geringere Dosis.

Die Schwächungsverhältnisse entlang der Patientenlängsachse erhält man vor


dem geplanten CT-Scan aus der Analyse der Übersichtsaufnahme (Topogram, Scout
View).
Der zweite Schritt ist die dynamische Veränderung des Röhrenstroms über den
Projektionswinkel 𝛾 (zirkulare Dosismodulation). Diese Modulation ist besonders wir-
kungsvoll bei allen Körperbereichen mit stark unterschiedlichen Schwächungen in
den verschiedenen Projektionsrichtungen, z. B. Schulter und Pelvis. Die Anpassung
des Röhrenstroms während eines Umlaufs wird entweder aus der Analyse der vor dem
CT-Scan erstellten Übersichtsaufnahme abgeleitet oder in Echtzeit während des CT-
Scans durch die Auswertung des Detektorsignals ermittelt, das ein Maß für die aktuel-
le Schwächung ist. In der Praxis werden longitudinale und zirkulare Dosismodulation
in Kombination eingesetzt.
Eine seit Kurzem verfügbare Variante der anatomischen Dosismodulation ist die
organabhängige Steuerung des Röntgenstroms, um die Strahlendosis in bestimmten
strahlensensitiven Organen selektiv zu verringern. Um beispielsweise die weibliche
Brust bei einer Thoraxaufnahme möglichst wenig zu belasten, wird der Röhrenstrom
in dem Projektionswinkelintervall reduziert, in dem sich die Röntgenröhre direkt über
der Brust befindet und sie so direkt bestrahlt. Zum Ausgleich muss der Röhrenstrom
im gegenüberliegenden Winkelbereich erhöht werden (󳶳Abb. 3.19).
Bei EKG-gegateten Aufnahmen des Herzens wird der Röhrenstrom durch das EKG
des Patienten gesteuert, um die Dosis zu verringern. Nur in der vom Benutzer vors-
elektierten Phase des Herzzyklus, in der Bilder rekonstruiert werden sollen, erreicht
der Röhrenstrom seinen Nominalwert. In den anderen Herzphasen wird er deutlich
reduziert.
106 | Thorsten M. Buzug, Thomas Flohr

Neben der automatischen anatomischen Modulation des Röhrenstroms wurde


kürzlich ein Verfahren eingeführt, das auch die Röhrenspannung automatisch an die
Anatomie des Patienten und die geplante Untersuchung anpasst („CAREkV“, Siemens
AG, Forchheim, Deutschland). Bei CT-Untersuchungen mit Kontrastmittel kann durch
den bei niedrigen Röhrenspannungen höheren CT-Wert der jodgefüllten Gefäße und
Gewebeareale höheres Bildrauschen toleriert und damit die Strahlendosis abgesenkt
werden. Allerdings ist die Leistung der Röntgenröhre bei niedrigen Spannungen be-
schränkt, so dass die zu untersuchende Anatomie des Patienten geeignet sein muss –
dies wird automatisch durch eine Analyse der Übersichtaufnahme und der geplanten
Untersuchung sichergestellt.

3.9 Spezielle CT-Systeme


Für bestimmte Anwendungen wurden in den letzten Jahrzehnten immer wieder spe-
zielle Systeme entwickelt, von denen einige hier vorgestellt werden. Speziell für die
Herzbildgebung optimiert wurde das Dual Source CT (s. 󳶳Kap. 3.9.1) und ein nichtme-
chanisches CT, das Elektronenstrahl-CT (s. 󳶳Kap. 3.9.2). Sollen sehr kleine Strukturen
im μm-Bereich untersucht werden, so ist die räumliche Auflösung der klinischen CTs
nicht ausreichend. Hierfür wurden spezielle Mikro-CTs entwickelt (s. 󳶳Kap. 3.9.3). Da
die Nuklearbildgebung mittels PET in der Lage ist, den Metabolismus des Körpers ab-
zubilden, und CT dazu gewissermaßen komplementär nur die Morphologie abbildet,
ist eine konsequente Weiterentwicklung die Kombination beider Geräte in sogenann-
ten PET-CT-Scannern (s. 󳶳Kap. 9.4).

3.9.1 Dual Source CT

Der Dual-Source-Computertomograph, der 2005 erstmals vorgestellt wurde, ist eine


pragmatische Umsetzung einer naheliegenden Idee, um die Zeitauflösung von CT-
Schichtaufnahmen zu verbessern. Dabei sind auf der Gantry zwei Messsysteme – je-
weils bestehend aus einem Röntgenstrahler und dem dazugehörigen Detektor – unter
einem Winkel von 90° angeordnet (󳶳Abb. 3.20). Beide Messsysteme nehmen gleichzei-
tig Daten auf. Um den zur Bildrekonstruktion notwendigen Projektionswinkelbereich
von 180° (im Drehzentrum) zu erhalten, genügt somit eine Viertelrotation des Gerä-
tes. Jedes Messsystem nimmt dann gerade zwei 90° Segmente auf, die zu einem 180°
Halbumlaufintervall zusammengefügt werden können. Damit entspricht die kürzeste
Aufnahmezeit für ein CT-Bild gerade einem Viertel der Gantry-Rotationszeit.

Dual Source CT (dt. Doppelquellen-CT): Computertomographie mit zwei Röntgenröhren und De-
tektorsystemen, die um etwa 90° versetzt sind.
3 Computertomographie | 107

Drehrichtung
der Gantry

z
x

y J I

Detektor B
I
cm
J
26

Detektor A

Abb. 3.20: Prinzip eines Dual-Source-CT-Gerätes, in dem zwei Messsysteme um einen Winkel von
90° versetzt angeordnet sind.

Bei der ersten Generation des Dual Source CTs mit einer Rotationszeit von 0,33 s betrug
die zeitliche Auflösung 83 ms, bei der zweiten, im Jahre 2009 eingeführten Generati-
on mit einer Rotationszeit von 0,28 s beträgt die zeitliche Auflösung 75 ms. Diese kur-
ze Aufnahmezeit ist besonders vorteilhaft bei der Untersuchung bewegter Organe wie
z. B. dem Herzen. Tatsächlich haben klinische Studien inzwischen gezeigt, dass es mit
der Dual Source CT möglich ist, die Herzkranzgefäße in diagnostischer Qualität auch
bei Patienten mit hohen und unregelmäßigen Herzraten darzustellen (󳶳Abb. 3.21).
Durch optimale Umsetzung der EKG-gesteuerten Dosismodulation und andere Maß-
nahmen ist dabei – trotz des gleichzeitigen Betriebes von zwei Röntgenröhren – die
Strahlenbelastung für den Patienten nicht größer und bei höheren Herzraten sogar
geringer als bei entsprechenden Single Source CT.
Dual-Source-CT-Geräte ermöglichen auch die gleichzeitige Aufnahme von zwei
Messdatensätzen mit unterschiedlichen Röntgenspektren, indem beide Röntgen-
strahler mit unterschiedlichen Röhrenspannungen betrieben werden. Mit der soge-
nannten Dual-Energy-Technik lassen sich unterschiedliche Gewebetypen chemisch
charakterisieren oder die Jodaufnahme im Gewebe quantitativ darstellen (󳶳Abb. 3.22).
Diese Untersuchungsmethode befindet sich noch im Stadium klinischer Forschung,
allerdings zeichnen sich bereits erste Routineanwendungen ab, z. B. die Charakteri-
sierung von Nierensteinen.
108 | Thorsten M. Buzug, Thomas Flohr

Abb. 3.21: CT-Angiographie der Herzkranzge-


fäße, aufgenommen mit einem Dual-Source-CT-
Gerät bei einem Patienten mit Myokardbrücke
(Pfeil). Trotz der während der Untersuchung
zwischen 77 und 103 Herzschlägen pro Minu-
te schwankenden Herzfrequenz konnte wegen
der guten zeitlichen Auflösung von 75 ms das
Herz ohne Bewegungsartefakte abgebildet wer-
den. Courtesy Thorax Center, Erasmus University
Rotterdam, The Netherlands.

Dual energy-Aufnahme virtuelles Nativbild/ CT-Angiographie Dual energy-CT


mit Kontrastmittel Jodbild Plaque-removal

Harnsäurekristalle (Gicht)

Abb. 3.22: Verschiedene Dual-Energy-Anwendungen: Charakterisierung von Harnsäure zur Differen-


tialdiagnose von Gicht, automatische Erkennung kalzifizierter Plaques aus einer CT-Angiographie
der Karotiden, Jodsubtraktion zur Berechnung eines „virtuellen“ Nativbildes.

3.9.2 Elektronenstrahl-CT (EBCT)

Wenn man zu sehr kurzen Datenakquisitionszeiten kommen möchte, muss man das
Konzept mechanisch bewegter Systeme vollständig verlassen. Einen Ansatz dazu bie-
tet die Elektronenstrahl-Computertomographie (Electron Beam Computerized Tomo-
graphy, EBCT). Diese Form der Computertomographie wurde speziell für Aufnahmen
des Herzens entwickelt. Eine lokalisierte Röntgenröhre, die sich um den Patienten
dreht, gibt es hier nicht mehr. Vielmehr befindet sich der Patient gewissermaßen in-
nerhalb der Röntgenröhre. Ein Elektronenstrahl wird auf kreisförmig um den Pati-
enten angeordnete Wolframtargetringe fokussiert und erzeugt beim Aufprall auf das
3 Computertomographie | 109

Wolfram den gewünschten Röntgenstrahlfächer. Die Röntgenstrahlung wird dann mit


einem fest stehenden Detektorring gemessen. Solche Systeme wurden von der Fir-
ma Imatron überwiegend an Kardiologen verkauft. Das Elektronenstrahlverfahren ist
in der Lage, Schichtbilder in 50 ms zu akquirieren. Weitere technische Details findet
man zum Beispiel bei G. Weisser [Weisser 2000]. Wegen der unzureichenden Bild-
qualität bei allgemeinradiologischen Schichtaufnahmen und der trotz der guten zeit-
lichen Auflösung limitierten Bildqualität bei Herzuntersuchungen wurde das Elektro-
nenstrahl-Prinzip inzwischen aufgegeben.

3.9.3 Mikro-CT

Seit einiger Zeit sind sogenannte Mikro-CTs kommerziell erhältlich, die im Wesent-
lichen einer miniaturisierten Form eines Volumen-CTs entsprechen und zur zer-
störungsfreien, dreidimensionalen Mikroskopie genutzt werden. Das durchstrahlte
Messfeld ist mit typischerweise 2 cm3 so klein, dass Patientenuntersuchungen aus-
scheiden. Tatsächlich werden diese Geräte eher in der Materialprüfung und -analyse
verwendet, aber auch medizinische Anwendungen rücken zunehmend in das Zen-
trum des Interesses. Humanmedizinische Fragestellungen sind zum Beispiel Untersu-
chungen der Trabekularstruktur von Knochen. Mikro-CTs sind darüber hinaus ideale
Geräte, um radiologische Diagnostik an Kleintieren zu betreiben. Mikro-CTs sind
häufig als Tischgeräte ausgelegt und besitzen eine Messkammer, die mit Bleiwänden
gegen nach außen dringende Röntgenstrahlung vollständig abgeschirmt ist, so dass
keine weiteren Schutzmaßnahmen ergriffen werden müssen. Das zu untersuchende
Objekt wird auf einem Drehteller platziert, der von einem Schrittmotor gesteuert wird.
Die beiden entscheidenden Komponenten eines Mikro-CTs sind die Röntgenröhre
und das Detektorarray. Hierbei sind es speziell die Fokusgröße und die Größe der De-
tektorelemente, die neben der mechanischen Genauigkeit der Drehbewegung das Auf-
lösungsvermögen bestimmen, wobei Röntgenfokusgrößen unterhalb von 10 μm wün-
schenswert sind. Natürlich kann bei einer solch kleinen Elektronentargetfläche der
Anodenstrom nicht sehr groß gewählt werden – typische Ströme liegen im Bereich von
< 100 μA. Da der Strom die Intensität des Röntgenspektrums steuert, unterliegt man in
Bezug auf die zu untersuchenden Materialien natürlich gewissen Einschränkungen.
Als Detektor wird häufig ein gekühlter 12 Bit Röntgen-CCD-Chip mit einer Pixelmatrix
von 1024 × 1024 genutzt, der über eine Fiberoptik an einen Szintillationskristall ange-
koppelt ist. Die Größe der Bildelemente liegt ebenfalls in der Größenordnung von etwa
10 μm. Die Firma SkyScan gibt ein Auflösungsvermögen von insgesamt etwa 10 μm an.
Da es sich bei Mikro-CTs um Kegelstrahlröntgensysteme handelt, sind dreidimensio-
nale Rekonstruktionsverfahren erforderlich, um die Bilder zu berechnen.
110 | Thorsten M. Buzug, Thomas Flohr

3.9.4 PET-CT

Wenn man von Kontrastmitteltechniken absieht, dann vermag die Computertomogra-


phie für sich genommen nur morphologische Informationen, also Informationen
über die Form der Objekte und ihren Röntgenschwächungskoeffizienten, zu liefern.
Andererseits liefert die Positronen-Emissions-Tomographie (PET) Informationen
über den Metabolismus, also die Funktion bzw. den Stoffwechsel [Ruhlmann 1998].
Da die Computertomographie auf der Absorption von Röntgenstrahlung beruht, kön-
nen sich unterschiedliche Organe mit unterschiedlichen Absorptionseigenschaften
nur der Form nach abbilden. Der Patient bleibt in diesem Verfahren passiv, d. h., er
fungiert im Gegensatz zur PET nicht selbst als Strahler.
Bei der Positronen-Emissions-Tomographie wird dem Patienten ein radioaktiv
markierter sogenannter Tracer gespritzt, der beim Stoffwechsel im Körper des Pa-
tienten eine wichige Rolle spielt (s. 󳶳Kap. 6, PET). Ein interessanter Ansatz in der
bildgebenden Diagnostik ist die Kombination beider Verfahren. Die Idee, neben der
Form auch die Funktion in einem Bild darzustellen, wird schon länger mit Methoden
der sogenannten Bildregistrierung verfolgt. Dabei wird der Patient nacheinander
mit verschiedenen Geräten aufgenommen. Aufgrund der unterschiedlichen Lage-
rung des Patienten ist aber immer die Registrierung als Bildverarbeitungsschritt
erforderlich. Außerdem vergeht eine gewisse Zeit zwischen den beiden Aufnahmen.
In PET-CT-Kombinationsgeräten werden PET- und CT-Bilder praktisch simultan in
gleicher Patientenlage gemessen, so dass die Lage eines Tumors im Verhältnis zur
übrigen Anatomie unmittelbar dargestellt und der diagnostische Wert der Aufnahme
erhöht werden kann.

Quellenverzeichnis
Brunst G.: High resolution digital flat panel detectors for X-ray applications – basics. In:
Niederlag W., Lemke H. U. (Eds.): Medical imaging. Dresden: Health Academy 02, 2002: 63.
Buzug T. M.: Computed tomography. Heidelberg: Springer-Verlag, 2008.
Heinzerling J.: Röntgenstrahler. In: Ewen K. (Hrsg.): Moderne Bildgebung. Stuttgart: Thieme Verlag,
1998: 77.
Hsieh J.: Computed tomography. Bellingham: SPIE Press, 2003.
Kalender W. A.: Computertomographie. München: Publicis MCD Verlag, 2000.
Kalender W. A., Seissler W., Vock P.: Single-breath-hold spiral volumetric CT by continuous patient
translation and scanner rotation. Radiology 1989; 173: 4.
Morneburg H. (Hrsg.): Bildgebende Systeme für die medizinische Diagnostik. München: Publicis
MCD Verlag, 1995.
Nagel H. D. (Hrsg.): Strahlenexposition in der Computertomographie, 3. Aufl. Hamburg:
CTB-Publications, 2002.
Radon J.: Über die Bestimmung von Funktionen längs gewisser Mannigfaltigkeiten. Berichte der
mathematisch-physikalischen Kl. Sächsischen Gesellschaft der Wissenschaften, Leipzig, 1917:
262.
3 Computertomographie | 111

Ruhlmann J., Oehr P., Biersack H. J. (Hrsg.): PET in der Onkologie – Grundlagen und klinische
Anwendung. Heidelberg: Springer-Verlag, 1998.
Seeram E.: Computed tomography. Philadelphia: W. B. Saunders Company, 2001.
Sternberg S.: CT scans: ‘a very high-dose’ diagnosis. USA Today 20, 2000.
Weisser G.: Technische Grundlagen der EBCT. In: Gaa J., Lehmann K. J., Georgi M. (Hrsg.):
MR-Angiographie und Elektronenstrahl-CT-Angiographie. Stuttgart: Thieme-Verlag, 2000: 145.

Testfragen
1. Worin unterscheiden sich die vier ersten Generationen der Computertomographie?
2. Was sind die Vorteile der Mehrschicht-Detektor-Technologie in der Computertomographie in Be-
zug auf die klinische Applikationen?
3. Welche Detektortypen gibt es in der Computertomographie?
4. Welchen Zusammenhang beschreibt das Fourier-Scheiben-Theorem?
5. Welche Art von Filterung wird bei der gefilterten Rückprojektion vorgenommen und welches Sig-
nal wird gefiltert?
6. Welche Bedeutung hat der Begriff „Pitch“ in der Spiral-CT? Welchen Wertebereich darf dieser
Parameter besitzen?
7. Welche Artefakte treten bei der CT auf und welche gemeinsame Ursache haben sie fast immer?
8. Was wird mit der Hounsfield-Skala beschrieben?
9. Mit welcher Technik können CT-Bilder des Herzens aufgenommen werden?
10. Welches sind die wichtigsten Maßnahmen zur Dosisreduktion bei der Computertomographie?
Thomas Mertelmeier
4 Tomosynthese

4.1 Grundprinzip, diagnostische Zielsetzung und historische Entwicklung | 114


4.2 Rekonstruktionsalgorithmen | 116
4.3 Systemoptimierung und Gerätetechnik | 124
4.4 Klinische Anwendungen | 126

Zusammenfassung: Aus mehreren Bildern, die aus verschiedenen Richtungen wie


beim Projektionsröntgen aufgenommen werden, können Schnittbilder durch den
Körper des Patienten erzeugt werden – der Trick mit der „Tomosynthese“ macht es
möglich. Nach einem historischen Rückblick auf die Entwicklung der klassischen
Schichttechnik und der digitalen Tomosynthese wird ein Überblick über die in der
Tomosynthese eingesetzten Bildrekonstruktionsalgorithmen gegeben. Neben der
Bildverarbeitung bestimmen als wesentliche Aufnahmeparameter die Art der Abtas-
tung, der Tomosynthesewinkel, die Zahl der Projektionen und die Strahlendosis die
erreichbare Bildqualität. Als Anwendungen stehen die Mamma-Tomosynthese, die
Lungenbildgebung und orthopädische Fragestellungen im Mittelpunkt.

Abstract: Tomosynthesis allows for the creation of cross sectional images of the body
using several images taken from various directions, similar to projection X-ray. This
chapter starts with a historical view on the development of conventional tomogra-
phy and digital tomosynthesis. Subsequently, an overview on image reconstruction
algorithms employed for tomosynthesis is given. The most important acquisition pa-
rameters that determine the achievable image quality, besides image processing, are
the tomosynthetic angle, the number of projections, and the radiation dose. Finally,
the most prominent applications, namely breast tomosynthesis, chest tomosynthesis,
and orthopedics, are discussed.
114 | Thomas Mertelmeier

4.1 Grundprinzip, diagnostische Zielsetzung und historische


Entwicklung
Schon wenige Jahre nach der Entdeckung der Röntgenstrahlung durch W. C. Rönt-
gen im Jahre 1895 kamen Ideen auf, wie man mit Röntgenstrahlung nicht nur
Schattenbilder erzeugen könnte, sondern auch Information über die räumliche
Struktur des zu untersuchenden Objekts gewinnen könnte. Das Grundprinzip ist,
mehrere Aufnahmen des Objekts aus unterschiedlichen Richtungen aufzunehmen
und so auch Teile sichtbar zu machen, die bei einer reinen Projektionsaufnahme
durch darüber- oder darunterliegende Strukturen abgeschwächt oder ganz verdeckt
würden. Diese Methoden vor der Zeit der Computertomographie werden oft unter
den Namen „klassische Tomographie“, „konventionelle Tomographie“ oder
„Verwischungstomographie“ zusammengefasst.
Dabei gibt es aber sehr viele Varianten ähnlicher Verfahren, die sich durch De-
tails der Bilddatenakquisition unterscheiden. Allen Verfahren ist gemeinsam, dass die
Röntgenröhre sich relativ zum Objekt bewegt und so Aufnahmen aus unterschiedli-
chen Blickrichtungen gemacht werden, d. h., man schaut sozusagen um sich überde-
ckende Details herum und reduziert damit den Überlagerungseffekt. Um eine schar-
fe Abbildung in einer ausgewählten Ebene zu erhalten, erfolgt die Röhrenbewegung
um einen Drehpunkt (Fulcrum) in dieser Ebene, was dazu führt, dass alle Punkte au-
ßerhalb der Ebene unscharf, d. h. durch die Bewegung verwischt abgebildet werden.
Daher hat sich der Name Verwischungstomographie herausgebildet. Je nach Umfang
der Bewegung muss auch der Bildempfänger synchronisiert mitbewegt werden, um
ein genügend großes Bildfeld zu erhalten.
Die einfachste Variante ist die lineare Verwischungstomographie (󳶳Abb. 4.1).
Hierbei bewegen sich Röhre und Detektor gegenläufig um das Objekt auf parallelen
Geraden. Erfolgt die Bewegung um einen Punkt in der Ebene S1, so werden die Punkte
in dieser Ebene immer auf den gleichen Ort im Detektor abgebildet und dabei trotz
der Bewegung aufsummiert, während die Punkte einer anderen Ebene verschmiert
werden. Genauso kann eine andere Ebene, z. B. S2, scharf abgebildet werden. Je-
doch ist hierfür eine weitere Schichtaufnahme, d. h. ein Scan erforderlich, was die
Strahlungsdosis für die Abbildung eines ganzen Volumens erheblich in die Höhe
treibt.
Die Erfindung der Planigraphie von Bocage [Bocage 1922] markiert den Beginn
der selektiven Schichtbilddarstellung Hierbei bewegen sich Röhre und Detektor in
horizontalen parallelen Ebenen gegenläufig zueinander. Die oben beschriebene li-
neare Verwischungstomographie ist die einfachste Variante der Planigraphie. Ziedses
des Plantes veröffentlichte 1931 seine Arbeiten zur Planigraphie [Ziedses des Plan-
tes 1931]. Weil er als Erster die neue Technik in der Praxis, nämlich auf Schädelauf-
nahmen, anwandte, wird er häufig als der Erfinder der Tomographie betrachtet. Bei
der Stratigraphie [Vallebona 1931] bewegen sich Röhre und Bildempfänger in einer
Art C-Bogen-Geometrie, d. h. mit konstantem Abstand voneinander. Allerdings lässt
4 Tomosynthese | 115

Röntgenfokus

S1 S1
S2 S2

δS

δS
δS
Bildempfänger

Abb. 4.1: Schnittbildgenerierung mit linearer Bewegung von Röntgenquelle und Bildempfänger.
Quelle: Härer 1999, mit freundlicher Genehmigung von Springer Science and Business Media.

sich damit nicht eine komplette Ebene scharf abbilden, sondern nur der Drehpunkt.
Auch Mischformen der Bewegung wurden erprobt. Mit der Bewegung des Detektors
parallel zu einer Ebene durch den Patienten erreicht man, dass diese Ebene scharf
abgebildet wird, auch mit einer sich auf einem Bogen bewegenden Röntgenquelle.
Dieses Prinzip wurde 1934 von Grossmann [Grossmann 1934] patentiert und Tomo-
graphie genannt. Der Begriff Tomographie setzte sich als Oberbegriff für alle Schicht-
verfahren durch. Eine in der Dentalradiographie relevante Variante ist die Panto-
mographie [Paatero 1949], welche die Grundlage der heutigen Dentalpanoramaauf-
nahme (Orthopantomographie) darstellt. Dabei werden die Zahnreihen des Kiefers
auf gekrümmten Flächen entlang des Kieferbogens abgebildet. Ein aufschlussreicher
historischer Überblick über die Historie der Tomographieverfahren wurde von Webb
gegeben [Webb 1990], eine Einführung in die klassische Tomographie ist in Härer
[2001] zu finden.

Tomosynthese: Abbildung von Schichten, berechnet aus mehreren Röntgenprojektionen, aufge-


nommen aus einem eingeschränkten Winkelbereich.
116 | Thomas Mertelmeier

Die klassische Verwischungstomographie ist der Vorläufer der digitalen Tomosyn-


these. Bei dieser wird das Schichtbild nicht durch Aufsummieren während der Bild-
datenakquisition generiert, sondern durch die digitale Nachbehandlung von einzeln
abgespeicherten Projektionsaufnahmen. Wie später beschrieben wird, ist es so in ein-
facher Weise möglich, retrospektiv aus dem Datensatz eines Scans jede beliebige Ebe-
ne durch das Objekt zu rekonstruieren. Damit einher geht ein immenser Dosisvorteil,
da nicht mehr – wie in der klassischen Tomographie – für jede Ebene ein eigener Scan
erforderlich ist. Mit der digitalen Tomosynthese sind die Schichtverfahren, welche
aufgrund der Erfindung der Computertomographie (CT) nahezu ausgestorben waren,
wieder aufgelebt. Die wesentlichen Gründe dafür waren die Einführung schneller
digitaler Röntgendetektoren und die für die schnelle Rekonstruktion erforderliche
Rechenleistung moderner Computer.

4.2 Rekonstruktionsalgorithmen
In diesem Abschnitt soll ein Überblick über die Rekonstruktionsverfahren gegeben
werden, die für die Tomosynthese eingesetzt werden. Dabei beschränken wir uns im
Wesentlichen auf die lineare Tomosynthese, d. h. Tomosynthese mit linearer Abtas-
tung, dasjenige Verfahren, das für die Brust- und Lungenbildgebung in der Praxis ein-
gesetzt wird.
Bei der Tomosynthese handelt es sich um ein dreidimensionales Abbildungsver-
fahren, das wegen des eingeschränkten Winkelbereichs auf unvollständiger Abtas-
tung des Objekts beruht, d. h., es handelt sich um „limited angle tomography“. Der
Tomosynthesewinkel, d. h. der Winkel, um den das Messsystem geschwenkt wird,
beträgt typischerweise bei den heute eingesetzten Systemen zwischen 10 und 60°.
Im Gegensatz zur Verwischungstomographie, bei der während des Scans kontinuier-
lich das Schichtbild aufsummiert wird, werden bei der Tomosynthese endlich viele
Projektionen gemessen, d. h., nicht nur der Winkelbereich ist eingeschränkt, sondern
auch das Winkelinkrement ist endlich. Aus Dosisgründen ist mit verrauschten Projek-
tionsdaten zu rechnen. Dies alles führt dazu, dass das inverse Problem nicht exakt ge-
löst werden kann und notwendigerweise mit Artefakten zu rechnen ist. Ein aussichts-
reicher Rekonstruktionsalgorithmus muss diesen Herausforderungen Rechnung tra-
gen. Die analytischen Verfahren sind vergleichbar bzw. Weiterentwicklungen der CT-
Rekonstruktion, basierend auf der gefilterten Rückprojektion (FBP). Die iterativen
Verfahren gehen ähnliche Wege, wie sie in den Kapiteln über SPECT (s. 󳶳Kap. 5) und
PET (s. 󳶳Kap. 6) beschrieben werden.
4 Tomosynthese | 117

4.2.1 Analytische Algorithmen

Obwohl sich die für die Tomosynthese eingesetzten Bildrekonstruktionsalgorithmen


an denen der CT orientieren, sind wegen der unvollständigen Abtastung Unterschiede
zu erwarten. Einige der in der Tomosynthese verwendeten Algorithmen wurden in der
Literatur beschrieben [Dobbins 2003, Wu 2004]. Eine Diskussion der Tomosynthese
im Rahmen der rekonstruktiven 3D-Bildgebung wird in [Härer 1999] präsentiert.
Das der Tomosynthese zugrunde liegende Konzept ist die „Synthetisierung“ von
Bildebenen (Schnittbildern) durch das Objekt aus der Menge der gemessenen Projek-
tionsbilder. Die rekonstruierten Ebenen sind i. A. parallel zur Detektoroberfläche, da
die Abtastung in einem kleinen Winkelbereich relativ zur Detektornormalen erfolgt
und damit Information aus der orthogonalen Richtung fehlt. Dies wird im Folgenden
anhand der linearen Tomosynthese beschrieben (󳶳Abb. 4.1). Definieren wir die Pro-
jektion p(x, y) als die logarithmierten Messdaten

I(x, y)
p(x, y) = − ln ( ) (4.1)
I0

wobei I(x, y) die gemessenen Intensitäten an den Bildkoordinaten x, y eines Projekti-


onsbildes und I0 die einfallende Intensität bezeichnen. Im einfachsten Fall wird ein
Schichtbild durch das Verschieben der einzelnen Projektionen so rekonstruiert, dass
Objekte in der scharf abzubildenden Ebene aufsummiert werden.

Center of Rotation (COR; dt. Rotationszentrum; auch fulcrum): Punkt, in dem sich bei der Tomo-
synthese alle Verbindungslinien vom punktförmig gedachten Röntgenfokus zum Zentrum der Bild-
ebene schneiden.

Betrachten wir N Projektionen pi (x󸀠 , y󸀠 ), (i = 1, . . ., N) eines abzubildenden Punktes


(x, y, z), aufgenommen mit einem in x-Richtung translationsinvarianten linearen To-
mosynthesesystem mit Scanrichtung y (󳶳Abb. 4.2). Dann ergibt sich das so rekonstru-
ierte Bild g(x, y, z) bis auf eine Normierungskonstante als Summe über die verschobe-
nen Projektionen
N N
g(x, y, z) = ∑ pi (x󸀠 , y󸀠i − ci ) = ∑ pi (x󸀠 , y󸀠i ) ∗ 𝛿(y󸀠i − ci ) , (4.2)
i=1 i=1

was als Summe über die Faltung (∗) mit einer Deltafunktion geschrieben werden kann.

Hierbei sind die Koordinaten y󸀠i − ci auf dem Detektor bezüglich des Fulcrums ver-
schoben. Die Größe y󸀠i -ci hängt von der Aufnahmegeometrie und von den Koordinaten
118 | Thomas Mertelmeier

ys1 ys2 ys3

(x,y,z)

L
COR

zCOR

y'3 y'2 c3 c2 c1 y'1

Abb. 4.2: Lineare Tomosynthesegeometrie, illustriert mit 3 Projektionen, jeweils mit dem Strahl
durch das Fulcrum (center of rotation, COR) und dem Strahl durch den abzubildenden Punkt (x, y, z).

x, y, z des abzubildenden Punktes ab. Für die in 󳶳Abb. 4.2 illustrierte Geometrie gelten
(i = 1, . . . , N für N Projektionen):
L z
y󸀠i = y− y (4.3)
L−z L − z si
und
zCOR
ci = −
y (4.4)
L − zCOR si
Hier bezeichnen L den Fokus-Detektor-Abstand, ysi die y-Koordinate des Röntgenfo-
kus und zCOR die z-Koordinate des Fulcrums (center of rotation).
Die Objekte außerhalb der abzubildenden Ebene z erscheinen jedoch bei der Sum-
mation an verschiedenen Stellen als mehr oder weniger schwache Artefakte. Dieses
Verfahren wird im Allgemeinen als Shift-and-Add-Algorithmus bezeichnet [Nikla-
son 1997] und ist äquivalent zur ungefilterten Rückprojektion, bei der die Werte der
Projektionen durch den abzubildenden Punkt entsprechend aufsummiert werden.
Dieser Algorithmus ist zwar einfach und schnell, leidet aber unter erheblichen
Artefakten, sowohl innerhalb der rekonstruierten Ebene (Verwischungsartefakte)
als auch senkrecht dazu (Out-of-plane-Artefakte). Deshalb werden auch in der To-
mosynthese, wie in der CT, Algorithmen vom Typ gefilterte Rückprojektion (Filtered
Backprojection, FBP) eingesetzt. Basierend auf der grundlegenden Arbeit von Grant
[Grant 1972], einer Methode mit dem Namen Ectomographie [Edholm 1980] und dem
Prinzip der inversen Filterung [Matsuo 1993], formulierten Lauritsch und Härer
[Lauritsch 1998] ein FBP-Verfahren zunächst für die zirkulare Tomosynthese, das sich
durch spezielle Filter zum Unterdrücken der Bildartefakte auszeichnet. Dieses Ver-
fahren kann auch für die lineare Tomosynthese formuliert werden [Haerer 1998, Mer-
telmeier 2006]. Unter der Annahme, dass das System nicht nur linear, sondern auch
4 Tomosynthese | 119

verschiebungsinvariant ist, lassen sich die Methoden der Systemtheorie (s. 󳶳Kap. 21)
anwenden. Die Verschiebungsinvarianz ist bei Parallelstrahlgeometrie gegeben und
kann bei hinreichend großem Fokusabstand näherungsweise angenommen werden.
Gemäß dem Fourier-Slice-Theorem (s. 󳶳Kap. 3.4.1), auch Projection-Slice-
Theorem genannt, wird bei der Datenaufnahme, approximiert in Parallelstrahlgeo-
metrie, die Ebene senkrecht zur Strahlrichtung abgetastet (󳶳Abb. 4.3 (a)). Während
eines Tomosynthese-Scans entlang der y-Achse (und Translationsinvarianz entlang x)
um den Winkel 2𝛼 (−𝛼 bis +𝛼) werden also die Daten auf den in einem Doppelkeil mit
Öffnungswinkel 2𝛼 angeordneten Ebenen im Frequenzraum gemessen (󳶳Abb. 4.3 (b)).
D. h., für einen typischen Tomosynthesewinkel 𝛼 wird nur ein kleiner Teil des Fre-
quenzraums abgetastet.
Im Sinne der Systemtheorie kann das Rekonstruktionsproblem folgendermaßen
formuliert werden. Die Systemgleichung

G(u) = H(u) ⋅ F(u) (4.5)

verknüpft die Fouriertransformierte F(u) der Objektfunktion f (r) (ortsabhängiger


Schwächungskoeffizienten) mit der Fouriertransformierten der rekonstruierten Ob-
jektfunktion G(u) durch die Übertragungsfunktion H(u), wobei u = (ux , uy , uz ) den
dreidimensionalen Ortsfrequenzvektor bezeichnet. Da das inverse Problem nicht
exakt gelöst werden kann, nehmen wir an, dass die Übertragungsfunktion in eine
Filterfunktion Hfilter und in einen Projektions-Rückprojektions-Anteil HP aufgespaltet
werden kann,
H(u) = Hfilter (u) ⋅ HP (u) (4.6)
Die Filterfunktion Hfilter wird wiederum in Anteile zerlegt, welche die Inversion des
Projektions-Rückprojektions-Vorgangs und eine zusätzliche Filterung beschreiben.
Diese zusätzliche Filterfunktion ist erforderlich, um einerseits das Rauschen der
Messdaten zu unterdrücken (Regularisierung) und andererseits die aufgrund der
unvollständigen Abtastung zu erwartenden Artefakte zu reduzieren. Gleichzeitig
kann damit der Bildcharakter gesteuert werden, in ähnlicher Weise wie in der CT
verschiedene Rekonstruktionsfilterkerne eingesetzt werden.
Damit schreiben wir die Filterfunktion als

Hfilter (ux , uz ) = Hspectrum (uy ) ⋅ Hprofile (uz ) ⋅ Hinverse (uy , uz ) (4.7)

wobei Hinverse die Übertragungsfunktion des Projektions-Rückprojektions-Prozesses


im abgetasteten Bereich darstellt und für die Abtastung mit konstantem Winkelin-
krement gegeben ist durch

2Hinverse (uy , uz ) = 2𝛼√u2y + u2z für |uz | < |uy | tan(𝛼) ,


(4.8)
=0 sonst

D. h., Hinverse ist proportional zum Rampenfilter im abgetasteten Bereich. Mit


realistischen verrauschten Daten verstärkt der Rampenfilter bekanntermaßen das
120 | Thomas Mertelmeier

Röntgenfokus-Trajektorie

z
uz

Abtastebene ux

uξ uη

y uy

x
(a) (b)

Abb. 4.3: Datenakquisition bei Scan entlang y: (a) Mit der bei Winkel 𝜑(−𝛼 ≤ 𝜑 ≤ 𝛼) liegenden
Röhre werden die Daten in der gekennzeichneten Ebene (sampling plane) gemessen. (b) Bewegt
sich die Röhre über einen Winkelbereich von −𝛼 bis 𝛼, wird im Frequenzraum der gekennzeichnete
Doppelkeil abgetastet. Die Beziehung zwischen Objektfrequenzraum (ux , uy , uz ) und Projektionsfre-
quenzraum (u𝜉 , u𝜂 ) ist angedeutet.

Rauschen. Dies kann durch den Spektralfilter Hspectrum kompensiert werden. Für den
Spektralfilter kann beispielsweise ein von-Hann-Filter (auch „Hanning-Filter“
genannt) gewählt werden:
𝜋 𝜔y
Hspectrum (𝜔y ) = 0,5 (1 + cos ( )) für |uy | < A
A (4.9)
=0 sonst

mit dem Parameter A (A > 0), um hohe Frequenzen zu unterdrücken.


Selbst nach Anwendung dieser Filter verursacht die Unstetigkeit in uz -Richtung
zwischen abgetastetem und nicht abgetastetem Bereich (󳶳Abb. 4.3 (b)) Überschwing-
und Out-of-plane-Artefakte im rekonstruierten Bild. Deshalb kann es vorteilhaft sein,
den stufenförmigen Übergang mit einem sogenannten Schichtdickenfilter Hprofile (uz )
zu vermeiden. Damit können das Schichtprofil bzw. die Schichtdicke gesteuert [Lau-
ritsch 1998] und die Tomosynthese-typischen Out-of-plane-Artefakte unterdrückt wer-
den.
In einfachster Form wird der Schichtdickenfilter ebenfalls durch eine Hanning-
Funktion ausgedrückt:
𝜋𝜔z
Hprofile (𝜔z ) = 0,5 (1 + cos ( )) für |uz | < B und |uz | < tan(𝛼)|uy | ,
B (4.10)
=0 sonst.

Mit dem Parameter B wird die Grenzfrequenz in uz und damit die Schichtdicke
bzw. das Schichtprofil im Bildraum eingestellt. Jedoch verhindert die unvollstän-
4 Tomosynthese | 121

uz ichs
Bere
ete n
tast
s abge
de
nze
uz-max Gre „vollständige” Abtastung

α
uy
Hprofile

Abb. 4.4: Die Einführung der Schichtdickenfilterfunktion Hprofile (uz ) gewährleistet ein konstantes
Schichtprofil über einen weiten Frequenzbereich.

dige Datenaufnahme ein konstantes Schichtprofil über den kompletten Frequenz-


raum (󳶳Abb. 4.4). Falls die Grenzfrequenz in uz innerhalb des abgetasteten Bereichs
liegt, ist die Schichtdicke wohldefiniert. Für kleine Frequenzen in Scanrichtung,
uy < uz−max / tan(𝛼), wächst die Schichtdicke an. Anders als bei der CT kann in
der Tomosynthese kein konstantes Schichtprofil erzielt werden. Vielmehr hängt die
Schichtdicke vom Frequenzinhalt des Objekts ab.
Für den Rückprojektionsschritt ist die exakte Berücksichtigung der Projekti-
onsgeometrie entscheidend. Eine geeignete Methode dazu ist die Verwendung von
Projektionsmatrizen, welche die Geometrie der Datenaufnahme beschreiben [Wiesent
2000]. Damit können die vielfältigen Tomosynthese-Aufnahmegeometrien behandelt
werden; es müssen nur die Projektionsmatrizen für jede Projektion bekannt sein. Die-
se können entweder bei der Datenakquisition mitgemessen oder bei ausreichender
mechanischer Stabilität durch Kalibrierung vorab bestimmt werden. Die von Webber
für die Dentalbildgebung entwickelte Methode Tuned Aperture Computed Tomography
(TACT) ist auf beliebige Abtastbahnen anwendbar und verwendet künstliche Marker,
um die Aufnahmegeometrie retrospektiv zu bestimmen [Webber 1997].
Eine Eigenschaft der FBP-basierten Rekonstruktion ist die Unterdrückung der
niedrigen Frequenzen aufgrund der Dominanz des Rampenfilters bei kleinen Ortfre-
quenzen. Dies führt zu einem durch Kantenverstärkung dominierten Bildeindruck
und Verlust von Graustufeninformation. Aus diesem Grund wurde ein alternativer
Filtermechanismus formuliert [Kunze 2007, Ludwig 2008]. Dabei wurde der Filter aus
einem iterativen Rekonstruktionsverfahren (simultaneous iterative reconstruction
technique, SIRT) abgeleitet, was zu einer realistischen Grauwertdarstellung führt, wie
sie auch mit iterativer Rekonstruktion erhalten wird. Der mathematische Grund dafür
ist ein nicht verschwindender Beitrag der Filterfunktion bei der Frequenz 0. Das heißt,
122 | Thomas Mertelmeier

eine generelle Eigenschaft der Tomosynthese ist es, den Schwächungskoeffizienten


nicht quantitativ zu rekonstruieren. Deshalb sind für die Bewertung verschiedener
Algorithmen neben dem subjektiven Bildeindruck klinische Studien erforderlich.
Die gefilterte Rückprojektion hat als analytischer Rekonstruktionsalgorithmus
die Vorteile, dass sie effizient und als Pipeline-Struktur implementiert und die Bild-
qualität mithilfe eines speziellen Filterdesigns an die jeweilige Sehaufgabe angepasst
werden kann. Andererseits sind diese Algorithmen weniger geeignet, mit dem Pro-
blem der unvollständigen Datenaufnahme umzugehen, die ja die Ursache für die
Tomosynthese-typischen Artefakte ist. Deshalb machen wir im folgenden Abschnitt
einen Ausflug in die Welt der iterativen Rekonstruktionsalgorithmen.

4.2.2 Iterative Rekonstruktion

Eine Alternative zur deterministischen FBP-Rekonstruktion ist, mit einem stochasti-


schen Modell die statistische Natur der Röntgenquanten zu berücksichtigen und da-
mit die Wahrscheinlichkeit für die gemessenen Daten zu maximieren (Maximum-Li-
kelihood-Schätzung). Auch andere physikalische Phänomene der Datenaufnahme
können als Randbedingung modelliert werden, was die Rekonstruktionsqualität er-
höhen kann. Eine weitere Erwartung ist, dass die Tomosynthese-typischen Arte-
fakte reduziert werden können, da während der Rekonstruktion permanent mit den
Messdaten verglichen wird. Außerdem versprechen solche Algorithmen, die Strah-
lungsdosis zu reduzieren, da die wirkliche Quantenstatistik zugrunde liegt. Auch die
klassischen iterativen Algorithmen wie ART (Algebraic Reconstruction Theory), SART
(Simultaneous ART) und SIRT (Simultaneous ART) werden untersucht und eingesetzt.
Der generelle Ablauf bei einer iterativen Rekonstruktion besteht aus folgenden
Schritten:
1. Schätzung eines Startwertes für die gesuchte Funktion des dreidimensionalen
Schwächungskoeffizienten f (0)
2. Berechnung der Vorwärtsprojektionen der Objektfunktion im Iterationsschritt k,
k = 1, . . ., Nit (Zahl der Iterationen)
3. Vergleich der berechneten Projektionen mit den gemessenen Projektionen
4. Berechnung einer verbesserten Objektfunktion basierend auf Schritt 3
5. Iteration der Schritte 2 bis 4, bis ein Abbruchkriterium erfüllt ist.

Unterschiedliche iterative Algorithmen unterscheiden sich durch die Art und Weise,
wie die Objektfunktion bei jedem Iterationsschritt aktualisiert wird.
In [Wu 2003, Wu 2004 und Zhang 2006] wird über die Anwendung iterativer Re-
konstruktionsalgorithmen bei der Brust-Tomosynthese berichtet.
4 Tomosynthese | 123

4.2.3 „Deblurring“-Methoden

Bevor die in 󳶳Kapitel 4.2.2 beschriebenen iterativen Algorithmen für die Tomosynthe-
se aufkamen, wurde als Alternative zur Entwicklung neuartiger Filter zur Artefaktun-
terdrückung (s. 󳶳Kap. 4.2.1) versucht, die typischen Verwischungs- und Out-of-Plane-
Artefakte mit speziellen Verfahren zu reduzieren. Die wichtigsten davon werden im
Folgenden kurz angerissen.
Beim sogenannten iterativen „Deblurring“ (iterative restoration) – entwickelt von
Ruttiman et al. [Ruttiman 1984, Suryanarayanan 2000] – werden Strukturen außer-
halb der zu rekonstruierenden Ebene mithilfe der aus der Geometrie abgeleiteten
Übertragungsfunktion [Grant 1972] unterdrückt. Das Verfahren erlaubt die gleich-
zeitige Entfaltung aller mit dem Shift-and-Add-Algorithmus rekonstruierten Ebenen.
Dazu muss ein Gleichungssystem, das den Einfluss der benachbarten Ebenen be-
schreibt, iterativ gelöst werden, um die Verwischungsartefakte zu subtrahieren.
Diese Methode der iterative Restoration ähnelt der sogenannten Matrix Inversion
Tomosynthesis (MITS) [Godfrey 2001, Dobbins 2003], welche die mit Shift-and-Add-
Algorithmus berechneten Tomosynthese-Schichtbilder ti , i = 1, . . ., n, aus den echten
Objektschichten sj , j = 1, . . .n, durch Faltung mit den Verwischungs-Übertragungs-
funktionen fij ausdrückt:

t1 = s1 ∗ f11 + s2 ∗ f12 + . . . + sn ∗ f1n


.. .. (4.11)
. .
tn = s1 ∗ fn1 + s2 ∗ fn2 + . . . + sn ∗ fnn .

Die Fouriertransformation ergibt das Gleichungssystem

T1 = S1 ⋅ F11 + S2 ⋅ F12 + . . . + Sn ⋅ F1n


.. (4.12)
.
Tn = S1 ⋅ Fn1 + S2 ⋅ Fn2 + . . . + Sn ⋅ Fnn

in Matrixschreibweise
T = F ⋅ S. (4.13)
Die Inversion dieses Gleichungssystems liefert schließlich die Schichtbilder als inver-
se Fouriertransformation von F −1 ⋅ T. Diese Methode liefert gute Ergebnisse für die
Lungentomosynthese [Godfrey 2006], leidet jedoch an Rauschen bei niedrigen Orts-
frequenzen. Der Grund hierfür ist die schlechte Konditionierung des zu invertierenden
Gleichungssystems bei niedrigen Frequenzen, da die Tiefenauflösung dort aufgrund
der fehlenden Information relativ gering ist (󳶳Abb. 4.3).
Ein weiteres Verfahren ist die nichtlineare Rückprojektion, bei der für die Re-
konstruktion einer Ebene Projektionswerte weggelassen werden, von denen erwartet
wird, dass sie nicht zum Signal beitragen bzw. für eine aus einer anderen Ebene
124 | Thomas Mertelmeier

kommenden Artefaktstruktur verantwortlich sind. Mit der Minimumoperation kön-


nen beispielsweise Projektionen identifiziert werden, die sich erheblich vom Beitrag
anderer Projektionen unterscheiden (Ausreißer) und damit für die Rückprojekti-
on ausgeschlossen werden [Claus 2002]. Dieses Verfahren liefert hauptsächlich für
Objekte mit hohem Kontrast brauchbare Ergebnisse.
Alle Methoden zur Artefaktreduktion sind jedoch relativ aufwendig und leiden
unter verstärktem Rauschen. Deshalb sind Rekonstruktionsalgorithmen zu bevorzu-
gen, die inhärent Artefakte unterdrücken.

4.3 Systemoptimierung und Gerätetechnik


4.3.1 Systemoptimierung

Die Abbildungseigenschaften und die Bildqualität eines Tomosynthesesystems hän-


gen von vielen Parametern ab, d. h., Design und Optimierung sind ein Multiparame-
terproblem.
Im Folgenden werden die wichtigsten Systemparameter der linearen Tomosynthe-
se diskutiert.

4.3.2 Aufnahmemodi

Eine Vielzahl von möglichen Geometrien für die synchronisierte Bewegung von Strah-
lungsquelle und Detektor relativ zum Objekt ist denkbar. In 󳶳Abb. 4.5 (a) ist die ge-
radlinige Bewegung sowohl von Röhre als auch von Detektor illustriert. Jedoch kann
sich die Röhre bei geradliniger Detektorbewegung auch auf einem Kreisbogen um das
Objekt bewegen (󳶳Abb. 4.5 (b)). Bei einer C-Bogen-Geometrie (󳶳Abb. 4.5 (c)) bewegen
sich sowohl Röhre als auch Detektor synchron auf einem Kreisbogen.
In der Mammographie befindet sich die Brust in unmittelbarer Nähe zum Detek-
tor, um aufgrund der hohen Detektorauflösung eine hohe Systemauflösung zu erzie-
len. Deshalb wird hier meist der Detektor gar nicht oder nur sehr gering bewegt. Mit
allen diesen Varianten ist die Realisierung der linearen Tomosynthese möglich. Die
Geometrie muss lediglich bei der Bildrekonstruktion korrekt berücksichtigt werden.
Da die meistens eingesetzten Detektoren einen festen Zyklus für Bestrahlungs-
und Auslesezeitintervall haben, wird die Röhre gepulst. Dabei kommen Systeme zum
Einsatz, bei denen sich das Messsystem zwischen den Aufnahmen der Einzelprojek-
tionen von einer Winkelposition zur nächsten bewegt, während der Aufnahme jedoch
steht (sogenannte Step-and-Shoot-Betrieb). Es gibt aber auch Systeme mit kontinu-
ierlicher Bewegung; in letzterem Fall besteht die Gefahr der Bewegungsverwischung.
Bei den heute eingesetzten Tomosynthesesystemen ist die Bewegung allerdings rela-
4 Tomosynthese | 125

geradlinige Bewegung Bewegung der Röhre C-Bogen-


(a) von Röhre und Detektor (b) auf einem Kreisbogen (c) Geometrie

Abb. 4.5: Geradlinige Bewegung von Röhre und Detektor (a), Bewegung der Röhre auf einem Kreis-
bogen (b), C-Bogen-Geometrie (c).

tiv langsam, so dass sich diese Verunschärfung in der Praxis nicht auswirkt und nur
einen kleinen Beitrag zur Systemauflösung darstellt.
Die Aufnahmezeit kann verkürzt werden, wenn beim Auslesen des Detektors Pixel
zusammengefasst werden (pixel binning). Der Verlust der Auflösung wird in der Bild-
qualität durch ein höheres Signal-Rausch-Verhältnis kompensiert. Details hängen
vom Systemdesign, von den Eigenschaften des Detektors und von der Anwendung ab.

4.3.3 Tomosynthesewinkel, Anzahl der Projektionen und Dosis

Der als Tomosynthesewinkel bezeichnete Scanwinkel (2𝛼) beeinflusst die Tiefenschär-


fe und die sogenannte vertikale Auflösung. Je größer der Winkelbereich ist, desto hö-
her wird die Tiefenauflösung, desto kleiner wird die effektive Schichtdicke und desto
weniger Out-of-plane-Artefakte erhält man. Aber auch die Kontrastauflösung von Ob-
jekten mit niedrigem Frequenzinhalt kann mit einem größeren Tomosynthesewinkel
gesteigert werden [Zhao 2009, Mertelmeier 2008], da mehr Information speziell bei
kleinen Ortsfrequenzen vorhanden ist (󳶳Abb. 4.3 und 4.4). Jedoch ist zu bedenken,
dass bei Verwendung eines stationären, nicht mitbewegten Detektors das zugängli-
che Volumen durch die Schrägeinstrahlung verringert wird. Aus der CT ist bekannt,
dass die Abtastung mit zu wenigen Projektionen zu Streifenartefakten führt. Dies gilt
auch in der Tomosynthese, bei der i. A. das Winkelinkrement nicht größer als einige
Grad sein sollte, um diese Streifenartefakte zu vermeiden. Da die heutigen Tomosyn-
thesesysteme trotz eines speziellen Detektormodus eher Radiographiesystemen als
CT-Systemen ähneln, wird die Zahl der Projektionen in der Praxis durch die minimal
126 | Thomas Mertelmeier

mögliche Dosis für den Detektor bestimmt, um die Gesamtdosis auf die Größenord-
nung einer Radiographie zu begrenzen. Bei gegebener Bildrate des Detektors erhöhen
mehr Projektionen die Aufnahmezeit.
In der Praxis muss ein Kompromiss zwischen Bildqualität in Form von Auflösung,
Rauschen, Artefaktniveau, Dosis und Untersuchungszeit gefunden werden. Dieser
Kompromiss hängt vom eingesetzten Instrumentarium und von der Anwendung ab.

4.3.4 Gerätetechnik

Mit Stand von Frühjahr 2012 sind nach Wissen des Autors vier kommerzielle Tomo-
synthesesysteme für radiologische Anwendungen erhältlich. Alle Tomosynthesege-
räte sind als Modifikationen von Radiographie- bzw. Mammographiesystemen reali-
siert, was den praktischen Einsatz und die Akzeptanz erleichtert. Für den Einsatz in
der Mammographie ist die Tomosynthese gemäß der wissenschaftlichen Literatur
offensichtlich am interessantesten, da für diese Anwendung aufgrund der Strahlen-
belastung die Ganzkörper-CT nicht in Frage kommt. Deshalb sind für die mammogra-
phische Anwendung auch einige Prototypen in Entwicklung. Für alle anderen Anwen-
dungen steht als rekonstruktives 3D-Röntgenverfahren die CT mit echter 3D-Auflösung
zur Verfügung.

4.4 Klinische Anwendungen


Seit der ersten Konzeption der digitalen Tomosynthese werden zahlreiche klinische
Anwendungen diskutiert. Jedoch ist bei den meisten Anwendungen die CT als Konkur-
renzverfahren zu betrachten, was eine erfolgreiche Markteinführung erschwert und
die Tomosynthese als Nischenanwendung erscheinen lässt. Eine Ausnahme ist die
Brustbildgebung, da hier die CT aus Dosisgründen, zumindest heute, nicht als Alter-
native zur Verfügung steht. Deshalb wird im Folgenden zunächst die Anwendung auf
die Brustbildgebung beschrieben. Danach wird auf andere Einsatzgebiete eingegan-
gen.

4.4.1 Brust

Die Brust- oder Mamma-Tomosynthese erfährt momentan sowohl in der Forschung


als auch in der industriellen Entwicklung großes Interesse [Baker 2011]. Obwohl das
Mammographie-Screening die einzige Brustbildgebung ist, für die in randomisierten
kontrollierten Studien nachgewiesen wurde, dass damit die Mortalität (zwischen
20 und 40 %) gesenkt werden kann [Tabar 2000, Humphrey 2002, Nyström 2002,
Berry 2005, Bick 2006], ist die Röntgenmammographie keineswegs perfekt. Es wur-
4 Tomosynthese | 127

de gezeigt, dass bei der Filmmammographie zwischen 15 und 30 % der Karzinome


übersehen werden könnten [Bird 1992, Laming 2000]. Die digitale Mammographie
erlaubt zwar, die Dosis zu senken, bringt aber in Hinsicht auf die diagnostische
Leistungsfähigkeit höchstens eine geringe Verbesserung, wie in einer großen Studie
mit fast 50 000 Frauen nachgewiesen wurde [Pisano 2005]. Die Ursache dafür ist in
der komplexen Überlagerung von dichtem Brustgewebe bei der zweidimensionalen
Abbildung zu finden, wodurch Läsionen übersehen oder – im umgekehrten Fall –
vorgetäuscht werden können. D. h., sowohl Sensitivität als auch Spezifität sind nicht
optimal. Der Effekt dieser Gewebeüberlagerungen auf die Bildqualität wird oft als
anatomisches Rauschen oder Strukturrauschen bezeichnet. Durch die Rekonstruk-
tion von Schichten können solche Gewebeüberlagerungen stark reduziert werden.
Während eines der ersten Tomosynthesesysteme ein digitales Mammographiesys-
tem mit kleinem Bildfeld, CCD-Detektor und TACT-Rekonstruktion war [Lehtimäki
2003], konzentrieren sich die heutigen Entwicklungen auf digitale Vollfeldmammo-
graphiesysteme. Die Anforderungen bei der Anwendung auf die Mammographie sind
besonders hoch, da die zu entdeckenden Tumoren im Allgemeinen einen sehr kleinen
Kontrast aufweisen und für die Entdeckung und Beurteilung von Mikrokalzifikationen
eine hohe Ortsauflösung gegeben sein muss.
Ein Beispiel für eine Tomosyntheseaufnahme der Mamma ist in 󳶳Abb. 4.6 zu se-
hen. Es sind vier ausgewählte Schichten durch die Brust in der mediolateral-obliquen
Position dargestellt.
Schicht 1 und Schicht 39 (etwa 1 mm bzw. 39 mm über dem Objekttisch,
󳶳Abb. 4.6 (a) und (d)) der auf 40 mm komprimierten Brust zeigen die Hautpo-
ren, subkutanes Fett und oberflächennahe Gefäße. In Schicht 21 (in 21 mm Höhe,
󳶳Abb. 4.6 (b)) ist eine runde Struktur zu sehen, in Schicht 26 befindet sich der Schwer-
punkt einer Mikrokalkgruppe (26 mm Höhe, 󳶳Abb. 4.6 (c)). In den 󳶳Abb. 4.6 (e) und
(f) sind die Strukturen aus 󳶳Abb. 4.6 (b) und (c) vergrößert dargestellt.
󳶳Abb. 4.7 vergleicht eine Mammographieaufnahme (󳶳Abb. 4.7 (a)) mit einer To-
mosyntheseschicht (󳶳Abb. 4.7 (b)) derselben Brust. In diesem Fall eines sehr dichten
Brustgewebes wurde das Karzinom nur mithilfe der Tomosynthese gefunden. Die Re-
konstruktion dieser Schichtbilder erfolgte mit dem in 󳶳Kapitel 4.2.1 beschriebenen
FBP-Algorithmus.
Die Brusttomosynthese erscheint vielversprechend, da damit voraussichtlich
mehr Tumoren in einem frühen Stadium gefunden werden können wie in ersten
klinischen Studien gezeigt wurde [Andersson 2008, Teertstra 2010, Svahn 2010, Gur
2011, Svahn 2012]. Aber auch die Anzahl falsch positiver Befunde sollte sich redu-
zieren, da bei der tomosynthetischen Aufnahme mehr Information für die Diagnose
zur Verfügung steht. Dazu wurden bereits mehrere Studien mit kleineren Patienten-
kollektiven veröffentlicht [Poplack 2007, Gur 2009]. Darüber hinaus werden zurzeit
mehrere klinische Studien durchgeführt mit dem Ziel, die Einsatzgebiete (Screening,
diagnostische Abklärung, Patientinnenkollektiv) für die Tomosynthese besser zu
verstehen. Eine weitere zu klärende Frage ist die der Dosis. Während die heutigen
128 | Thomas Mertelmeier

(a) 1 (b) 21 (c) 26 (d) 37

(e) (f)

Abb. 4.6: Rekonstruierte Schichten durch die Brust in MLO-Projektion. Von unten nach oben ((a) bis
(d)), die Läsionen aus Schicht (b) und (c) sind in (e) und (f) vergrößert dargestellt. 25 Projektionen
über 45°. Quelle: Dr. I. Andersson, Universitätskrankenhaus Malmö, Schweden.

Systeme mit einer Parenchymdosis von etwa der ein- bis zweifachen Dosis eines di-
gitalen Mammogramms arbeiten, versprechen iterative Rekonstruktionsalgorithmen,
die Dosis in den Bereich der Dosis für ein Mammogramm zu senken.

4.4.2 Lunge

Das zweithäufigste Einsatzgebiet für die Tomosynthese dürfte zurzeit die Lungenbild-
gebung sein. Die wichtigste Anwendung ist die Entdeckung von Lungenknoten, die
mit zweidimensionaler Projektionsradiographie wegen überlappender Gewebestruk-
turen nur schwer zu finden sind. Hier könnte die Tomosynthese eine kostengünstige
Alternative mit niedriger Dosis zur CT darstellen. In einer kürzlich veröffentlichten
4 Tomosynthese | 129

(a) (b)

Abb. 4.7: Mammogramm in MLO-Projektion (a) und eine rekonstruierte Tomosyntheseschicht durch
dieselbe Brust (b), in welcher der in der Mammographie nicht gefundene Tumor sichtbar ist (ovale
Markierung). Quelle: Baker 2011, mit freundlicher Genehmigung von Elsevier, Copyright [2011].

Studie [Vikgren 2008] mit 89 Patienten konnte gezeigt werden, dass die Rate der loka-
lisierten Lungenknoten mit der Tomosynthese etwa um den Faktor 3 höher liegt als bei
der Projektionsradiographie bei weit niedriger Dosis als mit CT, jedoch bei niedrigerer
Spezifität. Die Effektivdosis wurde mit 0,13 mSv angegeben [Johnsson 2010], was nur
leicht über der einer Lungenaufnahme liegt. Ähnliche Ergebnisse wurden von Dob-
bins [Dobbins 2008] berichtet.

4.4.3 Orthopädie

Auch bei orthopädischen Anwendungen ist die Anforderung an die Ortsauflösung


hoch. Detektorbedingt haben Radiographiesysteme zum gegenwärtigen Zeitpunkt
eine höhere Auflösung als CT, was für das Finden und Bewerten feiner Frakturen
von Vorteil sein kann. Die Tomosynthese, implementiert auf einem Radiographie-/
Fluoroskopiesystem, liefert darüber hinaus dreidimensionale Information.
Der Vorteil der Tomosynthese für orthopädische Anwendungen wurde von Flynn
et al. [Flynn 2007] beschrieben. Die Rekonstruktion fand dabei mit einem Algorithmus
statt, welcher der in 󳶳Kapitel 4.2.1 beschriebenen gefilterten Rückprojektion sehr ähn-
lich ist. 󳶳Abb. 4.8 zeigt zwei Tomosyntheseschichten, rekonstruiert mit ungefilterter
Rückprojektion (󳶳Abb. 4.8 (a), (b)) entsprechend der konventionellen Tomographie
130 | Thomas Mertelmeier

(a) (b) (c) (d)

Abb. 4.8: Zwei Schichten durch ein Kniephantom im Abstand von 1,6 cm voneinander, aufgenom-
men mit einem Siemens Obertisch-Fluoroskopiesystem (51 Projektionen über einen Winkelbereich
von 56°), rekonstruiert mit ungefilterter Rückprojektion ((a), (b)) und mit gefilterter Rückprojektion
((c), (d)).

und mit der gefilterten Rückprojektion (󳶳Abb. 4.8 (c), (d)), wo deutlich der Kontrast-
und Schärfegewinn zu erkennen ist. Die Bildgebung von Fingergelenken zur Diagnose
von Arthritis ist eine weitere orthopädische Anwendung [Duryea 2003].

4.4.4 Dentalbildgebung

Als eine der ersten Anwendung wurde die digitale Tomosynthese für die Dentalbild-
gebung realisiert. Gründe hierfür dürften sein, dass digitale Detektoren mit kleiner
Fläche schon relativ früh zur Verfügung standen und die Panoramaschichtaufnahme
eine etablierte Technik war.

Panoramaschichtverfahren, Orthopantomographie: Verfahren zur Aufnahme einer dentalen Rönt-


genaufnahme, bei der alle Zähne des Ober- und Unterkiefers in einem Bild dargestellt werden.

Für sogenannte Intraoralsysteme mit kreisförmiger Röhrenbewegung außerhalb des


Kopfes wurde die zirkulare Tomosynthese mit TACT- oder FBP-Rekonstruktion [Web-
ber 1997, Lauritsch 1998] entwickelt. Ein Beispiel zur Darstellung zweier Schichten
durch einen Zahn ist in 󳶳Abb. 4.9 gegeben. Die Verbesserung durch die gefilterte Rück-
projektion (󳶳Abb. 4.9 (c), (d)) hinsichtlich Orts- und Kontrastauflösung gegenüber der
traditionellen Schichttechnik (ungefilterte Rückprojektion, 󳶳Abb. 4.9 (a), (b)) tritt
deutlich zutage.
4 Tomosynthese | 131

(a) (b)

(c) (d)

Abb. 4.9: Zwei Schichten durch ein Phantom eines Backenzahns mit 3 Wurzeln; (a), (b) ungefilterte
Rückprojektion, (c), (d) gefilterte Rückprojektion.

4.4.5 Weitere Anwendungen

In der langen Geschichte der Tomosynthese wurden und werden noch weitere An-
wendungen erprobt und erschlossen. Diese reichen von der Angiographie, Urologie
(intravenöses Pyelogramm) bis zur Darmbildgebung. Neuerdings wird die Tomosyn-
these als Bildgebungsmodalität bei der bildgestützten Strahlentherapie diskutiert
(s. 󳶳Kap. 19.7) [Pang 2008, Maltz 2009].
Bei allen Anwendungen sind die relativ leichte Verfügbarkeit, geringe Dosis, ex-
zellente Ortsauflösung in den Tomosyntheseschichten und niedrigen Kosten jedoch
mit der Verfügbarkeit von CT abzuwägen, womit im Gegensatz zur Tomosynthese ech-
te dreidimensionale Information gewonnen werden kann.
132 | Thomas Mertelmeier

Quellenverzeichnis
Andersson I., Ikeda D. M., Zackrisson S., Ruschin M., Svahn T., Timberg P., Tingberg A.: Breast
tomosynthesis and digital mammography: a comparison of breast cancer visibility and BIRADS
classification in a population of cancers with subtle mammographic findings. Eur Radiol 2008;
18: 2817–2825.
Baker J. A., Lo J. Y.: Breast tomosynthesis: state-of-the-art and review of the literature. Acad Radiol
2011; 18, 1298–1310.
Berry D. A., Cronin K. A., Plevritis S. K., et al.: Effect of screening and adjuvant therapy on mortality
from breast cancer. N Engl J Med 2005; 353: 1784–1792.
Bick U.: Mammographie-Screening in Deutschland: Wie, wann und warum? Fortschr Röntgenstr
2006; 178: 957–969.
Bird R. E., Wallace T. W., Yankaskas B. C.: Analysis of cancers missed at screening mammography.
Radiology 1992; 184: 613–617.
Bocage A. E. M.: Procédé et dispositifs de radiographie sur plaque en mouvement. Französisches
Patent 536464, 1922.
Claus B. E. H., Eberhard J. W.: A new method for 3D reconstruction in digital tomosynthesis. Proc SPIE
2002; 4684: 814–824.
Dobbins J. T. III, McAdams P., Song J.-W., et al.: Digital tomosynthesis of the chest for lung nodule
detection: interim sensitivity results from ongoing NIH-sponsored trial. Med Phys 2008; 35:
2554–2557.
Duryea J., Dobbins J. T. III, Lynch J. A.: Digital tomosynthesis of hand joints for arthritis assessment.
Med Phys 2003; 30: 325–333.
Edholm P., Granlund G., Knutsson H., Petersson C.: Ectomography – a new radiographic method for
reproducing a selected slice by varying thickness. Acta Radiologica 1980; 21: 433–442.
Flynn M. J., McGhee R., Blechinger J.: Spatial resolution of x-ray tomosynthesis in relation to
computed tomography for coronal/sagittal images of the knee. Proc SPIE 2007; 6510: 6510D1.
Godfrey D. J., Warp R. J., Dobbins J. T. III: Optimization of matrix inverse tomosynthesis. Proc SPIE
2001; 4320: 696–704.
Godfrey D. J., McAdams H. P., Dobbins J. T. III: Optimization of the matrix inversion tomosynthesis
(MITS) impulse response and modulation trransfer function characteristics for chest imaging.
Med Phys 2006; 33: 655–667.
Grant D. G.: Tomosynthesis: a three-dimensional radiographic imaging technique. IEEE Trans
Biomed Eng 1972; 19: 20–28.
Grossmann G.: Procédé et dispositif pour la représentation radiographique des section des corps.
Französisches Patent 771887, 1934.
Gur D., Abrams G. S., Chough D. M., et al.: Digital Breast Tomosynthesis: Observer Performance
Study. Am J Roentg 2009; 193: 586–591.
Gur D., Bandos A. I., Rockette H. E., Zuley M. L., Sumkin J. H., Chough D. M., Hakim C. M.: Localized
detection and classification of abnormalities on FFDM and tomosynthesis examinations rated
under an FROC paradigm. Am J Roentg 2011; 196: 737–741.
Härer W., Lauritsch G., Mertelmeier T.: Tomographie – Prinzip und Potenzial der
Schichtbildverfahren. In: Schmidt T. (Hrsg.): Handbuch Diagnostische Radiologie, Bd. 1,
Strahlenphysik, Strahlenbiologie, Strahlenschutz. Berlin: Springer, 2001: 191–199.
Härer W., Lauritsch G., Mertelmeier T., Wiesent K.: Rekonstruktive Röntgenbildgebung.
Physikalische Blätter 1999; 55: 37–42.
Haerer W., Lauritsch G., Zellerhoff M.: Verfahren zur Rekonstruktion eines dreidimensionalen Bildes
eines im Rahmen einer Tomosynthese abgetasteten Objekts sowie Vorrichtung zur
Tomosynthese. Patentschrift DE19842944, 1998.
4 Tomosynthese | 133

Humphrey L. L., Helfand M., Chan B. K., et al.: Breast cancer screening: a summary of the evidence
for the U. S. Preventive Services Task Force. Ann Intern Med 2002; 137: 347–360.
Johnsson Å. A., Vikgren J., Svalkvist A., et al.: Overview of two years of clinical experience of chest
tomosynthesis at Sahlgrenska university hospital. Radiation Protection Dosimetry 2010; 139:
124–129.
Kunze H., Haerer W., Orman J., Mertelmeier T., Stierstorfer K.: Filter determination for tomosynthesis
aided by iterative reconstruction techniques. In: 9th International Meeting on Fully Three-
Dimensional Image Reconstruction in Radiology and Nuclear Medicine, 2007; 309–312.
Laming D., Warren R: Improving the detection of cancer in the screening of mammograms. J Med
Screen 2000; 7: 24–30.
Lauritsch G., Haerer W. H.: A theoretical framework for filtered backprojection in tomosynthesis. Proc
SPIE 1998; 3338: 1127–1137.
Lehtimäki M., Pamilo M., Raulisto L., et al.: Diagnostic clinical benefits of digital spot and digital 3D
mammography. Proc SPIE 2003; 5029: 698–706.
Ludwig J., Mertelmeier T., Kunze H., Härer W.: A novel approach for filtered backprojection in
tomosynthesis based on filter kernels determined by iterative reconstruction techniques. In:
Krupinski E. (Hrsg.): Lecture Notes in Computer Science 5116, Digital Mammography, 9th
International Workshop, IWDM 2008. Berlin, Heidelberg: Springer, 2008: 612–620.
Maltz J. S., Sprenger F., Fuerst J., et al.: Fixed gantry tomosynthesis system for radiation therapy
image guidance based on a multiple source x-ray tube with carbon nanotube cathodes. Med
Phys 2009; 36: 1624–1636.
Matsuo H., et al.: Three-dimensional image reconstruction by digital tomo-synthesis using inverse
filtering. IEEE Transactions on Medical Imaging 1993; 12: 307–313.
Mertelmeier T., Orman J., Haerer W., Kumar M. K.: Optimizing filtered backprojection reconstruction
for a breast tomosynthesis prototype device. Proc SPIE 2006; 6142: 61420F.
Mertelmeier T., Ludwig J., Zhao B., Zhao W.: Optimization of tomosynthesis acquisition parameters:
angular range and number of projections. In: Krupinski E (Hrsg.): Lecture Notes in Computer
Science 5116, Digital Mammography, 9th International Workshop, IWDM 2008. Berlin,
Heidelberg: Springer, 2008: 220–227.
Niklason L. T., Christian B. D., Niklason L. E., et al.: Digital tomosynthesis in breast imaging.
Radiology 1997; 205: 399–406.
Nyström L., Andersson I., Bjurstam N., et al.: Long-term effects of mammography screening: updated
overview of the Swedish randomised trials. Lancet 2002; 359: 909–919.
Paatero Y. V.: A new tomographical method for radiographing curved outer surfaces. Acta Radiol
1949; 32: 177.
Pang G., Bani-Hashemi A., Au P., et al.: Megavoltage cone-beam digital tomosynthesis (MV-CBDT) for
image-guided radiotherapy: A clinical investigational system. Phys Med Biol 2008; 53:
999–1013.
Pisano E. D., Gatsonis C., Hendrick E., et al.: Diagnostic performance of digital versus film
mammography for breast-cancer screening. N Engl J Med 2005; 353: 1773–1783.
Poplack S. P., Tosteson T. D., Kogel C. A., Nagy H. M: Digital breast tomosynthesis: initial experience
in 98 women with abnormal digital screening mammography. Am J Roentg 2007; 189, 616–623.
Ruttimann U. E., Groenhuis R. A. J., Webber R. L.: Restoration of digital multiplane tomosynthesis by
a constraint iteration method. IEEE Trans Med Imaging 1984; 3: 141–148.
Suryanarayanan S., Karellas A., Vedantham S., et al.: Comparison of tomosynthesis methods used
with digital mammography. Academic Radiology 2000; 7: 1085–1097.
Svahn T., Andersson I., Chakraborty D., Svensson S., Ikeda D., Förnvik D., et al.: The diagnostic
accuracy of dual-view digital mammography, single-view breast tomosynthesis and a dual-view
combination of breast tomosynthesis and digital mammography in a free-response observer
performance study. Radiation Protection Dosimetry 2010; 139: 113–117.
134 | Thomas Mertelmeier

Svahn T. M., Chakraborty D. P., Ikeda D., Zackrisson S., Do Y., Mattson S., Andersson I.: Breast
tomosynthesis and digital mammography: a comparison of diagnostic accuracy. Brit J Radiol
2012; accepted for publication
Tabar L., Vitak B., Chen H. H., et al. The Swedish Two-County Trial twenty years later. Updated
mortality results and new insights from longterm follow-up. Radiol Clin North Am 2000; 38:
625–651.
Teertstra H. J., Loo C. E., van den Bosch M. A., et al.: Breast tomosynthesis in clinicla practice: initial
results. Eur Radiol 2010; 20: 16–24.
Vallebona A.: Radiography with great enlargement microradiography and a technical method for the
radiographic dissociation of the shadow. Radiology 1931; 17: 340.
Vikgren J., Zackrisson S., Svalkvist A., et al.: Comparison of chest tomosynthesis and chest
radiography for detection of pulmonary masses. Radiology 2008; 249: 1034–1041.
Webber R. L., Horton R. A., Tyndall D. A., Ludlow J. B.: Tuned-aperture computed tomography (TACT).
Theory and application for three-dimensional dento-alveolar imaging. Dentomaxillofac Radiol
1997; 26: 53–62.
Wiesent K., Barth K., Navab N., Durlak P., Brunner T. M., Schuetz O., Seissler W.: Enhanced 3-D
reconstruction algorithm for C-arm systems suitable for interventional procedures. IEEE Trans
Medical Imaging 2000; 19: 391–403.
Wu T., Stewart A., Stanton M., et al.: Tomographic mammography using a limited number of
low-dose cone-beam projection images. Med Phys 2003; 30: 365–380.
Wu T., Moore R. H., Rafferty E. A., Kopans D. B.: A comparison of reconstruction algorithms for breast
tomosynthesis. Med Phys 2004; 31: 2636–2647.
Zhang Y., Chan H.-P., Sahiner B., et al.: A comparative study of limited-angle cone-beam
reconstruction methods for breast tomosynthesis. Med Phys 2006; 33: 3781–3795.
Zhao B., Zhou J., Yue-Houng Hu, Mertelmeier T., Ludwig J., Zhao W.: Experimental validation of a
three-dimensional linear system model for breast tomosynthesis. Med Phys 2009; 36: 240–251.
Ziedes des Plantes, B. G.: Een bijzondere methode voor het maken van Röntgenphoto’s van schedel
en wervelkolom. Ned Tijdschr Geneesk 1931; 75: 5218–5222.

Weiterführende Literatur
Dobbins J. T. III, Godfrey D. J.: Digital x-ray tomosynthesis: current state of the art and clinical
potential. Phys Med Biol 2003; 48: R65–R106.
Webb S.: From the watching of shadows. The origins of radiological tomography. Bristol and New
York: Adam Hilger, 1990.

Testfragen
1. Beschreiben Sie das Prinzip der Tomosynthese.
2. Was ist der Unterschied zwischen konventioneller/klassicher Tomographie und der Tomosyn-
these?
3. Warum ist das inverse Problem der Tomosynthese nicht mathematisch exakt lösbar?
4. Beschreiben Sie die typischen Artefakte bei der Tomosynthese.
5. Was sind die wichtigsten/häufigsten Anwendungen der Tomosynthese in der medizinischen
Bildgebung?
Kristin Kötz, Henrik Botterweck
5 Szintigraphie und SPECT

5.1 Einleitung und Geschichte | 136


5.2 Kernphysikalische Grundlagen | 137
5.3 Radiopharmaka | 140
5.4 Nuklearmedizinische Messtechnik | 142
5.5 Gammakamera und Szintigraphie | 149
5.6 SPECT | 156
5.7 Qualitätskontrolle | 167
5.8 Klinische Anwendungen | 168
5.9 Hybridbildgebung | 169

Zusammenfassung: Die Szintigraphie stellt die Verteilung eines radioaktiv markier-


ten Pharmakons, das einen bestimmten Stoffwechselvorgang im Organismus ver-
folgt, bildlich dar. Die spezielle Technik der Einzelphotonen-Emissionstomographie
(SPECT) liefert eine dreidimensionale Aktivitätsverteilung. Dieses Kapitel beschreibt
die physikalischen und radiochemischen Grundlagen und widmet sich dann ausführ-
lich dem Aufbau, der Funktion, den Leistungsmerkmalen und der Qualitätskontrolle
der Gammakamera. Wir beschreiben den Einfluss verschiedener Aufnahmeparameter
auf die Bildentstehung und erläutern die Rekonstruktion der Bilder. Abschließend
wird ein Überblick zu diagnostischen Anwendungsmöglichkeiten und zur Hybrid-
bildgebung gegeben.

Abstract: Nuclear medicine uses radiolabeled drugs to trace a particular metabolic


pathway in vivo. The image obtained is called a scintigram, and three-dimensional
activity distributions can be obtained using single-photon emission computerized to-
mography (SPECT). This chapter briefly covers basic nuclear physics and radiochem-
istry and subsequently describes the principal components, function, performance
parameters and quality control of a gamma camera. The effect of various acquisition
parameters on the final image as well as the reconstruction of 3D images from 2D raw
data are described. The chapter concludes with a brief overview of medical applica-
tions and hybrid imaging.
136 | Kristin Kötz, Henrik Botterweck

5.1 Einleitung und Geschichte


In der Nuklearmedizin (lateinisch nucleus – Kern) werden Kernwechselwirkungen und
Strahlung aus radioaktiven Kernübergängen zur diagnostischen Bildgebung (Szinti-
graphie) und zu therapeutischen Zwecken genutzt.
Single Photon Emission Computed Tomography (SPECT) ist eine spezielle Technik
der Szintigraphie zur Schnittbilddarstellung in der Nuklearmedizin und ermöglicht
die dreidimensionale Darstellung der Aktivitätsverteilung eines Radiopharmakons
im Körper des Patienten. Diese Aktivitätsverteilung wird mithilfe eines rotierenden
zweidimensionalen Detektors, der sogenannten Gammakamera, außerhalb des Pa-
tienten erfasst, durch mathematische Algorithmen als dreidimensionale Aktivitäts-
verteilung rekonstruiert und üblicherweise in Schichtaufnahmen (z. B. transversale,
coronale, sagittale Schnittführung) dargestellt.

Single Photon Emission Computed Tomography (SPECT; dt. Einzelphotonen-Emissionscomputer-


tomographie): funktionsabbildendes Verfahren in der Medizin zur überlagerungsfreien Schnitt-
bilddarstellung auf Basis von Gammastrahlenemission von in den Körper eingebrachten Radio-
pharmaka.

Historisch waren dazu viele Erkenntnisse aus verschiedenen Wissenschaftsbereichen


erforderlich, u. a.
– die Entdeckung der Radioaktivität durch Henri Becquerel (1896),
– die nach Johann Radon (1917) benannte Radon-Transformation und ihre Inver-
sion,
– die Herstellung künstlicher radioaktiver Isotope, erstmals das 13 N von Irene Cu-
rie und Frédéric Joliot (1934).

Entwicklung von bildgebenden Geräten/Komponenten:


– Entdeckung der Fähigkeit von bestimmten Kristallen, Quanten zu absorbieren
und in Szintillationslicht zu konvertieren,
– Beschreibung des Rektilinearscanners durch Benedict Cassen (1951),
– gefolgt von der Entwicklung der Gammakamera durch Hal O. Anger (1953 erster
Prototyp, publiziert 1958 in „Reviews of Scientific Instruments“; 1962 erste kom-
merzielle Gammakamera),
– erste SPECT-Aufnahme durch Kuhl und Edwards (1963).
5 Szintigraphie und SPECT | 137

5.2 Kernphysikalische Grundlagen


5.2.1 Stabile und instabile Nuklide

Jedes Element im Periodensystem kann unterschiedliche Kernvarianten (sogenann-


te Isotope) aufweisen. Isotope sind Atome desselben chemischen Elements (d. h., sie
haben die gleiche Anzahl an Protonen), aber mit einer unterschiedlichen Anzahl von
Neutronen. Alle Isotope eines chemischen Elements haben dieselben chemischen Ei-
genschaften, da der Aufbau der Atomhülle gleich ist.

Nuklid: durch Protonen- und Neutronenanzahl spezifizierter Typ von Atomkernen.

Isotop: Variante eines Nuklides, die sich von anderen Varianten mit derselben Kernladungszahl Z
durch eine unterschiedliche Massenzahl A auszeichnet. Instabile Isotope (Radioisotope) gehen
unter Aussendung von radioaktiver Strahlung in einen stabilen Zustand über.

Die Bezeichnung der Isotope eines Elements erfolgt folgendermaßen: AZ X mit A: Mas-
senzahl (Zahl der Nukleonen im Kern), X: Symbol des chemischen Elementes, Z: Zahl
der Protonen im Kern, Beispiel 131
53 I steht für Jod 131.
Stabile Atomkerne zeichnen sich durch eine hohe Beständigkeit hinsichtlich der
Protonen- und Neutronenzahl und ihrer inneren Energie gegenüber äußeren Einwir-
kungen aus. Instabile Atomkerne (radioaktive Isotope, Radionuklide) sind durch ein
Missverhältnis zwischen Protonen und Neutronen oder durch eine zu hohe innere
Energie charakterisiert. Sie zerfallen ohne äußeren Anlass und unabhängig von me-
chanischer, thermischer oder anderer Beeinflussung durch Energieabgabe in Form
von radioaktiver Strahlung mit einer für das Isotop spezifischen Halbwertszeit, bis
ein stabiler Atomkern mit normalem Protonen-Neutronen-Verhältnis entsteht und
damit ein energetisch stabiler Endzustand erreicht wird. Beim Zerfall kommt es zur
Emission von Strahlung, die genügend Energie besitzt, um Atome und Moleküle zu
ionisieren, d. h., sie kann aus elektrisch neutralen Atomen und Molekülen positiv
und negativ geladene Teilchen freisetzen.

5.2.2 Strahlungsarten

Die Abgabe von Energie kann als Teilchen- (Korpuskel-)strahlung oder als elek-
tromagnetisches Quant (Photon, Gammastrahlung) erfolgen (󳶳Tab. 5.1). Teilchen-
strahlung nach Kernzerfall mit Alpha-Emission (𝛼-Strahlung), Beta-Minus-Emission
(𝛽− -Strahlung) und Positronen-Emission (𝛽+ -Strahlung) ist für die Szintigraphie
nicht unmittelbar nutzbar, allerdings kann dabei Gammastrahlung als Begleitprozess
auftreten.
138 | Kristin Kötz, Henrik Botterweck

Tab. 5.1: Strahlungsarten.

Alphastrahlung He2+ , auch 2 Protonen und 2 Neutronen


Betastrahlung Elektronen, auch Beta minus
Gammastrahlung Photonen, meist mit hoher Energie > 100 keV
Positronenstrahlung Positronen (Antiteilchen von Elektronen), auch Beta plus
Neutronenstrahlung Neutronen

Gammastrahlung (𝛾-Strahlung)
Die 𝛾-Strahlung ist eine energiereiche elektromagnetische Strahlung mit diskreter
Energie und sehr hoher Frequenz, etwa im Bereich medizinisch genutzter Röntgen-
strahlung oder höher. Diese Strahlung kann ihrer Natur nach weder elektrisch noch
magnetisch abgelenkt werden. Alle bei der diagnostischen Szintigraphie angewende-
ten Nuklide senden Gammaquanten aus.

Isomerer Übergang (Isomeric Transition, IT)


Befindet sich ein Kern nach einem Zerfall für eine messbar lange Zeit in einem
energetisch angeregten Zustand, spricht man von einem Isomer oder auch metasta-
bilem Nuklid, das durch den Zusatz „m“ zur Massenzahl gekennzeichnet wird. Unter
Emission von 𝛾-Strahlung gehen diese Nuklide in einen stabilen Zustand über, z. B.
99
Mo − (𝛽− , 𝛾) → 99m Tc − (𝛾) → 99 Tc.

Elektroneneinfang (Electron Capture, EC)


Dieser Prozess steht in Konkurrenz zum 𝛽+ -Zerfall. Hierbei wird vom Kern ein Elektron
aus der Elektronenhülle (meist aus der K-Schale) eingefangen. Bei der Auffüllung der
in der Elektronenhülle entstandenen Lücke kommt es zur Emission von charakteristi-
scher Röntgenstrahlung oder von Auger-Elektronen. Führt der Elektroneneinfang zu
einem angeregten Folgekern, kommt es sekundär zur Emission von 𝛾-Strahlung, z. B.
201
Tl − (EC, 𝛾) → 201 Hg .

5.2.3 Zerfallsgesetz

Das Zerfallsgesetz beschreibt, wie sich die Zahl der noch nicht zerfallenen Atomkerne
einer radioaktiven Substanz im Laufe der Zeit verringert. Die Halbwertszeit (HWZ) ist
die Zeit, in der die Hälfte der anfangs vorhandenen Atome zerfallen ist. Sie ist konstant
und charakteristisch für jedes Isotop und wird auch als physikalische Halbwertszeit
bezeichnet.
5 Szintigraphie und SPECT | 139

Radioaktives Zerfallsgesetz:
N(t) = N0 ⋅ e−𝜆t (5.1)
N0 Zahl der radioaktiven Atome zum Zeitpunkt Null
N Zahl der radioaktiven Atome zum Zeitpunkt t
𝜆 Zerfallskonstante = ln(2/HWZ) mit HWZ: Halbwertszeit
t Zeit

5.2.4 Aktivität

Die Aktivität A ist die Zahl N der Zerfallsakte pro Zeiteinheit. Die SI-Einheit ist Bec-
querel = Zerfälle pro Sekunde.
Definition der Aktivität:
dN(t)
A(t) = − Zahl der Zerfallsakte pro Zeiteinheit (5.2)
dt

5.2.5 Strahlenexposition und Dosis

Die biologische Halbwertszeit beschreibt die Zeit, in der die Hälfte des Radiopharma-
kons aus dem Organismus ausgeschieden wird. Die effektive HWZ Teff berücksichtigt
sowohl die physikalische Tphys als auch die biologische HWZ Tbiol :

T(phys) ⋅ T(biol)
T(eff) = (5.3)
T(phys) + T(biol)

Die Energiedosis D ist die absorbierte Energie pro Masseeinheit. Die Einheit für die
Energiedosis ist Gray (Gy); 1 Gy = 1 J/kg.
Bei der Äquivalentdosis H wird die Energiedosis mit dem dimensionslosen Qua-
litätsfaktor Q gewichtet, der die relative biologische Wirksamkeit der verschiedenen
Arten ionisierender Strahlung beschreibt. Die Einheit der Äquivalentdosis ist Sievert
(Sv).
H = D⋅Q (5.4)
Die effektive Dosis Eeff berücksichtigt zusätzlich die unterschiedliche Empfindlich-
keit verschiedener Gewebe und Organe mit dem dimensionslosen Gewebewichtungs-
faktor wT . Die Einheit der effektiven Dosis ist ebenfalls Sievert (Sv) (s. 󳶳Kap. 7, Biolo-
gische Wirkung ionisierender Strahlung und Dosimetrie).

E = ∑ wT HT (5.5)
T
140 | Kristin Kötz, Henrik Botterweck

Tab. 5.2: Häufig verwendete Isotope, Radiopharmaka und nuklearmedizinische Untersuchungsver-


fahren, zusammen mit typischen applizierten Aktivitäten und einer typischen effektiven Dosis.

Isotop HWZ Energie(n) Pharmakon Untersuchung Applizierte Effektive


der Aktivität Dosis
𝛾-Strahlung
99m
Tc 6h 141 keV Phosphonate Skelett 700 MBq 4,4 mSv
Pertechnetat Schilddrüse 75 MBq 1 mSv
99m
Tc 6h 141 keV Sestamibi Myokard 600 MBq 5 mSv
99m
Tc 6h 141 keV Nebenschilddrüse 900 MBq 7,6 mSv
99m
Tc 6h 141 keV Aerosol Lungeninhalation 40 MBq 0,6 mSv
99m
Tc 6h 141 keV makroaggregierte Lungenperfusion 200 MBq 2,2 mSv
Albumine (MAA)
99m
Tc 6h 141 keV ECD, HMPAO Hirnperfusion 550 MBq 5 mSv
99m
Tc 6h 141 keV Kolloide Lymphsystem 100 MBq 2 mSv
99m
Tc 6h 141 keV Kolloide, Knochenmark 550 MBq 3 mSv
Antikörper
99m
Tc 6h 141 keV MAG3 Niere 100 MBq 0,7 mSv
111
In 67 h 171 keV Pentetreotide Somatostatin- 220 MBq 17 mSv
245 keV (Octreoscan® ) rezeptor
123
I 13 h 159 keV Iobenguane Tumor- 400 MBq 6 mSv
(MIBG) Szintigraphie
123
I 13 h 159 keV Jodid Schilddrüse 400 MBq 5 mSv
123
I 13 h 159 keV IBZM Dopaminrezeptor 185 MBq 6,3 mSv

5.3 Radiopharmaka
5.3.1 Herstellung radioaktiver Isotope

Natürlich vorkommende Radionuklide haben für medizinische Anwendungen eine


zu lange HWZ und sind mit anderen Radionukliden verunreinigt. Eine Trennung der
Nuklide ist technisch sehr aufwendig. Deshalb werden in der Nuklearmedizin künst-
lich hergestellte Radionuklide aus Reaktoren oder Zyklotronen eingesetzt. Sie sind
durch kurze HWZ und hohe Radionuklidreinheit gekennzeichnet. Im Zyklotron wer-
den z. B. 123 I, 67 Ga und 201 Tl produziert. Sie sind nicht täglich verfügbar und müssen
unmittelbar nach der Anlieferung verwendet werden.
Der Vorteil von Generatorsystemen ist die längere Verfügbarkeit direkt am Ort
der Anwendung. Radionuklidgeneratoren enthalten in einem bleiabgeschirmten Ge-
fäß ein Mutternuklid mit mittlerer HWZ, welches in das für die medizinische Anwen-
dung gewünschte Tochternuklid mit kurzer HWZ zerfällt. Mit einem chemischen Ver-
fahren werden die beiden Nuklide im Generator getrennt und das kurzlebige lässt sich
danach mit einem Eluationsmittel (z. B. Kochsalzlösung) herauslösen. Der am häufigs-
ten verwendete Generator ist der 99 Mo/99m Tc-Generator. 󳶳Tab. 5.2 gibt einen Überblick
über häufig verwendete Radioisotope.
5 Szintigraphie und SPECT | 141

5.3.2 Radionuklide zur nuklearmedizinischen Diagnostik

Zur Anwendung kommen Radionuklide, die bestimmte chemische (für die Markie-
rung) und physikalische (Strahlenart, Energie, HWZ) Eigenschaften aufweisen. Durch
breite Verfügbarkeit, Preis, günstige Energie (140 keV) und HWZ (6 h) hat 99m Tc die
größte Bedeutung bei der medizinischen Anwendung.
Weitere Radionuklide sind Jodisotope aufgrund der natürlichen Affinität zur
Schilddrüse und einfacher Markierungsverfahren. Infolge seiner Strahleneigenschaf-
ten (Betastrahler) findet 131 I fast ausschließlich Anwendung in der nuklearmedizini-
schen Therapie. Hingegen ist 123 I ein reiner Gammaemitter, und besitzt eine günstige
HWZ (13,3 h). Jedoch ist die technische Herstellung (Zyklotron) aufwendiger, deshalb
ist 123 I nur eingeschränkt verfügbar. 201 Tl wird als Thalliumchlorid insbesondere zur
Herzdiagnostik eingesetzt, wird aber zunehmend von 99m Tc-markierten Substanzen
abgelöst.
Weitere Radionuklide zur nuklearmedizinischen Diagnostik sind u. a. 111 In, 67 Ga,
133
Xe sowie Positronenstrahler zur PET-Diagnostik (18 F, 11 C, 13 N, 15 O, 68 Ga, 82 Rb).

5.3.3 Radioaktive Markierung, Markierungsbesteck, Kinetik der Radiopharmaka

Radiopharmaka (Tracer) sind reine Radioisotope oder mit Molekülen (Trägersub-


stanzen) markierte Radioisotope, die einen Stoffwechselvorgang, eine Organfunktion
oder einen Austauschvorgang von Neurotransmittern im Körper beschreiben. Zum
Einsatz kommen nur geringe Substanzmengen, welche die untersuchten Prozesse
weder quantitativ noch qualitativ beeinflussen.

Tracer: mit einem radioaktiven Isotop (Gammastrahler oder Positronenstrahler) markiertes Mole-
kül in der nuklearmedizinischen Diagnostik, das man im Körper verfolgen möchte.

Markierungsbestecke (kits) ermöglichen eine Markierung des frisch eluierten Nuklids


(z. B. 99m Tc) mit einer organspezifischen Trägersubstanz und werden von der Industrie
für verschiedene Untersuchungen gebrauchsfertig angeboten.
Die radioaktiven Markierungen finden in einem radiochemischen Labor am Ort
der Anwendung statt und unterliegen Qualitätskontrollen, u. a. zur Radionuklid- und
radiochemischen Reinheit. Die Prüfung des Tracers auf Toxizität, Sterilität, Pyrogen-
freiheit und pH-Wert sind für den Anwender zu aufwendig und angesichts der kurzen
physikalischen HWZ oft nicht vor der Anwendung durchführbar. Die Prüfungen wer-
den daher bereits vom Hersteller der Kits durchgeführt.
Die Biokinetik beschreibt das örtliche und zeitliche Verhalten von Pharmaka im
Organismus. Radiopharmaka besitzen biochemische oder pharmakokinetische Eigen-
schaften, welche verschiedene Stufen eines bestimmten Stoffwechselweges (Resorp-
tion, Distribution, Metabolisierung, Exkretion) darstellen können.
142 | Kristin Kötz, Henrik Botterweck

5.4 Nuklearmedizinische Messtechnik


5.4.1 Detektoren für Gammaquanten

Man unterscheidet
– gasgefüllte Detektoren (Ionisationsmesskammern, Proportionalzählrohre, Gei-
ger-Müller-Zählrohre)
– Detektoren mit Flüssigkeitsszintillator
– Detektoren mit Festkörperszintillator (Szintillationsdetektor, Thermolumines-
zenzkristall, Halbleiterdetektor)

Der in den bildgebenden Verfahren am häufigsten genutzte Detektor zum Nach-


weis von Gammaquanten in dem von H. O. Anger entwickelten Gammakame-
raprinzip beruht auf der Szintillation. Seit einiger Zeit werden Detektoren, die
nicht auf dem Szintillationsprinzip beruhen, z. B. Cadmium-Zink-Tellurid-(CZT-)
Halbleiterdetektoren, kommerziell angewendet, aus Kostengründen derzeit aber
nur in Gammakameras mit kleinem Gesichtsfeld, z. B. zur Herzdiagnostik.

Szintillation: Abgabe von Lichtblitzen nach Anregung eines Materials durch energiereiche Strah-
lung.

Gammakamera: Gerät zur Abbildung mit Gammaphotonen, vgl. Anger-Kamera.

Anger-Kamera: Abbildung von Gammaphotonen mittels Kollimator, Szintillator und Photomulti-


pliern. Bei jedem detektierten Ereignis wird zur Erhöhung der Ortsauflösung der Schwerpunkt von
allen Photomultipliersignalen bestimmt.

Für nicht bildgebende Verfahren in der Nuklearmedizin stehen darüber hinaus soge-
nannte Bohrlochmessplätze, Szintillationssonden und Ganzkörperzähler (z. B. für In-
korporationsmessungen) zur Verfügung.

Szintillationsdetektor
Wechselwirkungsprozesse zwischen den Gammaquanten und dem Szintillationsma-
terial sind der Photoeffekt und die Compton-Streuung. Die Paarbildung ist bei den
verwendeten Energiebereichen/Isotopen meist nicht relevant.
Im Szintillationsdetektor erfolgt der Nachweis von ionisierender Strahlung durch
die Umwandlung der Strahlungsenergie in sichtbares Licht. Diesen Effekt nennt
man Szintillation (lat. scintillare = blitzen) oder auch Lumineszenz. Die Energie der
Gammaquanten wird im Szintillator absorbiert und dabei werden die Elektronen
des Szintillatormaterials auf ein höheres Energieniveau gebracht. Zum Wiedererrei-
chen des Grundzustandes wird die absorbierte Energie durch das Aussenden von
Lichtblitzen abgegeben. Die Lichtmenge, d. h. die Anzahl der Photonen des ausgesen-
5 Szintigraphie und SPECT | 143

Signale

Elektronik
Bleiab-
schirmung

Photomultiplier

Lichtleiter
Kristall
Kollimator

einfallendes
Gammaquant

Abb. 5.1: Schematischer Aufbau eines Gammakamerakopfes.

deten sichtbaren Szintillationslichtes, ist proportional zur Energie der absorbierten


Gammaquanten.
Als Szintillationsdetektoren werden in der nuklearmedizinischen Bildgebung fast
ausschließlich Thallium-dotierte Natriumjodidkristalle (NaI[Tl]) verwendet, da de-
ren Eigenschaften am besten geeignet sind, um die verwendeten Gammaenergien zu
detektieren.
Ein Gammakameradetektor besteht aus einem (auswechselbaren) Kollimator,
einem NaI(Tl)-Szintillationskristall, einem Lichtleiter (z. B. Silikonfett), einem Array
von Photomultipliern und der weiterverarbeitenden Elektronik (󳶳Abb. 5.1).

5.4.2 Kollimatoren

Durch den Kollimator werden die vom Objekt ausgesendeten Gammaquanten einer
Filterung unterzogen, die letztlich eine Richtungsortung der Gammaquanten erlaubt.
Ein Kollimator ist vom Prinzip her eine den Detektor bedeckende Blei- oder Wolfram-
platte mit Tausenden kleiner Löcher.

Kollimator: Anordnung zur Orts-/Richtungsselektion von Strahlung/Teilchen, um z. B. im Falle von


Gammateilchen ohne Linse eine Abbildung zu erreichen.

Das Kollimatormaterial wird so gewählt, dass es im Idealfall alle auf die Lochwände
(Septen) treffenden Gammaquanten vollständig absorbiert. Das Durchtreten von Gam-
maquanten durch die Septen (Septenpenetration) verschlechtert die Bildqualität. Die
Penetration sollte 5 % nicht überschreiten. Deshalb wird die Auswahl des Kollimators
durch das benutzte Radioisotop und dessen charakteristische Gammaenergie(n) be-
144 | Kristin Kötz, Henrik Botterweck

Z
Punktbildfunktion

Halbwertsbreite
x Abb. 5.2: Die Breite der Punktbildfunktion eines
R Kollimatorelementes wird kleiner, wenn D/L
D Z+—
L kleiner wird, und größer, wenn der Abstand Z
R=—
L (
2 ) größer wird.

Objekt Detektor

Parallelloch divergierend konvergierend Pinhole

Abb. 5.3: Schematische Darstellung verschiedener Kollimatorengeometrien.

stimmt. Im Allgemeinen werden drei Energiebereiche (Niedrig-, Mittel-, Hochenergie)


unterschieden.
Die konkurrierenden konstruktiven Parameter, wie Anzahl der Löcher, Loch-
durchmesser, Lochlänge und Septenwandstärke, werden so gewählt, dass ein best-
möglicher Kompromiss zwischen Septenpenetration, Ortsauflösung und Sensitivität
erzielt wird. So erhöhen ein kleiner Lochdurchmesser und eine große Lochlänge die
Ortsauflösung, verschlechtern aber gleichzeitig die Sensitivität (󳶳Abb. 5.2).
Die geometrische Anordnung der Löcher im Kollimator kann parallel oder fo-
kussierend sein. Am häufigsten werden Parallellochkollimatoren verwendet. Die
Löcher fokussierender Kollimatoren können objektseitig divergierend oder konver-
gierend angeordnet sein; das abzubildende Objekt wird entsprechend verkleinert
oder vergrößert (󳶳Abb. 5.3). Typische fokussierende Kollimatoren sind Fanbeam-
5 Szintigraphie und SPECT | 145

und Conebeam-Kollimatoren. Weitere Spezialkollimatoren sind Single-Pinhole, Multi-


Pinhole, Slanthole und 7-Loch-Kollimatoren.
Die Filterungsleistung der Kollimatoren wird deutlich, wenn man das Verhältnis
der vom Kollimator durchgelassenen zu den eintreffenden Quanten betrachtet. Für
einen Parallellochkollimator ist dies in etwa 10−5 bis 10−6 .

Parallel-Kollimator: Kollimator, der aus vielen parallel angeordneten Öffnungen besteht.

Pinhole-Kollimator: Kollimator aus einem oder wenigen Öffnungen („Camera obscura“).

5.4.3 Kristall

Ein Gammaquant, welches den Kollimator passiert hat, gibt seine Energie teilweise
(Compton-Effekt) oder vollständig (Photoeffekt) an den Szintillationskristall ab.
Dabei ist die Intensität der Lichtemission proportional zur Energie der absorbierten
Strahlung. Um die Lichtausbeute zu erhöhen, wird der Natriumjodidkristall mit Thal-
lium dotiert. Dennoch wird nur ein sehr geringer Anteil der Wechselwirkungen im
Kristall zu einer Szintillation führen, 80. . . 90 % der absorbierten Energie gehen als
Wärmeenergie verloren.

Compton-Effekt: Ergebnis des Wechselwirkungsprozesses von Photonen mit Materie. Das Photon
streut an einem Elektron, gibt dadurch einen Teil seiner Energie an das Elektron ab und ändert
seine Richtung (Compton-Streuung).

Für 99m Tc, dem meist verwendeten Nuklid, hat der NaI(Tl)-Kristall durch seine hohe
Dichte und Ordnungszahl einen hohen Wirkungsgrad. Die Strahlenabsorption erfolgt
überwiegend mittels Photoeffekt, somit wird eine sehr gute Lichtausbeute, Energie-
und Ortsauflösung erreicht.
Eabs(𝛾)
NL = 𝜂K ⋅ (5.6)
EL
NL Anzahl der Szintillationslichtquanten pro Absorption eines 𝛾-Quants
hK Wirkungsgrad des Kristalls
Eabs(𝛾) absorbierte Energie des 𝛾-Quants
EL Energie des emittierten Lichtphotons

Zwei Szintillationen können zeitlich nicht beliebig dicht aufeinander folgen (begrenz-
tes zeitliches Auflösungsvermögen des Kristalls); während der sogenannten Totzeit
können keine weiteren Szintillationen gemessen werden.
Die Dicke eines Kristalls bestimmt die Empfindlichkeit und die Auflösung abhän-
gig von der Energie des verwendeten Isotops. Ein dünner Kristall kann weniger Gam-
146 | Kristin Kötz, Henrik Botterweck

Photokathode

Lichtphoton

fokussierende
Elektrode
Dynode PMT Anode Abb. 5.4: Photomultiplier PMP.

maquanten nachweisen, hat aber eine sehr gute räumliche Auflösung. In einem dicke-
ren Kristall ist zum einen der Parallaxe-Effekt leicht schräg einfallender Gammaquan-
ten höher, zum anderen erfolgt die Energieumwandlung zunehmend durch den Comp-
ton-Effekt, folglich verschlechtert sich die Ortsauflösung insbesondere bei niedrigen
Energien. Die Wahl der Kristalldicke ist daher ein Kompromiss.
Die typische Form des Kristalls ist heutzutage rechteckig. Die Dicke wird in Zoll
angegeben; üblich sind für Gammakameras 3/8 Zoll (= 9,5 mm). Bei den meist rechte-
ckigen Kristallen beträgt die Diagonale 60 bis 70 cm.
Temperaturschwankungen des Kristalls sollten unbedingt vermieden werden,
da auftretende Spannungen sehr schnell zum Kristallbruch führen können. Darüber
hinaus ist der Wirkungsgrad der Lichtemission temperaturabhängig. Der Kristall ist
außerdem gegenüber mechanischen Erschütterungen sehr empfindlich und stark
hygroskopisch; Wassereinlagerungen können zum Verlust der Szintillationsfähigkeit
führen.
Der Szintillator ist direkt oder über einen Lichtleiter mit den Photomultipliern ver-
bunden, an allen anderen Flächen ist der Kristall mit einer reflektierenden Alumini-
umfolie ausgestattet.

5.4.4 Photomultiplier

Die aus dem Kristall austretenden Lichtblitze werden von einem Array von Photomul-
tipliern (PMP) in ein elektrisches Signal umgewandelt und anschließend verstärkt.
Der PMP (auch Photomultiplier Tube, PMT oder Sekundärelektronenvervielfacher,
SEV) besteht aus einem evakuierten Glaskolben mit einer Photokathode, weiteren
Elektroden (Dynoden) und einer Anode (󳶳Abb. 5.4). Die angelegte Hochspannung
hängt von der Zahl der Dynoden ab und beträgt ca. 1000 V.
Über den Lichtleiter kann das Szintillationslicht auf die Photokathode der PMP
treffen und dort infolge des photoelektrischen Effekts Elektronen freischlagen. Die-
se werden durch die von Dynode zu Dynode ansteigende Spannung auf die Anode
hin beschleunigt und schlagen beim Auftreffen auf die Dynoden weitere Sekundär-
elektronen frei. Die Dynoden sind geometrisch so arrangiert, dass sie auf die jeweilig
folgende fokussieren und somit insgesamt ca. 106 Sekundärelektronen pro Photon er-
zeugen können. Wichtig ist eine stabile Hochspannung, da sonst die Proportionalität
zwischen der Intensität des Lichtes und der Zahl der freigesetzten Elektronen nicht
5 Szintigraphie und SPECT | 147

Vor- Linear-
PMP ADC
verstärker verstärker

Ortungs- Impuls-
Z-Puls
elektronik höhen-
(Summen-)
(x,y) analysator

Anzeige- Registrier- Korrek-


monitor einheit turen

Abb. 5.5: Vereinfachte Darstellung der Komponenten der Signalverarbeitung.

mehr gegeben ist. Die intrinsische Auflösung eines Detektors steigt mit der Anzahl
der Photomultiplier. Deren Anzahl pro Detektor variiert von weniger als 40 bis hin zu
mehr als 100.

5.4.5 Nachgeschaltete Elektronik

Die Ladungsimpulse des PMP haben eine zu geringe Signalamplitude und eine un-
geeignete Form für die Weiterverarbeitung. Diesem tragen ein Vorverstärker und ein
Linearverstärker Rechnung (󳶳Abb. 5.5).
Weiterhin müssen die erzeugten Impulse dem Ort des Szintillationsereignisses zu-
geordnet werden. Bei modernen Detektoren werden sie bereits vor der Ortungselek-
tronik, direkt nach der Verstärkung der Impulse, digitalisiert.
Im Vorverstärker werden die Ladungsimpulse zunächst linear um den Faktor
5. . . 20 verstärkt, dies wird für die später folgende Analyse der Energiebereiche vor-
ausgesetzt. Zum anderen werden die Ladungsimpulse in Spannungsimpulse umge-
wandelt.
Im Linearverstärker werden die vom Vorverstärker gelieferten Spannungsimpul-
se wiederum auf einige Volt linear verstärkt und die noch relativ breiten Signale wer-
den in eine Form gebracht, die die Signaldauer erheblich verkürzt. Dies ermöglicht
eine höhere Zählrate.
Die bislang verarbeiteten Signale sind analoge Signale. Für die weitere Verarbei-
tung, Speicherung und zur Anzeige am Computermonitor werden sie mittels eines
Analog-Digital-Konverters (ADC) digitalisiert.

Elektronische Ortszuordnung
Die elektronische Ortszuordnung beruht meistens auf dem analogen Prinzip der Wi-
derstandsmatrix von Anger. Da für die Ortungsanalyse viele verschiedene, mehr oder
148 | Kristin Kötz, Henrik Botterweck

gestreut primär
Abb. 5.6: Ein Impulshöhenanalysator kann
primäre Gammaquanten von gestreuten
Gammaquanten relativ gut trennen. Je höher
die untere Schwelle gesetzt wird, desto bes-
ser werden gestreute Quanten unterdrückt.
Gleichzeitig werden aber auch immer mehr
E₀ E primäre Quanten abgeschnitten.

weniger digitalisierte Modifizierungen existieren, soll hier nur das grundlegende Prin-
zip dargestellt werden.
In einem über dem Szintillationskristall zentrisch angeordneten Koordinatensys-
tem sind jedem Photomultiplier vier Widerstandspaare zugeordnet, so dass jedes Pho-
tomultiplier-Ausgangssignal durch vier Koordinaten (+x, −x, +y, −y) beschrieben und
der Positionierungselektronik zugeleitet wird.

Z-Puls (amerik. Zee)


Da die Energie des registrierten Gammaquants proportional zur Höhe des Impulses
ist, kann dieser Impuls einem entsprechenden Energiekanal zugeordnet werden. Für
die sogenannte Impulshöhenanalyse werden alle vier Ortsausgangssignale (+x, −x,
+y, −y) nach der Ortungsanalyse der PMP zum Z-Puls aufsummiert und an den Im-
pulshöhenanalysator weitergegeben.

Impulshöhenanalysator
Der Impulshöhenanalysator (Pulse Height Analyzer, PHA) erkennt und charakterisiert
den Energiebereich der gemessenen Impulse. Mithilfe zweier Diskriminatoren werden
eine untere und eine obere Schwellenhöhe eingestellt (󳶳 Abb. 5.6). Ihre Differenz ist der
gemessene Energiekanal, der charakteristisch für jedes Nuklid ist. Dieser erlaubt den
Ausschluss unerwünschter Energien (z. B. von gestreuten Quanten), d. h., diese Ein-
heit filtert die registrierten Ereignisse. Man unterscheidet die Systeme nach Einkanal-,
Mehrkanal- und Vielkanal-Analysatoren. Für die üblicherweise verwendeten Gamm-
akameras sind das Vielkanal-PHAs mit 256 bis 512 Kanälen.

Registriereinheit
Die angeschlossene Registriereinheit bereitet die Anzeige und Speicherung der vom
PHA durchgelassenen Impulse vor und dient der Ablaufsteuerung der Aufnahme (z. B.
Messzeit). An modernen Gammakameras werden ausschließlich digitale Registrier-
5 Szintigraphie und SPECT | 149

einheiten verwendet. Man unterscheidet dabei die Anzeige von Impulszahl und Im-
pulsrate. Letztere wird angegeben in cpm (counts per minute) oder cps (counts per se-
cond).
Der Zähler (counter) arbeitet in zwei verschiedenen Modi. Zum einen kann die
Aufnahme nach einer voreingestellten Messzeit (preset time) beendet werden. Ebenso
kann eine bestimmte Impulszahl (preset counts) voreingestellt sein und die Messung
wird nach deren Erreichen automatisch beendet. Auch eine Kombination beider ist
möglich, so dass die Messung beendet wird, wenn eine der beiden Voreinstellungen
erfüllt ist.
Die gesamte elektronische Nachverarbeitung (u. a. Impulsanalyse, Signalkorrek-
turen und Pile-up-Korrektur) wird, ebenso wie die Korrekturen (z. B. Energie, Lineari-
tät, Homogenität), in modernen Kameras in real time mikroprozessorgesteuert durch-
geführt, d. h., bevor die Daten zum Auswerterechner übermittelt werden.

5.5 Gammakamera und Szintigraphie


Gammakamerasysteme gibt es in den unterschiedlichsten Ausführungen (󳶳Abb. 5.7).
Sie unterscheiden sich in der Größe, Anzahl, Anordnung und den Bewegungsmöglich-
keiten der Detektoren. Es gibt ein sehr vielfältiges Angebot an Gammakameras, z. B.
feststehende Gantry, frei bewegliche Detektoren oder kleine mobile Kameras. Auch
die Größe des Gesichtsfeldes (Field of View, FOV) kann variieren.

Szintigraphie: funktionsabbildendes projektives Verfahren in der Medizin auf Basis von Gamma-
strahlenemission durch in den Körper eingebrachte Radiopharmaka.

Für SPECT können Ein- und Mehrkopfsysteme verwendet werden, vorzugsweise sind
dies mindestens zwei Detektoren (sogenannte Doppelkopfkameras). Dabei können
die Detektoren meist in unterschiedlichen Winkeln zueinander stehen (180°, 90°, 76°).
In der Praxis hat sich die Doppelkopfkamera mit einem großen FOV als das am viel-
seitigsten einsetzbare System durchgesetzt.

5.5.1 Charakteristika/Kenngrößen

Die wesentlichsten Leistungsmerkmale einer Gammakamera sind:


– Ausbeute
– Ortsauflösung
– Energieauflösung
– Zeitlauflösung
– Linearität
– Homogenität
150 | Kristin Kötz, Henrik Botterweck

Photomultiplier
Kristall
Kollimator

ein Messkopf, ein Messkopf,


kreisförmiger Orbit elliptischer Orbit

zwei Messköpfe drei Messköpfe

Abb. 5.7: Verschiedene Anordnungen und Anzahl von Messköpfen bei Gammakameras.

Weitere Kenngrößen sind:


– Modulationsübertragungsfunktion (MTF)
– Gesichtsfeld
– Matrixgröße/Pixelgröße
– Abbildungsmaßstab/Rastermaßstab

Ausbeute
Mit „Ausbeute“ bezeichnet man die Nachweisempfindlichkeit für Gammaquanten –
sie wird durch das Verhältnis von gemessenen zu tatsächlichen Impulsen einer radio-
aktiven Quelle beschrieben. Beeinflusst wird die Ausbeute maßgeblich vom Kollima-
tor, der Kristalldicke und dem Energiefenster.

Ortsauflösung
Die Ortsauflösung beschreibt die Fähigkeit des bildgebenden Systems, zwei getrennte
Strukturen (Punktquelle oder auch Linienquelle) voneinander getrennt im Szinti-
gramm abzubilden. Die Abbildung einer Punkt- oder Linienquelle wird auch als Point
5 Szintigraphie und SPECT | 151

30 mm

5 cm 10 cm 15 cm 20 cm 25 cm 30 cm 40 cm 50 cm

Abb. 5.8: Abstandsabhängige Variation der extrinsischen Auflösung am Beispiel der PSF einer
Punktquelle.

Spread Function (PSF, Punktantwortfunktion) oder Line Spread Function (LSF) be-
zeichnet. Die Halbwertsbreite (Full Width at Half Maximum, FWHM) dieser Funktion
gilt als Maß der räumlichen Auflösung und wird in mm angegeben.
Man unterscheidet zwischen der intrinsischen Auflösung (auch inhärente Auflö-
sung, ohne Kollimator) und der extrinsischen Auflösung (auch Systemauflösung, mit
Kollimator). Da die Ortsauflösung stark von den Kollimatoreigenschaften und vom
Abstand des zu messenden Objektes vom Detektor (󳶳Abb. 5.8) abhängt, kommt der
Systemauflösung die größere Bedeutung zu. Die intrinsische Auflösung der heutigen
Gammakameras liegt bei ca. 4. . . 10 mm. Sie ist abhängig von der Energie der Gam-
maquanten und nimmt mit dem Inversen der Wurzel ihrer Energie ab.
Die räumliche Auflösung des Kollimators wird bestimmt von den geometrischen
Eigenschaften wie Lochdurchmesser, Anzahl der Löcher, Lochlänge.

Energieauflösung
Die Energieauflösung ist die Fähigkeit, zwei Gammaquanten unterschiedlicher Ener-
gie als solche zu erkennen. Da die Szintillation einen stochastischen Prozess darstellt,
werden Gammaquanten derselben Energie i. A. zu unterschiedlich hohen Messimpul-
sen führen. Diese statistischen Schwankungen führen effektiv zu einer Faltung des
linienhaften Photopeaks, der somit einer Gauss-Verteilung (󳶳Abb. 5.2.) ähnelt. Die
Registrierung kurz hintereinander eintreffender Quanten, die im Körper des Patien-
ten Compton-gestreut wurden, können durch deren Aufsummierung fälschlich in das
Photopeakfenster fallen.
Die Energieauflösung wird als relative Halbwertsbreite angegeben und ist auf eine
bestimmte Energie bezogen. Oft wird sie auch als Zehntelwertsbreite (Full Width at
Tenth Maximum, FWTM) angegeben. Für NaI(Tl)-Detektoren ist die Energieauflösung
< 10 %. Beeinflussende Faktoren sind Kristallmaterial, Kristalldicke und die Energie
der Photonen.
152 | Kristin Kötz, Henrik Botterweck

Zählrate

Aktivität Abb. 5.9: Zählrate in Abhängigkeit von der Aktivität.

Zeitauflösung
Die zeitliche Auflösung ist die Zeit, die vom gesamten System benötigt wird, um ein ab-
sorbiertes Gammaquant zu verarbeiten. In dieser Zeit können keine weiteren Impulse
registriert werden (Totzeit des Systems).
Die zeitliche Auflösung des Systems bedingt die von dem System verarbeitbare
Impulsrate, welche proportional zur Aktivität ist. Wird bei zunehmender Impulsra-
te ein Schwellenwert überschritten, können nicht mehr alle tatsächlich vorhandenen
Impulse registriert werden. Es kommt durch die Totzeit des Systems zum Zählratenver-
lust oder zu sogenannten Pile-up-Effekten, die etwa gleichzeitig detektierte Photopea-
kereignisse zu einem Ereignis falscher Energie zusammenfassen (i.A. eine etwas über
dem Photopeak liegende Energie). Die Impulsratencharakteristik kann als Funktion
von gemessener Zählrate zur Aktivität dargestellt werden (󳶳Abb. 5.9).

Linearität
Die Linearität beschreibt die Nichtverzerrung etwa einer räumlich geraden Struktur.
Nach dem Anger-Prinzip operierende Detektoren verzerren die Linearität jedoch im-
mer. Zur Korrektur wird eine Aufnahme mit einer geometrischen Bleimaske, die auf die
Kristalloberfläche platziert und von einer fernen Punktquelle beleuchtet wird, heran-
gezogen. Üblicherweise wird eine Korrekturmatrix, die das gemessene, verzerrte Bild
auf die bekannte, unverzerrte Bleimaske abbildet, berechnet und im Kamerakopf ge-
speichert. Dies ist die Linearitätskorrektur.

Homogenität
Die „Homogenität“ ist eine homogene bildliche Darstellung einer gleichmäßigen Ak-
tivitätsverteilung. Sie folgt immer nach der Linearitätskorrektur.
Die Inhomogenität eines Systems wird als differentielle und integrale Inhomoge-
nität angegeben. Die Impulswerte bei der differentiellen Inhomogenität Idiff werden
durch die größte Differenz 𝛥Wmax von fünf benachbarten Pixelwerten in einer Spalte
5 Szintigraphie und SPECT | 153

(a) (b)

Abb. 5.10: Homogenität vor Korrektur (a), nach Korrektur (b).

Fouriertransformation

MTF
PSF

Abb. 5.11: Grafische Darstellung von PSF und MTF.

oder Zeile beschrieben, bezogen auf die Summe dieser Werte:


𝛥Wmax
Idiff [⋅] = 100 ⋅ (5.7)
∑W
Die integrale Inhomogenität Iint beschreibt den größten Unterschied von zwei Impuls-
werten im gesamten Gesichtsfeld:
Wmax − Wmin
Iint [⋅] = 100 ⋅ (5.8)
Wmax + Wmin
Inhomogenitäten, die ohne Kollimator gemessen werden, bezeichnet man als inhä-
rent (intrinsisch), mit Kollimator wird die Systeminhomogenität (extrinsisch) ermit-
telt.
Insbesondere bei SPECT kann eine zu große Inhomogenität zu starken Abbil-
dungsartefakten führen. Eine Korrekturmatrix kann die Inhomogenität ausgleichen
(󳶳Abb. 5.10). Diese erfolgt, wie auch die Linearitätskorrektur, schon während der
Datenerfassung in Echtzeit.

Modulationsübertragungsfunktion
Die Modulationsübertragungsfunktion (Modulation Transfer Function, MTF) be-
schreibt die quantitative Abbildungseigenschaft des Systems (󳶳Abb. 5.11). Sie ergibt
sich üblicherweise aus dem Leistungsspektrum der Fouriertransformierten der PSF
(oder LSF) (s. 󳶳Kap. 21, Systemtheorie).
154 | Kristin Kötz, Henrik Botterweck

Gesichtsfeld
Das Gesichtsfeld wird von der Kristallgröße und vom Kollimator bestimmt. Angege-
ben werden Länge/Breite und/oder die Diagonale. Unterschieden werden, insbeson-
dere für Qualitätskontrollen, das gesamte nutzbare Gesichtsfeld (Useful Field of View,
UFOV) und das zentrale Gesichtsfeld (Central Field of View, CFOV, ca. 75 % vom UFOV).

Matrixgröße/Pixelgröße
Die Aufteilung der Detektorfläche erfolgt in ein Raster quadratischer Elemente. Das
Raster selbst wird auch dann quadratisch angelegt, wenn der Kristall rechteckig ist.
Die Matrixwahl erfolgt vor der Aufnahme (im frame mode, s. u.) und bestimmt neben
der Zoomeinstellung die Pixelgröße und limitiert damit die Ortsauflösung. Typische
Matrixgrößen sind 64 × 64, 128 × 128, 256 × 256, 512 × 512. Für Ganzkörperaufnahmen
werden i. A. rechteckige Matrizen mit 256 x 1024 Pixeln verwendet.

Abbildungsmaßstab/Rastermaßstab
Der Abbildungsmaßstab wird definiert als x : y-Verhältnis eines Pixelelements und
ist vom verwendeten Kollimator abhängig. Für Parallellochkollimatoren sollte er 1 : 1
betragen.
Werden divergierende oder konvergierende Kollimatoren benutzt, so ist der Abbil-
dungsmaßstab weitgehend vom Abstand des Objektes zum Kollimator bestimmt. Der
Rastermaßstab ist als Kehrwert der Pixelgröße (Pixel/cm) definiert.

5.5.2 Aufnahmetechniken

Bei der szintigraphischen Bildgebung können unterschiedliche Aufnahmetechniken


verwendet werden. Zunächst bedingt durch die Form des Detektors, sind alle Aufnah-
men (Szintigramme) zweidimensionale Darstellungen.
Die planare Aufnahmetechnik bildet dabei die Aktivitätsverteilung von radioakti-
ven Stoffen aus einem dreidimensionalen Raum (Volumen, Patient, Phantom) im Ge-
sichtsfeld der Gammakamera als zweidimensionales Bild ab. Genau genommen wird
das mit einem Sensitivitätsfaktor multiplizierte Integral der Aktivität auf einem sich
mit zunehmender Entfernung aufweitenden Kegel durch den Körper des Patienten ge-
messen.
Planare Szintigramme können über eine bestimmte Zeitdauer (statische Aufnah-
me) und bei Bewegung des Detektors oder Patiententisches entlang der Längsachse
des Patienten auch als Ganzkörperszintigramm angefertigt werden (󳶳Abb. 5.12). Die
Aufnahme schneller planarer Bildserien (z. B. ein Bild pro Sekunde) wird als dyna-
mische Akquisition bezeichnet und typischerweise direkt nach Injektion des Radio-
pharmakons zur Beurteilung der regionalen Perfusion eingesetzt. Hierbei und immer
5 Szintigraphie und SPECT | 155

(a) (b)

(c) (d)

Abb. 5.12: Szintigraphie und SPECT: (a) statische Aufnahme der Schilddrüse. (b) Dynamische Nie-
rensequenz. (c) Skelettganzkörperszintigraphie. (d) SPECT-Hirnperfusion.

wenn die Gammakamera bewegt wird, muss jede gemessene Zählrate mithilfe der be-
kannten Zerfallskonstante des verwendeten Isotops auf eine Aktivität zur Zeit der In-
jektion korrigiert werden.
Für eine Volumendarstellung ist es notwendig, eine bestimmte Anzahl planarer
Projektionen aus verschiedenen Winkelrichtungen zum Objekt aufzunehmen. Diese
Aufnahmetechnik wird als SPECT bezeichnet. Mithilfe spezieller mathematischer Re-
chenalgorithmen (s. 󳶳Kap. 5.6.1 und 󳶳Kap. 3.4, Computertomographie) ist es möglich,
aus zweidimensionalen Projektionsbildern einen dreidimensionalen Volumendaten-
satz zu berechnen und die Radioaktivitätsverteilung überlagerungsfrei in einzelnen
Schichten darzustellen (Tomographie). Wenn die Projektionen mit zusätzlichen In-
formationen, z. B. EKG oder Atmung des Patienten, verbunden sind, spricht man von
einem getriggerten (gated) SPECT.
Bei der Aufnahme von Szintigrammen unterscheidet man den frame mode und
den list mode. Beim frame mode wird jedes registrierte Quant sofort bezüglich seines
Ereignisortes in einer vorher definierten Bildmatrix gespeichert. Die Information des
156 | Kristin Kötz, Henrik Botterweck

Zeitpunktes der Registrierung wird somit entweder gänzlich verworfen oder impli-
zit verwertet, etwa bei der Nutzung einer Bildmatrix pro Winkelstellung des SPECT-
Detektors. Beim list mode werden die Orts- und Zeitinformationen der registrierten
Quanten fortlaufend gespeichert. Oftmals werden andere simultan akquirierte Infor-
mationen (EKG-, Atemtriggerung oder Bewegung) mit synchronisierten Zeitmarkern
erfasst und erlauben eine vielfältige Nachbearbeitung der Bilddaten unter gewissen
Gesichtspunkten (reframing). Dies erfordert einen wesentlich größeren Speicherplatz,
eine spezielle Software zur Datenverarbeitung und wird deshalb meist nur zu speziel-
len Untersuchungen genutzt.
Bei szintigraphischen Bilddaten können viele Möglichkeiten der digitalen Bild-
verarbeitung und -auswertung (z. B. Glättungsfilter, Kantenfilter, Quantifizierung mit-
tels ROI [Region of Interest] oder VOI [Voxel of Interest], Zeit-Aktivitäts-Kurven) genutzt
werden.

5.6 SPECT
5.6.1 Prinzip

SPECT als tomographische Darstellung bedingt die Aufnahme mehrerer Projektions-


bilder aus verschiedenen Richtungen. Deshalb muss die Halterung der Kamera eine
Rotation des Detektors um die zu untersuchende Region ermöglichen (󳶳Abb. 5.13).
Dabei nimmt der Detektor in einer vordefinierten Anzahl von Winkelschritten zwei-
dimensionale Bilder (Projektionen) auf. Nach Rekonstruktion dieser Projektionsauf-
nahmen erhält man überlagerungsfreie Schnittbilder.
Dabei sollten möglichst viele Projektionsbilder in kleinen Winkelabständen min-
destens über einen Winkelbereich von 180°, besser über einem Vollkreis aufgenom-
men werden. Günstig sind mindestens zwei Detektoren, so dass für 360° -Projektionen
jeder Detektor nur einen Halbkreis abtasten muss.

5.6.2 Aufnahmeparameter

Ideale Aufnahmeparameter (große Anzahl von Projektionen, lange Aufnahmezeit,


minimaler Objekt-Detektor-Abstand, streuungsfreies Objekt, hochauflösende Ma-
trix) stehen im Kontrast zu den realen Bedingungen. Deshalb müssen die Parameter
sorgfältig ausgewählt werden und sind immer ein Kompromiss zwischen Zählraten-
statistik, räumlicher Auflösung und der Untersuchungsdauer.
Lange Untersuchungszeiten führen zu Patientenbewegungen und verursachen
Bewegungsartefakte. Statistisch ausreichend hohe Impulszahlen und damit ein ver-
bessertes Signal-Rausch-Verhältnis können durch entsprechend hohe Aktivitäten,
lange Aufnahmezeiten und die optimale Wahl des Kollimators erreicht werden. Aus
5 Szintigraphie und SPECT | 157

Gammakamera

Abb. 5.13: Messprinzip bei der SPECT: rotierende Gammakamera.

Strahlenschutzgründen ist die Dosis für den Patienten so gering wie möglich zu hal-
ten (sogenannte diagnostische Referenzwerte). Der Detektorabstand zum Patienten
sollte so gering wie möglich sein, um Auflösungsverluste zu minimieren.

Energiefenster
Das Energiefenster (peak) und die Fensterbreite müssen entsprechend dem verwen-
deten Isotop voreingestellt sein und sollten überprüft werden.

Kollimatorwahl
Entscheidend ist die Energie des Isotops. Unterteilt in nieder-, mittel- und hochener-
getische Bereiche, stellt die Kollimatorwahl einen Kompromiss von Empfindlichkeit
(Ausbeute) und Ortsauflösung dar. Bei höheren Energien bedingt die stärkere Septen-
penetration dickere Kollimatorwände, was andererseits die Sensitivität oder bei ent-
sprechend vergrößerten Öffnungen auch die Ortsauflösung verringert. Der am häufigs-
ten verwendete Kollimator ist der Parallellochkollimator mit hoher Ortsauflösung.

Matrix
Die Matrix sollte der untersuchten Körperregion (bzw. dem untersuchten Organ) und
der Systemauflösung angepasst sein. Generell gilt, dass der Verlust an räumlicher Auf-
lösung, der mit der Verwendung einer kleineren Matrix einhergeht, irreversibel ist.
Bei Verwendung von größeren Matrizen kann es zu einer zu geringen Impulszahl
pro Pixel kommen. In diesem Fall sind iterative Rekonstruktionsverfahren, die explizit
158 | Kristin Kötz, Henrik Botterweck

die statistische Verteilung der Zählraten berücksichtigen (s. u.) vorteilhaft. Dies gilt für
aktuelle iterative Rekonstruktionsmethoden nicht mehr. Größere Matrizen benötigen
mehr Speicherplatz und Rechenleistung. Üblich für die SPECT ist 128 × 128.

Zoom
Für kleine Objekte kann es sinnvoll sein, bei der Akquisition das aktive Gesichtsfeld
des Detektors zu verändern, d. h. im Allgemeinen zu verkleinern. Dabei wird der Ras-
termaßstab geändert und nicht die Matrixgröße. Für den Rekonstruktionsalgorithmus
ist es notwendig, immer den ganzen Körper von ganz rechts bis ganz links im Blickfeld
zu haben. Falls dies nicht der Fall ist, sind spezielle Korrekturen zur Vermeidung von
Trunkations-(Abschneide-)artefakten notwendig.

Rotationswinkel
Für den Rekonstruktionsalgorithmus notwendig sind viele Projektionen über einen
Bereich von 180°. Optimal ist die Aufnahme von Projektionen in einem Vollkreis, da
nur so eine gleichmäßig gute Auflösung erreicht werden kann. Bei nur 180° wird die
Zählstatistik der rückwärtigen Bereiche wegen der Absorption unter Umständen zu
schlecht (im Unterschied zur CT). Bei Doppelkopfkameras mit gegenüberstehenden
Detektoren ist demnach eine Abtastung um 180° ausreichend.
Für nicht zentrisch liegende Organe (Herz) ist es auch üblich, Projektionen über
einen Rotationswinkel von nur 180° zu akquirieren; dabei stehen die Detektoren in
einem Winkel von 90° oder 76° zueinander.

Rotationsform
Die Detektoren können sich in einem fest definierten Abstand kreisförmig (circular)
oder auf einer elliptischen (non circular) Bahn körpernah um das Objekt bewegen.

Rotationsbewegung
Die Rotation kann schrittweise (step and shoot) oder kontinuierlich (continuous) er-
folgen. Bei der schrittweisen Bewegung bleibt der Kamerakopf zur Aufnahme einer
Projektion in vordefinierten Winkelschritten stehen, um nach der Aufnahme in die
nächste Position zu rotieren. Bei der kontinuierlichen Bewegung werden mit stetig
rotierendem Kamerakopf fortlaufend Projektionsdaten aufgenommen und in einer
vorgegebenen Anzahl von Projektionen gespeichert. Mit zunehmender Projektions-
zahl wird beim schrittweisen Modus der Zeitanteil für die Bewegungen (Anfahren
und Stoppen) an der Gesamtaufnahmedauer größer. Daher gewinnt der kontinuier-
liche Modus an Bedeutung, wobei die Auflösungsverluste durch die kontinuierliche
Bewegung meist vernachlässigbar sind.
5 Szintigraphie und SPECT | 159

Projektionen
Für eine artefaktfreie Rekonstruktion mit guter Auflösung ist prinzipiell eine hoch-
auflösende Matrix notwendig. Für analytische Rekonstruktionen sind darüber hinaus
Projektionsbilder in 180°-Rotation (s. o. Rotationswinkel) mit möglichst kleinen Win-
kelschritten notwendig, wobei sich hier die Zahl der Projektionen bei gewählter Ma-
trix durch das Abtasttheorem ergibt. So sollten für eine SPECT mit 128 × 128 Pixeln
bei einer Rotation von 180° insgesamt 128 Projektionsbilder aufgenommen werden.
Iterative Rekonstruktionsalgorithmen benötigen deutlich weniger Projektionsbilder.

Aufnahmezeit
Mit langen Aufnahmezeiten werden statistische Fehler kleiner und das Signal-Rausch-
Verhältnis besser. Limitierend ist die bei langen Aufnahmezeiten zunehmende Patien-
tenbewegung.

5.6.3 Prinzipien der SPECT-Rekonstruktion

In diesem Abschnitt sollen die für die SPECT spezifischen Eigenarten der tomogra-
phischen Bildrekonstruktion dargestellt werden. Die mathematische Modellierung
des Bildgebungsprozesses ist analog zum Fall der Röntgen-Transmissions-CT (s.
󳶳Kap. 3.4, CT): Die Messdaten ergeben sich aus der Anwendung eines mathemati-
schen Operators auf die zugrunde liegende räumliche Verteilung einer für die Wech-
selwirkung verantwortlichen Größe – dort die Schwächung der Röntgenintensität,
hier der spontane radioaktive Zerfall mit anschließender 𝛾-Emission. Für beide Fälle
gilt:
– Es gibt keine effizienten Röntgenlinsen: Deshalb muss die Richtungsinformati-
on der auf den Detektor treffenden Photonen auf andere Weise kodiert werden:
über eine Punktquelle bei der Transmissions-CT, Koinzidenzmessungen bei PET
(s. dort) und Kollimation bei SPECT.
– Da nur Projektionen (also Integrale längs eines Weges durch den Patienten) ge-
messen werden, geht auch die Tiefeninformation verloren. Das Signal in einem
Detektorpixel entspricht ideal einem Linienintegral bzw. real dem Integral über
das Blickfeld aus einer Kollimatoröffnung.
– Die Abbildung ist in guter Näherung linear: Der Summe zweier Aktivitätsvertei-
lungen entspricht die Summe ihrer Projektionen.

Rekonstruktion: Berechnung eines 2D/3D-Schnittbildes aus Projektionsdaten durch Lösen des zu-
geordneten 󳶳 inversen Problems.
160 | Kristin Kötz, Henrik Botterweck

Im einfachsten Modell ergibt sich für die Abbildung eines Objektes mit einem idealen
Parallelkollimator die lineare „X-ray“-Transformation (auch John-Transformation):
Projektionen sind Linienintegrale der Emissionsdichte. Der im Vergleich zur Trans-
mission fehlende Logarithmus vereinfacht die statistische Interpretation der Projekti-
onsdaten (s. u.).
In n = 2 Dimensionen fällt diese Integraltransformation mit der bekannteren Ra-
don-Transformation (Integration über n− 1 dimensionale Hyperebenen) zusammen,
für die effiziente analytische Rekonstruktionsformeln bekannt sind (s. 󳶳Kap. 3.4, CT).

Radon-Transformation: Abbildung einer n-dimensionalen Funktion auf ihre Integrale über (n − 1)-
dimensionale Hyperebenen. Vgl. X-ray-Transformation.

X-ray-Transformation: Abbildung einer zweidimensionalen Funktion auf ihre Integrale entlang ein-
dimensionaler Geraden, vgl. RADON-Transformation.

In realen Systemen ist die Transformation komplizierter:


– Wegen der Abbildungseigenschaften des Kollimators werden die Linienintegrale
durch gewichtete Integrale über angenähert kegelförmige Volumina ersetzt.
– Die Absorption des Gewebes erzeugt eine Gewichtung des Beitrags eines Punktes
zur Projektion, die entsprechend dem Schwächungsgesetz vom Integral über den
Absorptionskoeffizienten (im Exponenten einer e-Funktion) abhängt. Falls des-
sen Verteilung der Schwächungskoeffizienten bekannt ist (s. u.), spricht man von
der geschwächten X-ray- bzw. Radon-Transformation.
– Streuung erzeugt weitere Beiträge zu den Projektionen, die zwar linear von der
Emissionsverteilung, aber wegen der Möglichkeit von Mehrfachstreuung nichtli-
near von der Verteilung der Streukoeffizienten abhängen.

Die Aufgabe der SPECT-Rekonstruktion ist allgemein die Inversion des linearen Abbil-
dungsoperators, also das Auffinden der originalen räumlichen Verteilungsfunktion
der Emission. Dieses Problem ist mathematisch schlecht gestellt: Zwei sehr verschie-
dene Emissionsverteilungen können praktisch gleiche, sehr ähnliche Projektionen er-
zeugen – umgekehrt ist die Rekonstruktion also unstetig, kleine Abweichungen von
der mathematisch idealen Projektion etwa durch die unvermeidlich diskrete Vertei-
lung gemessener Photonen können zu sehr großen Abweichungen im rekonstruierten
Volumen führen. Diese Abweichungen sind aber im Allgemeinen sehr stark räumlich
oszillierend, also unphysiologisch. Es kann also in geeigneter Weise Vorwissen in die
Rekonstruktion eingebracht werden, um realistische Bilder zu erhalten. Im einfachs-
ten Fall entspricht diese Regularisierung einer Glättung des Bildes.
Weniger problematisch ist der Umstand, dass nicht alle möglichen idealen vor-
stellbaren Projektionen als Ergebnis des Abbildungsoperators auftreten können. Den
gemessenen Projektionen entsprechen also wiederum wegen Messfehlern und Diskre-
tisierung im Allgemeinen überhaupt keine räumlichen Emissionsverteilungen. Dieses
Problem wird bei den verschiedenen Rekonstruktionen teilweise implizit durch einen
5 Szintigraphie und SPECT | 161

Ersatz der gemessenen Projektionen durch solche im Bildbereich des Abbildungsope-


rators gelöst. Die entscheidende Frage ist nun, auf welche Weise dies geschieht:
– Das Kriterium der kleinsten quadratischen Abstände (Least Squares, LSQ) ist sta-
tistisch optimal, solange die Projektionsdaten um den idealen Wert Gauss-verteilt
sind. Das ist aber bei der SPECT wegen der geringen Zählraten im Unterschied zur
Transmissions-CT nicht erfüllt. Darauf basierende Verfahren wie die Varianten der
ART (algebraische Rekonstruktion) sind hier deshalb weniger sinnvoll.
– Bei analytischen Rekonstruktionen, die auf geschlossenen Darstellungen im
nichtdiskretisierten Fall beruhen, weicht die implizit gewählte ideale Projektion
i. A. vom LSQ-Typ ab. Trotzdem sind solche Verfahren sehr erfolgreich bei großen
Zählraten (s. 󳶳Kap. 3.4, CT) und auch bei der SPECT wurden lange Zeit Verfahren
der gefilterten Rückprojektion (Filtered Back Projection, FBP) wegen ihrer nume-
rischen Effizienz und einfachen Regularisierbarkeit durch Filter im Fourierraum
eingesetzt.
– Die Grundidee der statistischen Rekonstruktion ist es, diejenige Emissionsdich-
te zu postulieren, die mit der größten Wahrscheinlichkeit unter Berücksichtigung
aller statistischen Abbildungseffekte inklusive „Messfehlern“ die gemessenen
Projektionen erzeugt hat. Der große Vorteil ist also die Möglichkeit, die Pois-
son-Verteilung der gezählten Photonen um den idealen Erwartungswert herum
genauso zu berücksichtigen, wie alle weiteren, unter Umständen nur empirisch
zu beschreibenden Effekte etwa durch Mehrfachstreuung, Totzeit im Detektor,
elektronisches Rauschen etc.
– Die Wahrscheinlichkeit, dass eine Emissionsverteilung eine Projektion (Beob-
achtung) erzeugt, heißt auch deren likelihood. Obiges Prinzip der statistischen
Rekonstruktion ist also deren Maximierung (Maximum Likelihood, ML), dies „löst“
das Problem der Abweichung der Messdaten vom Bildraum des Abbildungsope-
rators. Die Frage der Regularisierung des schlecht gestellten Problems stellt sich
aber nach wie vor. Die statistisch erstrebenswerte Lösung ist die Einbeziehung der
A-priori-Wahrscheinlichkeit möglicher Emissionsverteilungen: Die likelihood
wird maximiert bei Gewichtung mit der (physiologischen) Wahrscheinlichkeit
der Emissionsverteilung (Maximum a posteriori, MAP). Im einfachsten (und nu-
merisch durchführbaren) Fall reduziert sich die A-priori-Gewichtung wieder auf
eine Bevorzugung glatter Verteilungen. Weitergehende anatomische Einschrän-
kungen sind riskant: Im Extremfall würde nur das rekonstruiert werden, was man
sehen „will“, etwa ein gesundes Herz ohne „unwahrscheinliche“ Läsionen.

Maximum-likelihood-Methode: statistisches Schätzkriterium zur Maximierung der Wahrschein-


lichkeit bei gegebenen Beobachtungen.

Diese vier prinzipiellen Herangehensweisen sind in 󳶳Abb. 5.14 schematisch visuali-


siert.
162 | Kristin Kötz, Henrik Botterweck

Volumen-Raum Sinogramm-Raum
unstetiges Rˉ¹

W-Verteilung
des Rauschens
Rekon EM

AP (R)
ert/M FB P
Bild
gularisi Rekon
re

n LSQ
Reko

FBP
LSQ
r
he
he ri

EM
sc rio

lic
in
hr a p

Messung
wa

Abb. 5.14: Schematische Darstellung der Rekonstruktion als Inversion des Abbildungsoperators und
speziell der Rolle statistisch motivierter Rekonstruktion (maximum-likelihood/EM und MAP). Links
ist der Raum aller möglichen Emissionsverteilungen gezeigt, rechts derjenige der Projektionen und
darin die Menge „konsistenter“, idealer Projektionen im Bildbereich des Abbildungsoperators R.
Die Rekonstruktion führt von den gemessenen Projektionen zurück in den Raum der Emissionsver-
teilungen.

5.6.4 Statistische Rekonstruktionsalgorithmen

Die meisten heute eingesetzten Verfahren beruhen auf dem EM-Algorithmus [Lange
1984]. Er findet iterativ die Lösung eines Maximum-likelihood-Problems durch ab-
wechselnde Schätzung der Beobachtungen unter Annahme unbeobachtbarer Größen
– hier der Verteilung der einzelnen Emissionsorte – und anschließender Maximie-
rung der likelihood unter der gegebenen Verteilung. Konkret bedeutet dies im ersten
Schritt die Simulation der Bildgebung für eine angenommene Emissionsverteilung
– die Vorwärtsprojektion – und anschließend die numerische Zurückprojektion von
Korrekturfaktoren in das modellierte Volumen, um eine verbesserte Schätzung zu
erhalten.
Diese Korrekturfaktoren sind das Verhältnis der gemessenen zu den in der Vor-
wärtsprojektion geschätzten Zählraten je Pixel. Die Laufzeit dieses Algorithmus wird
erst praktikabel, wenn je Iterationsschritt nur je eine von mehreren repräsentati-
ven Teilmengen aller gemessenen Projektionen verwendet wird (Ordered Subset EM,
OSEM). Weiterentwicklungen des OSEM-Algorithmus betreffen die Berücksichtigung
von Vorwissen (MAP-Verfahren) oder empirisch geschicktere Wahlen der Korrektur-
werte (RAMLA) [Browne 1996].
5 Szintigraphie und SPECT | 163

Ordered Subset Expectation Maximisation (OSEM): verbreiteter, statistisch basierter, iterativer


Rekonstruktionsalgorithmus.

Ein Problem ist in jedem Fall die Feststellung, wann die Iteration abzubrechen ist.
Häufig werden nur zwei oder drei vollständige Schritte durchgeführt, dies entspricht
einer impliziten Regularisierung (s. o.) – anschließend würden die Bilder immer stär-
kere oszillierende Artefakte aufweisen.
Während also eine mathematisch exakte Charakterisierung der Konvergenz und
Stabilität von OSEM-Algorithmen schwieriger als für analytische Verfahren ist, so ist
doch deren großer Vorteil die Möglichkeit, die im folgenden Abschnitt beschriebenen
physikalischen Effekte direkt im Vorwärtsprojektor berücksichtigen zu können: OSEM
ist nicht direkt abhängig von der idealisierten X-ray-Transformation, die analytischen
Verfahren zugrunde liegt. Aus dem gleichen Grund werden auch weitere Verallgemei-
nerungen möglich, z. B. die gleichzeitige Rekonstruktion mehrerer Nuklide, um z. B.
Stress- und Ruheaufnahmen des Herzens in einer Sitzung zu erhalten [Botterweck
2007].

Quantitative Rekonstruktion
Im Allgemeinen gilt SPECT im Unterschied zur PET als nicht quantitativ: Es werden
zwar numerische Werte wie z. B. relative Emissionsintegrale bestimmt, aber nicht ab-
solute Angaben über die Stoffmenge und Aktivität des angelagerten Tracers z. B. etwa
in Bq/cm3 . Dies liegt zum Teil an der historisch frühen Entwicklung der Technik mit
analoger Elektronik, zum anderen Teil aber an den großen Schwankungen absoluter
Werte bei fehlerhafter Schwächungskorrektur und bei nicht exakter Berücksichtigung
der statistischen Verteilung der Zählraten. Diese und weitere Effekte wie Down-scatter
(Streuung höherenergetischer Emissionsenergien in ein Energiefenster an einem nie-
derenergetischen Peak, bei einem oder mehreren gleichzeitigen Nukliden) können
aber prinzipiell mit den beschriebenen Rekonstruktionsverfahren hinreichend genau
modelliert werden. Forschungsbestrebungen sind deshalb auf dieses Ziel hin ausge-
richtet, da moderne Diagnostik auch in Kombination mit anderen Modalitäten immer
spezifischere funktionale Daten benötigt.

5.6.5 SPECT-Rekonstruktion für reale Systeme

In konkreten Implementationen eines Rekonstruktionsalgorithmus sind verschiede-


ne mögliche Fehlerquellen zu berücksichtigen. Grundsätzlich können Effekte, die von
der idealisierten SPECT-Bildgebung – Linienintegralen über Poisson-verteilte Emis-
sionen – abweichen, entweder
– vor der Rekonstruktion auf den Messdaten beseitigt,
164 | Kristin Kötz, Henrik Botterweck

– in einem entsprechend verallgemeinerten Rekonstruktionsalgorithmus explizit


berücksichtigt
– oder auf den rekonstruierten Volumina korrigiert werden.

Kalibrierung der Rohdaten


Der erste Fall entspricht einer Kalibrierung. Typischerweise werden damit physika-
lisch bedingte Abweichungen der Gammakamera korrigiert, vor allem (s. 󳶳Kap. 5.2.1
und 5.4):
– räumlich inhomogene Sensitivitäten, die von den Photomultipliern herrühren,
– Verzerrungen gerader Linien, die aus der Koordinatenberechnung mittels Anger-
Logik stammen, wenn wiederum die PM ungleich sind,
– Abweichungen der Lotrechten auf dem Kamerazentrum vom gedachten Rotati-
onszentrum (Center-of-rotation-Korrektur),
– Fehler in der Energiebestimmung einzelner Quanten, die von einer Gauss-
Verteilung um den wahren Wert abweichen – je nach verwendetem Radionuklid.

Solche Abweichungen können im Rahmen regelmäßiger Qualitätskontrollen mithilfe


geeigneter Messphantome festgestellt werden, teils in täglichen oder wöchentlichen
Routineverfahren, teils bei selteneren Service-Prozessen. Sie werden in parametrisier-
ter Form typischerweise direkt in der Kameraelektronik gespeichert, die dann auch die
gemessenen Rohdaten entsprechend korrigiert.
Es gibt Bestrebungen, die routinemäßigen Kalibrierungsschritte durch automati-
sierte Verfahren zu vereinfachen, die keine oder weniger Kollimatorwechsel oder sons-
tige manuelle Eingriffe erfordern.

Modellierung von Korrekturen in der Rekonstruktion


Effekte, die nicht von der Detektion selbst herrühren, können nicht durch Kalibrati-
onstabellen in der Kamera repräsentiert und berücksichtigt werden. Sie betreffen al-
so die Datenverarbeitung im Rekonstruktionsrechner. Während die Kameraelektronik
aus Effizienzgründen optimierte Hardware zur Signalverarbeitung enthält, ist Letzte-
rer eine übliche Workstation, im Allgemeinen getrennt von einem weiteren Rechner
innerhalb des Gerätes zur Systemsteuerung. Verbesserte Rekonstruktionsverfahren
können also im Rahmen qualitätsgesicherter Updates flexibel installiert werden.

Schwächung durch Absorption


Vordringlich ist die Berücksichtigung der Schwächung durch Absorption im Patien-
ten selbst. Wird sie vernachlässigt, erreichen aus dem Zentrum des Patienten weniger
Photonen den Detektor als erwartet, so dass das rekonstruierte Bild eine zum Rand
hin stark ansteigende Intensität vorgaukelt. Auch die Annahme einer homogenen
5 Szintigraphie und SPECT | 165

Schwächung von Wasser mit elliptischem Profil, ähnlich einem Patientenkörper,


ist unzureichend. Eine spezifische Schwächungskarte (attenuation map) mit einer
Transmissionsmessung gefunden. Teilweise werden dazu Linienquellen verwendet,
die im SPECT-Gerät fest integriert und normalerweise abgeschirmt sind. Sie wer-
den gegenüber der Kamera parallel zu ihr verschoben, während in der Kamera die
nicht senkrecht unter der Quelle befindlichen Regionen elektronisch maskiert wer-
den. Auf diese Weise kann ein Transmissions-Tomogramm erzeugt werden, dass
die Verteilung des Absorptionskoeffizienten im Energiebereich der Strahlenquelle
reflektiert. Typisch ist 153 Gd als Radionuklid mit einer nicht zu kleinen Halbwertszeit
von 240,4 Tagen und Haupt-Emissionsenergien von 41 keV und 102 keV im Bereich
typischer SPECT-Nuklide. Die Schwächung muss dann unter Annahme typischer
Materialien auf die jeweils verwendeten Nuklide umgerechnet werden. Wegen des
geringen Photonenflusses und der mäßigen räumlichen Auflösung ist die so erzeugte
Schwächungskarte sehr grobpixelig und nicht mit einer CT-Aufnahme vergleichbar.
Außerdem stellt die Handhabung der festen Quellen (Strahlenschutz) und deren
fortwährender Zerfall eine praktische Erschwernis dar. Auf der anderen Seite erhält
man eine zur SPECT-Messung zeitnahe Schwächungsverteilung, wie sie sonst nur mit
einer aufwendigen SPECT-CT Kombination realisierbar wäre.
Es gibt analytische Formeln zur SPECT-Rekonstruktion bei bekannter Schwä-
chung [Novikov 2002]. Da sich jedoch iterative Verfahren durchsetzen, kann die
Schwächung direkt im Vorwärtsprojektor (Expectation-Schritt des EM-Algorithmus)
berücksichtigt werden: Für die im aktuellen Schritt geschätzte Emissionsverteilung
wird der Erwartungswert der Projektionen entsprechend der Lage der Emissionsorte
und der auf dem Weg zur Detektion befindlichen Absorptionszentren bestimmt.
Alternativ zu eingebauten Strahlungsquellen können vorhandene CT-Daten auf
die für die SPECT notwendigen Energien und (geringeren) Ortsauflösungen umgerech-
net werden. Dedizierte SPECT/CT Kombinationen erlauben die zeitnahe Messung bei-
der Modalitäten, sind aber wegen der geringeren Flexibilität (Auslastung), höheren
Kosten und des im Vergleich zur PET/CT schlechter aufgelösten SPECT-Bildes (noch)
wenig verbreitet.

Streuung
Bei einer Oberkörperaufnahme werden viele Photonen gestreut, etwa 20. . . 30 % sogar
mehrfach. Bei niedrigen Energien ist der Beitrag der elastischen Rayleigh-Streuung
nicht zu vernachlässigen: Ein Streuzentrum erscheint dann für die Kamera wie eine
Originalemission. Für die meisten SPECT-Nuklide oberhalb 50 keV überwiegt jedoch
die Compton-Streuung. Wegen des damit verbundenen Energieverlustes des Photons
könnten Streusignale im Detektor prinzipiell durch eine Energieselektion am Emis-
sionswert unterdrückt werden. Das ist aufgrund der schlechten Energieauflösung im
Bereich von 10 % nur für Rückstreuung und Mehrfachstreuung um größere Winkel ef-
fektiv. Es funktioniert gar nicht im Falle mehrerer Emissionsenergien: Beispielsweise
166 | Kristin Kötz, Henrik Botterweck

emittiert 201 Tl zu etwa 10 % Photonen bei 135 keV und 167 keV zusätzlich zum Haupt-
peak um 71 keV. Wegen der geringeren Schwächung bei höheren Energien tragen diese
Quanten nach Streuung in den Bereich um 70 keV signifikant zu den Detektionen bei.
Ein gutes Korrekturverfahren beruht auf der Messung mehrerer Energiefenster um
den Hauptpeak herum (Triple Energy Window, TEW), so dass aus der Interpolation der
Nebenfenster auf den Emissionspeak im zentralen Fenster geschlossen werden kann.
Eine große Klasse von Korrekturansätzen beruht auf der Berücksichtigung der
Streuung während der Rekonstruktion selbst. Im einfachsten Fall kann der Streubei-
trag unter Annahme eines homogenen Wasservolumens geschätzt werden. Dabei wer-
den allerdings starke bzw. von Wasser abweichend schwache Streubeiträge etwa an
Knochenoberflächen oder in der Lunge falsch angenommen.
Die Compton-Streuung hängt im Wesentlichen von der Elektronendichte ab.
Diese kann aus CT- oder weniger genau auch Festquellen-Transmissionsdaten (s. o.)
geschätzt werden, wenn eine Materialklassifikation durchgeführt wird (grob nach
Luft/Lunge, Weichgewebe, Knochen). Wieder kann die Streuung also im Vorwärts-
projektor des EM-Algorithmus geschätzt werden. Numerisch vorteilhaft ist dabei, dass
sie als additiver Beitrag in den geschätzten Projektionen verbleibt, statt vor der Rekon-
struktion von den Messdaten subtrahiert zu werden. Die Subtraktion fehlerbehafteter
Größen ist wegen der relativen Fehlerverstärkung unbedingt zu vermeiden.
Die Gerätehersteller implementieren verschiedene Methoden, um die Streuung
effizient in iterativen Rekonstruktionen zu schätzen. Typisch ist die Verwendung
vorberechneter Streu-Faltungskerne und die Reduktion notwendiger Speicherzugriffe
durch ein geeignetes räumliches Abarbeiten der Beiträge. Als Goldstandard können
Monte-Carlo-Simulationen des Bildgebungsprozesses dienen. Um diese aber nicht
nur in der Forschung, sondern auch in Echtzeitanwendungen einsetzen zu kön-
nen, sind deutliche Vereinfachungen und Beschleunigungsmethoden zu verwenden
[Botterweck 2007 und Ref. darin].
Wegen der Subjektivität der Beurteilung von SPECT-Aufnahmen gerade im Hin-
blick auf Streuartefakte ist die Optimierung der Streukorrektur und der Vergleich ver-
schiedener Verfahren nicht leicht. Ein möglicher Zugang ist der Einsatz numerischer
Beobachter (Observer) als statistischer Klassifikatoren des Nutzwertes eines Bildes
[Farncombe 2004 und Referenzen darin] (s. 󳶳Kap. 21, Systemtheorie und ROC).

Tiefenabhängige Auflösung
Große Fortschritte bei der Bildqualität kommerzieller Systeme wurden durch die Be-
rücksichtigung der tiefenabhängigen Ortsauflösung, allgemeiner der Punkt-Abbil-
dungsfunktion des Kollimators (PSF) erreicht. In der Vorwärtsprojektion werden die
Beiträge in einem gegebenen Abstand zur Kamera mit der entsprechenden PSF gefal-
tet, bevor sie auf die Kamera projiziert werden. In der Rückprojektion kann Gleiches
geschehen, jedoch kann dies die Konvergenz des EM-Algorithmus verschlechtern.
5 Szintigraphie und SPECT | 167

Bewegungskorrektur
Wegen der langen Aufnahmezeiten sind Bewegungsartefakte problematisch. Wichtige
Beispiele sind die Leberspitze, die durch Atembewegung scheinbar durch das Zwerch-
fell hindurch das Herz erreichen und dessen Bildgebung stören kann, oder Teile des
Herzens selbst, die durch Atmung in extrakorporale Gebiete gelangen, wobei dann
die Schwächungskorrektur nicht mehr greift. Lösungsansätze hierzu basieren auf der
Korrektur der Projektionen um gemessene oder geschätzte Bewegungen oder auf der
Zerlegung der Aufnahme in Zeitfenster (Gating) jeweils ähnlicher Bewegungszustän-
de von Atmung und/oder Herzschlag. In diesem Fall kann versucht werden, zur Ver-
besserung der dann geringen Zählraten auch statistische Information aus den jeweils
anderen Zeitfenstern zu verwenden.

5.7 Qualitätskontrolle
5.7.1 Gesetze, Verordnungen, Richtlinien, Leitlinien

Verbindlich auf nationaler Ebene sind das Atomgesetz und die Strahlenschutzver-
ordnung (StrlSchV). Daraus sind Richtlinien, DIN-Vorschriften und Empfehlungen
abgeleitet. Bestandteil der Qualitätssicherung ist die Zustandsprüfung (auch Abnah-
meprüfung), die daraus abgeleiteten Referenzbedingungen und die regelmäßigen
Konstanzprüfungen. Insbesondere bei tomographischen Untersuchungen können
schon geringe Abweichungen von den Referenzwerten zu schwerwiegenden Artefak-
ten bei der Bildrekonstruktion führen.
Die folgenden Angaben dienen nur der Übersicht und beziehen sich auf eine
SPECT-fähige Gammakamera (󳶳Tab. 5.3). Weiterführende Erklärungen und prakti-
sche Anleitungen können z. B. auf der Homepage der Deutschen Gesellschaft für
Nuklearmedizin (www.nuklearmedizin.de) unter der Rubrik Leitlinien in „Nuklear-
medizinische Bildgebung“ nachgelesen werden.
– Nulleffekt – Die Untergrundmessung dient der Erkennung von Kontaminationen
am Messkopf oder störenden radioaktiven Quellen in der Umgebung.
– Peak – zur Überprüfung der Energiefenstereinstellung für die verwendeten Nuk-
lide.

Tab. 5.3: Übersicht – Qualitätskontrollen eines SPECT-Systems.

(arbeits)täglich Untergrundzählrate
(arbeits)täglich Energiefenstereinstellung
wöchentlich Inhomogenität (extrinsisch)
wöchentlich Ausbeute
wöchentlich Center of Rotation COR
halbjährlich Linearität (Ortsauflösung)
168 | Kristin Kötz, Henrik Botterweck

– Inhomogenität – Die Systemhomogenität wird mit einer Flächenquelle überprüft


und bei Bedarf muss eine Korrekturmatrix erstellt werden.
– Ausbeute – Kontrolle der Nachweisempfindlichkeit mit einer Punkt- oder Flä-
chenquelle.
– Rotationszentrum (Center of Rotation, COR) – Die vorstellbare Drehachse der
Detektoren bei einer kreisförmigen Bewegung. Elektronisch oder mechanisch be-
dingte Abweichungen (offset) müssen nachjustiert werden. Die Kalibrierung er-
folgt mithilfe einer Linienquelle oder Punktquelle.
– Linearität – Die Kontrolle der Linearität erfolgt mit Lochmuster- oder Bleistreifen-
Phantomen.

Weitere empfohlene Konstanzprüfungen sind:


– Abbildungsmaßstab/Rastermaßstab,
– tomographische Inhomogenität und Kontrast,
– Kippwinkel des Messkopfes,
– Überprüfung der Dokumentationseinrichtung.

5.8 Klinische Anwendungen


SPECT ist ein verhältnismäßig aufwendiges Untersuchungsverfahren und kommt des-
halb in der klinischen Routine nur bei einem Teil der Untersuchungen zur Anwen-
dung (󳶳Abb. 5.15). Bei einigen Untersuchungen (z. B. Schilddrüsenszintigramm) be-
steht kein klinisch relevanter Informationsgewinn gegenüber der planaren Aufnah-
metechnik. Dynamische Untersuchungen (z. B. Nierensequenzszintigramm) sind mit
einem SPECT-System, das mit rotierenden Detektoren operiert, nicht möglich. Neue-
re Entwicklungen in Richtung statischer SPECT-Systeme könnten auch dynamische
Untersuchungen im SPECT-Modus erlauben.
Klinische relevante Vorteile von SPECT sind:
– überlagerungsfreie Darstellung,
– höherer Kontrast (target-to-background ratio), der zur besseren Abbildung kleine-
rer Läsionen führt,
– die Möglichkeit, aus dem dreidimensionalen Datensatz zweidimensionale Schnitt-
bilder beliebiger Orientierung herzustellen (Reorientierung),
– Überlagerung mit anderen Untersuchungsverfahren (CT, MR).

Weitergehende Informationen stellen die einschlägigen Fachgesellschaften zur Verfü-


gung (www.nuklearmedizin.de, www.eanm.org, www.snm.org).
5 Szintigraphie und SPECT | 169

(a)

(b)

Abb. 5.15: Bildbeispiel SPECT: Somatostatinrezeptor (a) und Myokardperfusion (b).

5.9 Hybridbildgebung
5.9.1 Hybridbildgebung

SPECT kann funktionelle Vorgänge darstellen, die mit anderen bildgebenden Verfah-
ren nicht erfassbar sind, enthält aber oft nur unzureichende Informationen über deren
genaue anatomische Lage. Diese ist jedoch bei der Planung regional wirksamer The-
rapieverfahren (z. B. Operation, Strahlentherapie) unabdingbar. Unter Hybridbildge-
bung versteht man hier die Überlagerung mehrerer schnittbildgebender Verfahren.
170 | Kristin Kötz, Henrik Botterweck

5.9.2 Softwarebasierte Hybridbildgebung

Dabei werden die einzelnen Untersuchungen an getrennten Geräten durchgeführt und


können anschließend separat und überlagert (Bildfusion) dargestellt werden. Ein ty-
pisches Problem ist dabei die unterschiedliche Lagerung und Verfassung des Patien-
ten. Eine gute Anwendungsmöglichkeit stellen z. B. SPECT/MR-Hirnuntersuchungen
dar – Patientenlagerungsfehler sind minimal, dedizierte Hybridgeräte (s. u.) stehen
derzeit aber nicht zur Verfügung.

5.9.3 Hardwarebasierte Hybridbildgebung

Es werden mehrere Untersuchungsverfahren an einem dedizierten Hybridgerät


durchgeführt. Kommerziell verfügbar sind SPECT/CT-, PET/CT-, SPECT/PET/CT-,
PET/MR- und PET/Mammographie-Geräte. In den meisten Fällen sind zwei Unter-
suchungseinheiten (z. B. Doppelkopf-SPECT und CT) hintereinander in einem Gerät
mit gemeinsamer Patientenliege untergebracht. Dies bedingt eine sequenzielle Auf-

Abb. 5.16: Nebenschilddrüsen-SPECT-CT.


5 Szintigraphie und SPECT | 171

nahme beider Verfahren. Vorteile der hardwarebasierten Hybridbildgebung sind


die präzisere Bildfusion, die Möglichkeit einer CT-gestützten Schwächungskorrektur
und die Verkürzung diagnostischer Untersuchungswege durch gleichzeitige Durch-
führung mehrerer Verfahren (z. B. Myokardperfusionsszintigraphie mit SPECT und
Koronarangiographie mit CT) (󳶳Abb. 5.16).

Quellenverzeichnis
Botterweck H., Bippus R., Gödicke A., Salomon A., Wieczorek H.: Iterative Monte-Carlo based
reconstruction for quantitative simultaneous multiple isotope SPECT. Imaging, Proc Fully 3D
2007; 221–224; www.fully3d.org/2007/Fully3D{_}HPIR{_}Proceedings.pdf. Zugriff: 15.12.2011.
Browne J., de Pierro A. B.: A row-action alternative to the EM algorithm for maximizing likelihood in
emission tomography. IEEE Trans Med Imag 1996; 15: 687–699.
Farncombe T., et al.: Assessment of scatter compensation strategies for 67Ga SPECT using numerical
observers and human LROC studies. J Nucl Med 2004; 45: 802–812.
Lange K., Carson R.: EM reconstruction algorithms for emission and transmission tomography. J
Comput Assist Tomogr 1984; 8: 306–316.
Novikov R. G.: An inversion formula for the attenuated X-ray transform. Ark Math 2002; 40: 145–167.

Testfragen
1. Was ist Szintigraphie? Was wird dabei gemessen, was wird für den Arzt dargestellt?
2. Was ist SPECT? Was wird dabei gemessen, was wird für den Arzt dargestellt?
3. Welche Strahlungsarten werden in der nuklearmedizinischen Diagnostik angewandt und wo ent-
stehen diese?
4. Was sind Radiopharmaka (Tracer)?
5. Welche Detektoren werden zum Nachweis von Gammaquanten genutzt?
6. Was sind Bestandteile einer Anger-Kamera?
7. Skizzieren Sie den schematischen Aufbau eines Gammakamerakopfes.
8. Was sind fokussierende Kollimatoren?
9. Welche Komponenten und Aufgaben hat ein Photomultiplier (PMT)?
10. Warum wird die Ortsauflösung durch die Eigenschaften des Kollimators bestimmt?
11. Worin unterscheiden sich statische und dynamische Akquisitionen?
12. Wie unterscheidet sich das reale Rekonstruktionsproblem der SPECT von der mathematisch idea-
len Inversion der Radon-Transformation (min. vier physikalisch-technische Gründe)?
13. Erläutern Sie die statistische Formulierung des Rekonstruktionsproblems: Warum ist diese in der
nuklearmedizinischen Bildgebung (bisher) wichtiger als bei der Transmissions-CT?
14. Für Fortgeschrittene: Stellen Sie einen mathematischen Ausruck für den Logarithmus der like-
lihood der SPECT dar – in zwei Dimensionen, ohne Schwächung und mit einem idealen (im Grenz-
wert nichtdiskreten) Detektor und Kollimator.
15. Was versteht man unter Hybridbildgebung?
Simone Beer, Henrik Botterweck
6 PET

6.1 Diagnostische Zielsetzung | 174


6.2 Grundlagen | 174
6.3 Technik | 182
6.4 Algorithmen | 188
6.5 Klinische Anwendungen | 195
6.6 Qualitätssicherung und Normen | 197
6.7 Nebenwirkungen/Grenzwerte | 198
6.8 Neue Entwicklungen und Trends | 199

Zusammenfassung: Das genaueste Abbildungsverfahren der Nuklearmedizin ist die


Positronen-Emissions-Tomographie (PET): mit einer vergleichsweise geringen Strah-
lenbelastung können funktionale Prozesse im Körper des Patienten präzise abgebil-
det werden. Vom Tracer ausgesendet wird zwar zuerst ein Positron, dieses Positron
wird aber beim Zusammenstoß mit einem Elektron vernichtet („Annihilation“) und die
dabei entstehenden Gammaquanten werden nachgewiesen. Notwendig sind schnel-
le, empfindliche Szintillationskristalle mit passenden Photomultipliern und eine gute
Korrektur verschiedener Artefakte. Stärken der PET sind die molekulare Empfindlich-
keit, die mit spezifischen Tracern und auch in Kombination mit der Transmissions-CT
eine funktionale Bildgebung erlaubt.

Abstract: The most accurate imaging technique of nuclear medicine is Positron Emis-
sion Tomography (PET): with a comparably low radiation dose, PET depicts images
of functional processes in the patient. Slice images are calculated from coincidence
measurements of two 𝛽+ -annihilation gamma photons by tomographic reconstruc-
tion. Critical components are fast and sensitive scintillators with matching photomul-
tipliers and an efficient artifact correction. Recent improvements comprise time-of-
flight measurements and the detection of the depth-of-interaction for scintillation.
The strength of PET is its molecular sensitivity combined with highly specific trac-
ers, allowing for truly functional imaging. Advantageous is also the combination with
transmission-CT for anatomical imaging.
174 | Simone Beer, Henrik Botterweck

6.1 Diagnostische Zielsetzung


Die Positronen-Emissions-Tomographie (PET) ist ein bildgebendes Verfahren, das den
radioaktiven Zerfall von Positronenstrahlern ausnutzt und hauptsächlich in der Nu-
klearmedizin eingesetzt wird. Die Positronenstrahler werden in Zyklotronen erzeugt
und dann verwendet, um Substanzen zu markieren, die von biologischem Interesse
sind, z. B. mit radioaktivem Fluor markierte Glukose. Patienten bekommen diese so-
genannten 󳶳Tracer injiziert. Mittels PET können dann die entsprechenden biochemi-
schen und physiologischen Stoffwechselvorgänge im Körper aufgezeichnet werden.
PET ist ein bewährtes Verfahren in der molekularen Bildgebung.

6.2 Grundlagen
6.2.1 Positronenstrahler

Der Atomkern besteht aus zwei Sorten von Elementarteilchen mit nahezu gleicher
Masse, den positiv geladenen Protonen und den ungeladenen Neutronen. Die Kernla-
dung wird durch die Anzahl der Protonen ausgedrückt und entspricht der Ordnungs-
zahl Z des Atoms, die Summe von Protonen und Neutronen der Massenzahl A. Die
Nuklide werden durch das Symbol des chemischen Elementes X (z. B. Fe für Eisen
oder C für Kohlenstoff) und die Massenzahl A, gelegentlich auch zusätzlich durch die
Ordnungszahl Z beschrieben: AZ X bzw. A X.
Nuklide mit demselben Z, aber unterschiedlichem A werden als 󳶳Isotope be-
zeichnet. Isotope mit überschüssigen Protonen oder Neutronen sind instabil und ge-
hen unter Aussendung von radioaktiver Strahlung in einen stabilen Zustand über. Sol-
che Isotope werden als Radioisotope oder Radionuklide bezeichnet. Für die PET von
Interesse sind die Radioisotope mit Protonenüberschuss, die durch Positronenemis-
sion, auch Beta-Plus-Zerfall (𝛽+ ) genannt, zerfallen. Ein Proton des Kernes wird in ein
Neutron umgewandelt, und dabei werden ein Positron und ein Neutrino ausgesandt.
Die freiwerdende Energie wird zwischen den beteiligten Teilchen aufgeteilt. Daher ha-
ben die Positronen ein Spektrum an unterschiedlichen Energien bis hin zu einer Maxi-
malenergie. Der zeitliche Verlauf des radioaktiven Zerfalls wird durch die Halbwerts-
zeit charakterisiert, d. h. der Zeit, nach der jeweils die Hälfte der Kerne zerfallen ist.
󳶳Tabelle 6.1 zeigt einige für die PET wichtige Radionuklide und ihre Eigenschaf-
ten. Hergestellt werden PET-Radionuklide durch Bestrahlung von Flüssigkeiten oder
Gasen in sogenannten Zyklotronen.
Das Positron ist das Antiteilchen des Elektrons. Wenn ein Positron auf ein Elek-
tron trifft, vernichten sich die beiden unter Aussendung von zwei in entgegengesetzte
Richtung auseinanderfliegende Gammaquanten, die jeweils eine Energie von 511 keV
haben (󳶳Abb. 6.1).
6 PET | 175

Tab. 6.1: Positronenstrahler und ihre Eigenschaften [Pfennig 1998, Levin 1999].

Radionuklid Halbwertszeit in min Emax in MeV Halbwertsbreite der


Positronenreichweite in mm
11
C 20,38 1,0 0,188
13
N 9,96 1,2 0,282
15
O 2,03 1,7 0,501
18
F 109,7 0,6 0,102

Positronen-emittierendes
Radionuklid 511 keV Photon
Positron

Elektron

511 keV Photon

Abb. 6.1: Positronenemission und nachfolgende Annihilation unter Aussendung von zwei 511 keV
Photonen.

Diese entspricht der Masse der beiden Teilchen nach der Einsteinschen Masse-
Energie-Beziehung
E = mc2 = me c2 + mp c2 (6.1)
Dabei sind me und mp die Massen des Elektrons und des Positrons, c ist die Lichtge-
schwindigkeit (3 ⋅ 108 m/s). Dieser Prozess wird Annihilation genannt.

Annihilation (lat.: annihilatio – das Zunichtemachen): Vorgang der Paarvernichtung beim Aufein-
andertreffen von Teilchen und Antiteilchen. Im Falle der Positron-Elektron-Annihilation werden
beide Teilchen vollständig vernichtet. Dabei entstehen nach E = mc2 zwei Gammaquanten mit
einer Energie von jeweils 511 keV.

6.2.2 Das PET-Prinzip

Zwei wichtige Eigenschaften der Annihilation ermöglichen die Bildgebung mittels


PET: zum einen die recht hohe Energie der emittierten Photonen von 511 keV, die mit
hoher Wahrscheinlichkeit den Körper durchdringen und mit externen Detektoren
176 | Simone Beer, Henrik Botterweck

nachgewiesen werden können; zum anderen die Tatsache, dass die beiden emittier-
ten Photonen eine klare zeitliche und geometrische Beziehung zueinander haben.
Gelingt es, beide Photonen nachzuweisen, dann geht die Verbindungslinie (Line of
Response, LOR) beider Punkte durch den Ort der Annihilation, der wiederum dem
Punkt der Positronenemission sehr nahe liegt. Zusammengehörende Photonenpaare
erkennt man daran, dass sie gleichzeitig nachgewiesen wurden. Dieses bezeichnet
man als Koinzidenz.

Koinzidenz: zeitgleiches Auftreten, z. B. gleichzeitiger Nachweis eines zusammengehörenden


Photonenpaares in zwei Detektoren.

Line of Response (LOR): Verbindungslinie zwischen zwei Detektoren, die ein Photonenpaar in Ko-
inzidenz nachgewiesen haben.

In einer typischen PET-Aufnahme werden viele Millionen solcher Photonenpaare von


einem Ring aus Detektoren nachgewiesen. Aus diesen Millionen Verbindungslinien
kann durch mathematische Rekonstruktionsverfahren ein Bild der Verteilung der
Substanz im Körper ausgerechnet werden. Die grundsätzlich erreichbare Auflösung
wird dabei von zwei Faktoren limitiert. Der erste ist die Positronenreichweite, d. h.
die Entfernung vom Annihilations- zum Emissionspunkt des Positrons. Aufgrund
der Energie, die dem Positron bei der Emission mitgegeben wird, folgt es zunächst
einem gewundenen Pfad und gibt dabei Energie ab, bis es auf ein Elektron stößt, mit
dem es annihiliert. Die maximale Positronenreichweite kann je nach Isotop einige
mm betragen, aber die häufige Richtungsänderung auf dem Weg vom Emissions-
zum Annihilationspunkt sorgt dafür, dass die mittlere Reichweite deutlich unter der
maximalen Reichweite liegt. In der 󳶳Rekonstruktion des Bildes kann die Positro-
nenreichweite zwar nicht korrigiert, wohl aber als inhärente Glättung des Bildes
berücksichtigt werden.
Der zweite Faktor ist die Winkelunschärfe, die sich aus der Tatsache ergibt,
dass Positron und Elektron zum Zeitpunkt der Annihilation nicht vollkommen in
Ruhe sind. Der kleine Restimpuls sorgt dafür, dass sich die Annihilationsphotonen
nicht ganz genau diametral voneinander wegbewegen, sondern dass es eine kleine
Abweichung (∼ 0,5° Halbwertsbreite) gibt. Diese Abweichung sorgt für eine gewisse
Unschärfe, da die Verbindungslinie zwischen den nachgewiesenen Photonen nicht
exakt durch den Annihilationsort geht. Dieser Effekt spielt mit zunehmendem Durch-
messer des Tomographen eine immer stärkere Rolle.

6.2.3 Wechselwirkung von 511 keV Photonen mit Materie

Die wichtigsten Wechselwirkungen, die ein 511-keV-Photon mit Materie haben kann,
sind 󳶳Photoeffekt und 󳶳Compton-Effekt. Beim Photoeffekt transferiert das Pho-
6 PET | 177

Tab. 6.2: Schwächungskoeffizienten ausgewählter Gewebetypen und Materialien für 511-keV-


Photonen [Hubbell 2004, Melcher 2000].

Material 𝜇 in cm−1 Halbwertsdicke in cm


Luft 0,0001 6.602
Fettgewebe 0,09 7,5
Knochen 0,17 4,0
Gehirn 0,1 6,9
Skelettmuskulatur 0,1 6,9
Wasser 0,096 7,15
Blei 1,83 0,38
BGO (Bi4 Ge3 O12 ) 0,96 0,72
LSO (Lu2 SiO5 ) 0,87 0,8

ton seine Energie vollständig auf ein Hüllenelektron eines Atoms und wird dadurch
vollständig absorbiert. Das Hüllenelektron wird in einen angeregten Zustand geho-
ben oder verlässt sogar das Atom. In Festkörpern und Flüssigkeiten wird es aber sehr
schnell wieder absorbiert, so dass in diesen Fällen das Resultat des Photoeffektes die
komplette Absorption des Photons ist. Die gesamten 511 keV werden lokal im umge-
benden Material deponiert.
Im Gegensatz dazu wird das Photon beim Compton-Effekt an einem Elektron ge-
streut. Dabei geht ein Teil der Energie auf das Elektron über, und das Photon ändert
seine Richtung abhängig vom Energieübertrag. Die Wahrscheinlichkeit, dass ein Pho-
toeffekt oder Compton-Effekt auftritt, hängt von der Kernladungszahl des Materials
ab. Die Abhängigkeit geht für den Photoeffekt etwa mit Z 4 , für den Compton-Effekt
mit Z. Zusammengenommen werden diese Effekte durch den linearen Schwächungs-
koeffizienten 𝜇 ausgedrückt. Er hat die Einheit 1/cm, d. h., er beschreibt die Wahr-
scheinlichkeit für die Absorption eines Photons im Verhältnis zur Dicke des Materials
und ist von der Energie des einfallenden Photons sowie der Kernladungszahl des ab-
sorbierenden Materials abhängig.
󳶳Tab. 6.2 zeigt den Schwächungskoeffizienten für 511-keV-Photonen von einigen
ausgewählten Gewebetypen und Detektormaterialien sowie für Blei, das häufig zur
Abschirmung verwendet wird. Die Wechselwirkung kann nun durch ein Exponential-
gesetz beschrieben werden:
I(x) = I(0) exp(−𝜇x) (6.2)

Dabei ist I(0) die Intensität des einfallenden Photonenflusses und I(x) die Intensität
des Photonenflusses nach einer Distanz x im Material. Die Halbwertsdicke in 󳶳Tab. 6.2
gibt die Stärke des Materials an, nach der nur noch die Hälfte der einfallenden Pho-
tonen vorhanden ist. Während die Wechselwirkung der Photonen im Gewebe ein un-
erwünschter und störender Prozess ist, ist sie für den Nachweis im Detektor die unbe-
dingte Voraussetzung.
178 | Simone Beer, Henrik Botterweck

6.2.4 Echte, gestreute und zufällige Koinzidenzen

Unter idealen Bedingungen würden nur echte Koinzidenzen gemessen, d. h. Koinzi-


denzen, die aus ein und demselben Ereignis stammen und ungestört den Körper ver-
lassen haben. Die Wechselwirkungswahrscheinlichkeit der Photonen im Gewebe sorgt
allerdings dafür, dass ein Teil der Photonen den Körper erst nach einer Compton-
Streuung verlässt und dementsprechend eine Richtungsänderung erlitten hat. Wer-
den in diesem Fall die beiden Photonen in Koinzidenz nachgewiesen, geht die Ver-
bindungslinie nicht mehr durch den Punkt der Annihilation. Diese Ereignisse werden
gestreute Koinzidenzen genannt. Sie tragen zum Untergrund bei und reduzieren den
Kontrast im Bild. Die gestreuten Koinzidenzen hängen von der Verteilung der Aktivität
und der Form sowie der Zusammensetzung des Streumediums ab. Ihr Anteil kann bis
auf über 50 % anwachsen. Sie werden üblicherweise während der Datenweiterverar-
beitung mittels aufwendiger mathematischer Verfahren korrigiert.
Die aus einer Annihilation stammenden Photonen werden zwar gleichzeitig emit-
tiert, aber aufgrund der endlichen Zeitauflösung der Detektoren kann es beim Nach-
weis der Photonen im Detektor Zeitunterschiede von wenigen Nanosekunden geben.
Deshalb werden Signale als koinzident akzeptiert, wenn sie innerhalb eines gewissen
Zeitfensters auftreten. Dadurch ist es aber auch möglich, dass in dieser Zeitspanne
zufällig eine weitere Annihilation stattfindet und aus den beiden Annihilationen je-
weils ein Photon nachgewiesen wird. Da diese beiden Photonen nicht miteinander in
Beziehung stehen, geht auch hier die Verbindungslinie nicht durch den Ort der An-
nihilation. Solche Art Ereignisse werden zufällige Koinzidenzen genannt. Sie tragen
auch zum Untergrund bei. Seien N1 und N1 die Einzelzählraten der beiden beteiligten
Detektoren und 𝜏 das Zeitfenster, in dem eine Koinzidenz als solche akzeptiert wird,
dann lässt sich die Rate der zufälligen Koinzidenzen durch NR = 2𝜏N1 N2 ausdrücken.
Die Einzelzählraten der Detektoren sind proportional zur Aktivität im Messfeld. Dar-
aus folgt, dass die Rate der zufälligen Koinzidenzen quadratisch mit der Aktivität im
Messfeld steigt.

6.2.5 Parallaxeneffekt

Fehlzuordnungen von der Verbindungslinie zum Annihilationspunkt können auch


durch den sogenannten Parallaxeneffekt hervorgerufen werden. Er ist darauf zurück-
zuführen, dass die Wechselwirkung des Photons nicht an der Detektoroberfläche, son-
dern im Inneren des Detektors stattfindet.

Parallaxeneffekt: Abstand zwischen Annihilationsort und Verbindungslinie der koinzidenten De-


tektoren hervorgerufen bei schräg zur Verbindungslinie stehenden Detektoren durch die Wech-
selwirkungstiefe der Photonen im Detektor.
6 PET | 179

Abb. 6.2: Parallaxeneffekt am Beispiel eines Ringsystems mit diskreten Detektoren.

󳶳Abb. 6.2 soll den Parallaxeneffekt am Beispiel eines Ringsystems mit diskreten
Detektoren verdeutlichen. Die Photonenpaare, die aus dem Zentrum des Messfel-
des emittiert werden, dringen senkrecht in den Detektor ein. Unabhängig von der
Eindringtiefe geschieht die Wechselwirkung immer noch in dem Detektor, in den
das Photon ursprünglich eingedrungen ist. Für Photonen, die am Rande des Mess-
feldes emittiert werden, stellt sich die Situation anders dar. Sie können schräg auf
die Detektoren auftreffen und mehrere Detektoren durchdringen, bevor es zu einer
Wechselwirkung kommt. Verbindet man die Detektoren, in denen die Wechselwir-
kung stattgefunden hat, miteinander, bekommt man eine Abweichung der Verbin-
dungslinie vom ursprünglichen Ort der Annihilation. Dieser Effekt verursacht eine
Verschlechterung der Auflösung in radialer Richtung und ist von besonders großer
Bedeutung in Tomographen mit einem kleinen Durchmesser. Abhilfe bieten Systeme,
die in der Lage sind, die Wechselwirkungstiefe (Depth of Interaction, DOI) in den
Detektoren zu bestimmen.

Depth of Interaction (DOI; dt. Wechselwirkungstiefe): Wechselwirkungstiefe im Detektor. Mithilfe


ihrer Bestimmung kann der Parallaxeneffekt reduziert werden.
180 | Simone Beer, Henrik Botterweck

6.2.6 Laufzeitverfahren (Time of Flight)

Durch die Bestimmung einer Koinzidenz lässt sich zunächst nur eine Linie ermitteln,
auf der eine Annihilation stattgefunden hat. Eine Annäherung an den Punkt der An-
nihilation auf der Linie lässt sich erreichen, wenn es gelingt, zwischen den beiden
Photonen einen Zeitunterschied nachzuweisen. Wenn der Annihilationsort näher an
Detektor 1 als an Detektor 2 liegt, wird das Photon in Detektor 1 eher nachgewiesen als
das in Detektor 2. Der Zusammenhang zwischen der Zeitdifferenz 𝛥t und dem Ort der
Annihilation, bezogen auf einen Punkt exakt in der Mitte zwischen den Detektoren,
ist gegeben durch
Δt ⋅ c
d= (6.3)
2
wobei c die Lichtgeschwindigkeit (3 ⋅ 108 m/s) ist. Diese Technologie wird „Time of
Flight“ (TOF) genannt. Moderne Positronen-Emissions-Tomographen können eine
Zeitauflösung von ∼ 500 ps erreichen. Damit liegt die Genauigkeit, mit der der An-
nihilationsort auf der Verbindungslinie der Detektoren bestimmt werden kann, bei
7,5 cm. Die Time-of-flight-Technologie lohnt sich also erst bei Tomographen mit grö-
ßeren Durchmessern und ausgedehnten Messobjekten. Wird diese Information aber
in die Rekonstruktionsverfahren mit einbezogen, kann sie eine Verbesserung der
Bildqualität bewirken.

Time-of-Flight-Verfahren (TOF; dt. Laufzeitverfahren): Technologie, die den Zeitunterschied zwi-


schen dem Nachweis von zwei Annihilations-Photonen ausnutzt, wenn der Annihilationsort näher
an einem der beiden Detektoren liegt.

6.2.7 Leistungsmerkmale eines Positronen-Emissions-Tomographen

Die erreichbare Auflösung eines Positronen-Emissions-Tomographen kann als Fal-


tung von Positronenreichweite, Winkelunschärfe, geometrischen Faktoren und intrin-
sischer Detektorauflösung ausgedrückt werden. Unter der Annahme, dass diese Fak-
toren näherungsweise mit Gauss-Kurven beschrieben werden können, ergibt sich für
die Auflösung R die folgende Beziehung:

R ≈ √p2r + (0,0022 ∗ D)2 + R2int (6.4)

Dabei ist pr die mittlere Positronenreichweite, D der Durchmesser des Tomographen


und Rint die intrinsische Auflösung eines Detektorpaares. Unter optimalen Bedingun-
gen, d. h. für Tomographen mit geringem Durchmesser, kleinen Detektoren und für
Isotope mit geringer Positronenreichweite können zurzeit Auflösungen von knapp
1 mm erreicht werden.
6 PET | 181

Eine höhere Auflösung allein ist allerdings nicht automatisch mit einer besseren
Bildqualität gleichzusetzen. Ein Bild besteht aus kleinen Volumenelementen, deren
Inhalt farblich dargestellt wird. Eine höhere Auflösung bedeutet gleichzeitig, dass die
Volumenelemente des Bildes kleiner werden müssen. Bei einer Verbesserung der Auf-
lösung um einen Faktor 2 muss die Anzahl der Volumenelemente um einen Faktor
23 = 8 erhöht werden. Dementsprechend muss auch die 8-fache Menge an Daten auf-
genommen werden, um denselben statistischen Fehler pro Volumenelement zu erhal-
ten. Wenn nicht entweder die injizierte Dosis oder die Messzeit erhöht werden soll,
muss die Sensitivität (Angabe in Prozent) des Tomographen als weiterer signifikan-
ter Parameter betrachtet werden. Sie kann ausgedrückt werden als

𝜀2 𝜑𝛺
S = 100 ⋅ (6.5)
4𝜋
wobei 𝜀 die Nachweiswahrscheinlichkeit eines einzelnen Detektors für 511-keV-
Photonen ist. Die Packungsdichte 𝜑 beschreibt das Verhältnis zwischen Detektor-
material und Füllmaterial wie z. B. Reflektormaterial und liegt bei ca. 80 %. 𝛺 ist der
von den Detektoren bedeckte Raumwinkelbereich. Typische Sensitivitätswerte liegen
bei ca. 5 %. Eine äquivalente und häufig benutzte Einheit der Sensitivität ist auch
cps/Bq.
Für eine korrekte Interpretation der Messdaten ist ein linearer Zusammenhang
zwischen Aktivitätskonzentration im Messfeld und aufgenommenen Daten unabding-
bar. Durch die Totzeit des Tomographen, zu der sowohl die Detektoren als auch die
Elektronik beitragen, gibt es bei höheren Aktivitätskonzentrationen eine Abweichung
vom linearen Zusammenhang. Der Totzeitanteil DT ist definiert als %DT = 1 − T/Tex
und ist eine Funktion der Aktivitätskonzentration. Dabei ist T die Rate der gemesse-
nen echten Koinzidenzen und Tex die erwartete Rate der echten Koinzidenzen, die sich
aus einer linearen Extrapolation der Rate bei sehr geringen Zählraten ergeben würde.
Das Signal-Rausch-Verhältnis wird nicht nur durch das statistische Rauschen
beeinflusst. Auch gestreute und zufällige Koinzidenzen verursachen einen Unter-
grund. Der Anteil an zufälligen Koinzidenzen steigt quadratisch mit der Aktivität im
Messfeld und trägt bei hohen Dosen zur Totzeit des Tomographen bei. Ein prakti-
sches Maß für das Signal-Rausch-Verhältnis unter Berücksichtigung der Totzeit ist
die rauschäquivalente Zählrate (Noise Equivalent Count Rate, NECR oder NEC), eine
Funktion, die von der Aktivitätskonzentration im Messfeld abhängig ist:

T2
NEC = (6.6)
T + S + 2fR

Dabei ist T die Rate der echten, R die Rate der zufälligen Koinzidenzen und S sind die
gestreuten Koinzidenzen. f ist ein Maß für die Größe des Phantoms, das zur Messung
der NEC-Kurve verwendet wird, im Verhältnis zur Messfeldgröße.
182 | Simone Beer, Henrik Botterweck

Peak NECR

Zählrate in cps

Abb. 6.3: NEC-Kurve (Noise Equivalent Count


Aktivität in Bq Rate).

Noise Equivalent Count Rate (NEC; dt. rauschäquivalente Zählrate): auf gestreute und zufällige Ko-
inzidenzen korrigierte Zählrate; praktisches Maß für das Signal-Rausch-Verhältnis unter Berück-
sichtigung der Totzeit.

󳶳Abb. 6.3 zeigt eine typische NEC-Kurve. Aus der Kurve lässt sich abschätzen, welche
Aktivitätskonzentrationen im Messfeld zu sinnvollen Ergebnissen führen. Häufig wird
der Wert des Maximums der NEC-Kurve (Peak NECR in cps) angegeben. Je höher der
Wert ist, desto günstiger ist das Verhältnis von echten zu störenden Koinzidenzen.
Die Bildqualität kann durch die Homogenität des Bildes in homogenen Bereichen,
das Überstrahlen von heißen in kalte Bereiche („Spill-Over Ratio“, SOR) und die soge-
nannten Recovery-Koeffizienten beschrieben werden. Die Homogenität wird durch
die Standardabweichung, die das Bild von einem homogen gefüllten Volumen hat,
beschrieben. Befindet sich ein kalter Bereich in einer radioaktiven Umgebung, wird
durch die Bildrekonstruktion Aktivität in den kalten Bereich „hineinrekonstruiert“.
Dieses „Übersprechen“ stammt im Wesentlichen aus gestreuten oder zufälligen Ereig-
nissen. Eine möglichst kleine spill-over-ratio ist ein Zeichen für gut funktionierende
Korrekturverfahren. Wenn ein Volumen klein ist im Vergleich zur Auflösung des To-
mographen, verschmiert es aufgrund der begrenzten Auflösung und stellt sich als
größeres Volumen mit geringerer Aktivität dar. Das wird als Partialvolumeneffekt
bezeichnet. Die Recovery-Koeffizienten geben für Strukturen unterschiedlicher Grö-
ße den Faktor (zwischen 0 und 1) an, mit dem sich die dargestellte Aktivität von der
wirklichen unterscheidet.

Partialvolumeneffekt: Bildartefakt in der Computertomographie. Dabei stellt sich ein Volumen,


das im Vergleich zur Auflösung klein ist, als größeres Volumen mit geringerer Intensität dar.

6.3 Technik
Positronen-Emissions-Tomographen wurden ständig weiterentwickelt, seit die ersten
Instrumente mit einer Ortsauflösung von 1. . . 2 cm und geringer Sensitivität Mitte der
6 PET | 183

1970er Jahre aufgebaut wurden. Moderne Ganzkörper-PET haben mittlerweile eine


Auflösung von 3. . . 5 mm mit deutlich höherer Sensitivität. Neue Entwicklungen zielen
darauf ab, sowohl die Bildqualität als auch die Ortsauflösung bis hin zur physika-
lischen Grenze weiter zu verbessern. Die Detektoren und die Frontend-Elektronik
tragen entscheidend zum Erreichen dieser Ziele bei.

6.3.1 Szintillationskristalle

Für eine möglichst hohe Bildqualität müssen PET-Detektoren einige Anforderungen


erfüllen. Um eine gute Auflösung zu erreichen, sollten die Detektoren in der Lage
sein, den Ort der Wechselwirkung des Photons im Detektor möglichst präzise zu be-
stimmen. Das gelingt entweder über sehr kleine Detektorelemente oder über ausge-
dehnte Detektoren, die eine Möglichkeit zur genauen Ortsbestimmung der Wechsel-
wirkung haben. Darüber hinaus sollten sie eine hohe Nachweiswahrscheinlichkeit für
511-keV-Photonen haben und eine hohe Packungsdichte erreichen. Sie sollten die Si-
gnale der eintreffenden Photonen schnell verarbeiten, damit ein möglichst kurzes Ko-
inzidenzfenster verwendet werden kann. Die Energieauflösung der Detektoren sollte
gut genug sein, um eine Energiediskriminierung zur Unterdrückung von gestreuten
Photonen zu ermöglichen.
Heutzutage verwenden nahezu alle Positronen-Emissions-Tomographen Szintil-
lationsdetektoren. Ein Szintillationsdetektor (von lateinisch scintillare: funkeln, fla-
ckern) besteht aus einem transparenten Material, das die Eigenschaft hat, Lichtblitze
auszusenden, wenn es von ionisierender Strahlung getroffen wird. Je höher die Ener-
gie der einfallenden Strahlung ist, desto mehr Lichtblitze entstehen. Diese werden
dann durch einen Photomultiplier (PMT) oder eine Photodiode detektiert und in mess-
baren Strom umgewandelt. In diesem Zusammenhang ist es wichtig, zwischen den
einfallenden hochenergetischen Photonen (511 keV) und den im Szintillator erzeug-
ten optischen Photonen mit geringer Energie (wenige eV) zu unterscheiden. Ein ein-
fallendes Photon erzeugt im Szintillator viele tausend optische Photonen. Das Signal
eines PET-Detektors, egal ob es aus einem PMT oder einer Photodiode kommt, muss
so weiterverarbeitet werden, dass zum einen eine Koinzidenzerkennung möglich ist
und zum anderen die Informationen über die Position und die Energie des einfallen-
den Photons erhalten bleiben. Das verlangt unter Umständen eine speziell angepasste
Frontend-Elektronik, bevor die Signale digitalisiert und weggeschrieben werden kön-
nen.

Szintillator: Material, das Lichtblitze aussendet, wenn es von ionisierender Strahlung getroffen
wird.

Wichtige Szintillatoren für PET sind anorganische Kristalle. Sie werden charakterisiert
durch ihre Dichte, die Menge an Photonen pro einfallendem 511-keV-Photon, die Dau-
184 | Simone Beer, Henrik Botterweck

Tab. 6.3: Eigenschaften von Szintillatoren für die Positronen-Emissions-Tomographie [Knoll 2010].

Dichte in Lichtausbeute in Szintillationszeit Emissions- Brechungs-


g/cm3 Photonen/MeV in ns Wellenlänge in nm index
NaJ(Tl) 3,67 38 000 230 415 1,85
BGO 7,13 8 200 300 480 2,15
GSO:Ce 6,71 9 000 ∼ 56 440 1,85
LSO:Ce 7,4 25 000 47 420 1,82

er des Lichtblitzes und die Wellenlänge des emittierten Lichtes. Szintillatoren, die in
der PET eingesetzt werden, sollten eine möglichst hohe Dichte haben, um die 511-keV-
Photonen effektiv nachweisen zu können. Die Dauer des Lichtblitzes sollte möglichst
kurz sein, damit ein enges Koinzidenzfenster benutzt werden kann und die Totzeit des
Detektors nicht zu hoch wird. Eine wesentliche Quelle von Rauschen im Detektorsi-
gnal sind statistische Fluktuationen in der Anzahl der detektierten Szintillationspho-
tonen. Diese Fluktuationen unterliegen der Poisson-Statistik und gehen mit 1/√N,
wobei N die Anzahl der detektierten Photonen ist. Da das Signal des Photodetektors
sowohl zur Positionsbestimmung des einfallenden Photons als auch zur Energiedis-
kriminierung verwendet wird, sollten die Fluktuationen möglichst gering sein. Daher
sollte die Menge der erzeugten Photonen hoch sein und die Wellenlänge in einem Be-
reich liegen, in dem der Photodetektor empfindlich ist. Auch der Brechungsindex des
Szintillators ist nicht unwichtig, da ein unpassender Brechungsindex unerwünschte
Reflexionen an der Grenzfläche zwischen Photodetektor und Szintillator hervorrufen
kann.
󳶳Tab. 6.3 zeigt die Eigenschaften einiger für die PET wichtigen Szintillatoren.
In den frühen 1980er-Jahren war Wismutgermanat (BGO) der Szintillator der Wahl.
In den Folgejahren wurde er mehr und mehr durch neu entwickelte Szintillatoren
wie Gadoliniumoxyorthosilikat (GSO) und Lutetiumoxyorthosilicat (LSO) ersetzt, die
sich insbesondere durch eine höhere Lichtausbeute und kürzere Szintillationszeit
auszeichnen. Heutzutage ist LSO oder LYSO (LSO mit geringem Zusatz an Yttrium,
aber ansonsten fast gleichen Eigenschaften) in den meisten Fällen der Szintillator
der Wahl, weil er im Vergleich zu BGO und GSO noch dichter ist und eine sehr hohe
Lichtabgabe erzielt. Das erlaubt die Herstellung einzelner, sehr kleiner Detektorkris-
talle. Ein Nachteil von LSO-basierten Detektoren ist allerdings ein kleiner Anteil an
intrinsischer Radioaktivität, der auf das Vorkommen des langlebigen radioaktiven
Isotops 176 Lu im natürlichen Lutetium zurückzuführen ist.

6.3.2 Photodetektoren

In den meisten PET-Detektoren werden Photomultiplier (PMT) als Photodetektoren


verwendet (SPECT, s. 󳶳Kap. 5, 󳶳Abb. 5.4). Photomultiplier bestehen aus einer Pho-
6 PET | 185

tokathode, mehreren Dynoden und einer Anode. Das Szintillationslicht geht durch
ein Fenster auf die Photokathode, eine lichtempfindliche Schicht, aus der durch die
Photonen Elektronen gelöst werden. Jedes optische Photon hat, abhängig von seiner
Wellenlänge, eine gewisse Wahrscheinlichkeit, ein Photoelektron auszulösen. Diese
Wahrscheinlichkeit wird als Quanteneffizienz bezeichnet. Für die Szintillatoren aus
󳶳Tab. 6.3 und typische Bialkali-Photokathoden liegt diese Wahrscheinlichkeit bei
∼ 20 %.
Von der Photokathode werden die Elektronen durch ein elektrisches Feld auf
die erste Dynode beschleunigt, eine Elektrode, die wiederum mit einem Material
beschichtet ist, aus dem sich leicht Elektronen lösen können. Jedes beschleunigte
Elektron löst in der Dynode mehrere Elektronenemissionen aus. Der Elektronenstrom
wird also um einen entsprechenden Faktor verstärkt. Die Elektronen aus der ersten
Dynode werden auf die zweite Dynode beschleunigt und so weiter, bis z. B. nach
zehn Stufen eine Verstärkung des Elektronenstroms um ca. 106 erreicht wird. In der
Anode werden am Ende die Elektronen gesammelt und erzeugen einen Spannungs-
impuls. PMTs sind in verschiedensten Größen sowie als ortsempfindliche Varianten
erhältlich. Der Vorteil von Photomultipliern ist die hohe erreichbare Verstärkung des
Szintillationslichtes. Sie sind unempfindlich, stabil und sehr schnell. Ein Nachteil
ist ihre Größe und der Preis. Außerdem sind sie sehr empfindlich gegenüber Magnet-
feldern, wodurch sich ein Einsatz beispielsweise in kombinierten PET/MRT-Geräten
verbietet.
Eine Alternative zu PMTs sind Photodioden. Photodioden sind Halbleiterzähler.
In ihnen findet keine Verstärkung wie im Photomultiplier statt. Daher ist das Signal
einer Photodiode um einen Faktor ∼ 106 schwächer als das Signal eines PMTs. Das
Resultat ist ein sehr viel schlechteres Signal-Rausch-Verhältnis und die Notwendig-
keit, das Signal sehr viel länger integrieren zu müssen. Daher werden einfache Pho-
todioden normalerweise in der PET nicht verwendet, obwohl sie sehr kostengünstig
hergestellt werden können.
Eine Modifizierung der Photodiode ist die Avalanche-Photodiode (APD). Sie un-
terscheidet sich von der herkömmlichen Photodiode dadurch, dass eine viel höhe-
re Spannung angelegt wird. Dadurch bildet sich eine Ladungsträger-Lawine aus. Ein
einzelnes Photon kann in einer APD einige tausend Ladungsträgerpaare erzeugen.
Das Signal einer APD ist damit zwar längst nicht so hoch wie das eines PMTs, aber
doch wesentlich höher als das einer normalen Photodiode. Allerdings haben APDs
eine viel bessere Quanteneffizienz als Photomultiplier, so dass die geringere Verstär-
kung dadurch zum Teil kompensiert wird. Sie sind darüber hinaus klein und kompakt
und nicht sensitiv auf Magnetfelder. Das macht sie zu interessanten Detektoren für
die PET. Ein Nachteil ist allerdings die Empfindlichkeit der Verstärkung der APD auf
Spannungs- und Temperaturschwankungen, so dass besondere Sorgfalt beim Betrieb
von APDs angezeigt ist. Eine moderne Umsetzung der APD-Technik findet sich in so-
genannten Silicon-Photomultipliern (SiPM) [Buzhan 2003].
186 | Simone Beer, Henrik Botterweck

6.3.3 Detektoraufbau

Es gibt verschiedene Möglichkeiten, Szintillationskristalle so an Photodetektoren zu


koppeln, dass die Position der einfallenden Strahlung möglichst gut wiedergegeben
wird. Die am häufigsten verwendete Variante bei Tomographen der Humanmedizin
ist der Block-Detektor (󳶳Abb. 6.4 (a)) [Casey 1986]. Ein Szintillationskristall wird von
vier PMTs ausgelesen. Der Szintillationskristall ist mit Schnitten von unterschiedli-
cher Tiefe in Segmente geteilt. Das Szintillationslicht, das sich im Kristall ausbreitet,
wird so geleitet und entsprechend auf die vier Photomultiplier verteilt. So wird z. B.
das Licht, das in einer Ecke des Blocks erzeugt wird, fast ausschließlich von einem
Detektor erfasst werden. Licht, das in der Mitte des Kristalls erzeugt wird, wird von
allen vier Detektoren gesehen. Die Koordinaten des Kristalls, in dem die Szintillation
stattgefunden hat, werden berechnet, indem die Signale der vier Photomultiplier mit-
einander in Beziehung gesetzt werden (vgl. das Anger-Prinzip der Gamma-Kamera in
󳶳Kap. 5.5). Der Block-Detektor ist eine kostengünstige Variante, da 64 Positionen mit
nur vier Photomultipliern ermittelt werden können. Somit können Tomographen mit
tausenden von Detektorelementen realisiert werden.
Für kleinere PET wird auch eine 1 : 1-Ankopplung von kleinen Szintillationskris-
tallen an ortsempfindliche PMTs realisiert, entweder direkt (󳶳Abb. 6.4 (b)) oder über
Lichtleiter. Mit dieser Variante lässt sich eine noch bessere Auflösung erreichen.
Bis jetzt ging es nur darum, die X- und Y-Koordinate der Wechselwirkung zu ermit-
teln. Werden aber dickere Kristalle verwendet, um die Sensitivität des Tomographen
zu erhöhen, ist eine Bestimmung der Wechselwirkungstiefe (DOI) im Kristall sinn-
voll, um den Parallaxeneffekt zu reduzieren. Dazu gibt es verschiedene Möglichkeiten:
Eine Variante ist, zwei verschiedene Szintillationskristalle sandwichartig aufeinander
zu stapeln und z. B. anhand der unterschiedlichen Szintillationszeiten zu unterschei-
den. Dieses Prinzip ist bekannt unter dem Namen Phoswich („Phosphor Sandwich“).

(a) (b)

Abb. 6.4: Detektorkonzepte: (a) Block-Detektor; (b) direkte Kopplung.


6 PET | 187

Bei einer zweiten Variante werden die Szintillatoren von zwei Seiten ausgelesen. Auch
die Abschätzung der Wechselwirkungstiefe aus der Signalform ist möglich.

6.3.4 Multimodale Bildgebung

Da die PET aufgrund des Messprinzips nur funktionelle Information, aber keine Infor-
mation über die zugrunde liegende Anatomie liefert, besteht grundsätzlich ein großes
Interesse daran, auch die anatomische Information hinzuziehen zu können. Geeigne-
te Modalitäten für die Darstellung der Anatomie sind die Computertomographie (CT)
und die Magnetresonanztomographie (MRT oder kurz MR). Werden mehrere Modalitä-
ten zusammen angewendet, spricht man von multimodaler Bildgebung oder Hybrid-
bildgebung.

Multimodale Bildgebung: Bildgebung mit mehreren, sich komplementär ergänzenden Modalitä-


ten, z. B. PET/CT oder PET/MRT.

Dabei gestaltet sich die Kombination von PET und CT als relativ unkompliziert. Bei-
de Tomographen werden in der Regel in einer Tandem-Konfiguration hintereinander
in einem Gehäuse platziert, mit einer gemeinsamen Patientenliege, auf der der Pati-
ent durch beide Modalitäten gefahren wird. Zusätzlich zur anatomischen Information
kann das CT auch dazu dienen, die Schwächungskorrektur für PET durchzuführen
[Townsend 2004]. Dabei ist zu beachten, dass es durch die sehr kurze Messzeit des
CT im Vergleich zur PET zu Bewegungsartefakten kommen kann. Ein Nachteil der zu-
sätzlichen Untersuchung mittels CT ist allerdings die zusätzliche Strahlenbelastung
aufgrund der Röntgenstrahlen.
MRT liefert im Vergleich zum CT einen besseren Weichteilkontrast ohne jegliche
zusätzliche Strahlenbelastung. Darüber hinaus besteht mit funktioneller MRT auch
die Möglichkeit, zusätzliche funktionelle Information aus der MRT zu bekommen. Die
Kombination von MRT und PET verspricht also viele interessante Möglichkeiten. Al-
lerdings ist die instrumentelle Kombination von PET und MRT eine große Herausfor-
derung, da konventionelle PET-Detektoren PMTs verwenden, die sehr empfindlich auf
das Magnetfeld der MRT reagieren. Auf der anderen Seite können die PET-Signale die
elektromagnetischen Hochfrequenz-Impulse der MRT stören. Daher müssen alterna-
tive Detektorkonzepte für die PET-Detektoren entwickelt werden. Zurzeit gibt es die
ersten „PET-Inserts“, basierend auf Avalanche-Photodioden, für den Einsatz in der
Humanmedizin und für Kleintier-Tomographen.
Während bei einer PET/CT-Untersuchung beide Modalitäten sequentiell ge-
messen werden, können bei einem MRT mit PET-Insert die MRT- und die PET-
Untersuchung simultan stattfinden. Dieses bietet aufgrund der noch kürzeren Mess-
zeit noch mehr Komfort für die Patienten. Außerdem werden Bewegungsartefakte
weiter reduziert.
188 | Simone Beer, Henrik Botterweck

6.4 Algorithmen
Ein idealer PET-Algorithmus würde alle physikalischen Effekte explizit und statistisch
korrekt berücksichtigen. Das ist allerdings mathematisch und numerisch nicht reali-
sierbar. Deshalb wird im Allgemeinen nur der 𝛽+ -Zerfall in der Rekonstruktion selbst
modelliert, deren Regularisierung und Optimierung damit gut beherrschbar werden.
Weitere Effekte wie Streuung und Zufallskoinzidenzen werden als Störung aufgefasst.
Sie können entweder in der Vorverarbeitung als Datenkorrektur oder nachträglich als
Bildkorrektur berücksichtigt werden. Dem Vorteil vereinfachter, separater Betrach-
tung dieser Effekte steht der Nachteil einer nicht mehr konsistenten statistischen Mo-
dellierung des Gesamtsystems gegenüber.

6.4.1 List mode – Sinogramm

Die primären PET-Daten sind Koinzidenzen, die schon in der Hardware aufgrund der
Signalstärken und -verläufe klassifiziert werden. Die Liste all dieser Ereignisse verse-
hen mit Zeitmarken repräsentiert die vollständige Messinformation. Mit solchen List-
mode-Daten können deshalb statistisch korrekte Rekonstruktionen gemacht werden;
außerdem können nachträglich weitere Rekonstruktionsversuche optimiert werden.
Jedoch ist eine direkte List-mode-Rekonstruktion sehr zeit- und speicheraufwendig,
denn es müssen einige 108 Ereignisse sequentiell und wiederholt verarbeitet werden.
Es ist deshalb üblich, die Ereignisse in eine diskrete Menge geometrisch vereinfach-
ter LOR zu akkumulieren. Im idealisierten Fall würde jeder Gerade im Raum eine LOR
entsprechen.
Im zweidimensionalen Fall können die LOR nach ihrer Richtung und Verschie-
bung gegenüber dem Ursprung aufgetragen werden. Ein einzelner Aktivitätspunkt x
im Objekt trägt dann zu einer LOR bei, die auf einer Sinuskurve erscheinen, deren Am-
plitude und Phase eindeutig von x abhängen, dem Sinogramm. Der Diskretisierung
(binning) entspricht eine Integration aller Zerfälle über näherungsweise quaderförmi-
ge Volumenelemente entlang den LOR. Ursprünglich wurden alle zweidimensionalen
Schichten separat gemessen und rekonstruiert. Vorteile dabei waren die schnellere
Rekonstruktion und die Reduktion von Streuung durch Kollimatorbleche zwischen
den Ebenen. Moderne PET-Scanner erfassen sämtliche Koinzidenzen im zylinderför-
migen Detektor, wodurch die Sensitivität signifikant erhöht wird.

List Mode (LM; dt. Listenmodus): Datenformat, in dem alle Ereignisse nacheinander, ggf. zusam-
men mit weiteren Informationen (Zeit, Position, Energie), in Form einer Liste gespeichert werden.

Sinogramm (lat. sinus – Krümmung): Datenformat, in dem die Projektionen nach Richtung und
Verschiebung vom Ursprungsort aufgetragen werden; ergibt einen vollständigen Datensatz zur
Rekonstruktion einer Schicht als Gesamtheit aller Projektionen, zugeordnet zum Detektionsort,
über eine Drehung von 0°bis 180°. Ein Punkt stellt sich im Sinogramm als Sinuskurve dar.
6 PET | 189

6.4.2 Analytische Rekonstruktion: Pseudo-Inverse

Wie jede Tomographie ist die PET-Rekonstruktion ein schlecht gestelltes inverses Pro-
blem. Nicht zu jedem (fehlerbehafteten) Sinogramm P(𝜃, s) existiert eine passende Ak-
tivitätsfunktion A(x). Die Radontransformation ist nicht surjektiv, ihr Bildbereich nur
ein linearer Unterraum im Raum aller Sinogramme. Außerdem ist der Bildbereich der
Radontransformation nicht abgeschlossen. Das bedeutet, dass die Rekonstruktion als
inverse Transformation selbst auf dem Bildbereich nicht stetig ist. Beliebig kleine Feh-
ler resultieren in großen Abweichungen des Urbildes (vgl. 󳶳Abb. 5.14 in 󳶳Kap. 5).
Die mangelnde Surjektivität ist kein schwerwiegendes Problem, denn daraus fol-
gen Konsistenzbedingungen an den Bildbereich möglicher Sinogramme, die die Ent-
wicklung analytischer Rekonstruktionsalgorithmen sogar vereinfachen können, z. B.
[Natterer 2001].
Da die Radontransformation also nicht allgemein invertierbar ist, kann man ihre
Pseudo-Inverse betrachten, die jedem Sinogramm p eine Aktivitätsfunktion A zuord-
net, so dass die L2 -Norm ‖RA − P‖ minimiert wird [Rieder 2003]. Diese least-squares-
(LSQ-) Lösung wird meist iterativ gefunden.
Numerisch stabiler und effizienter ist die gefilterte Rückprojektion (Filtered Back-
projection, FBP), wobei die 󳶳Projektionen mit einem Ramp-Filter |k| im Fourierraum
gefiltert und dann direkt zurückprojiziert werden.
Weitere analytische Rekonstruktionsformeln lassen sich gewinnen, die bei
rausch- und fehlerfreien Sinogrammen immer exakt invertieren, ansonsten aber
zu verschiedenen Ergebnissen führen [Natterer 1999]. Für die PET müssen wir uns
aber in stärkerem Maße als etwa bei der CT dem Problem der Regularisierung und
den statistischen Effekten durch kleine Zählraten widmen. In Kombination erlaubt
dies bisher keine sehr gute analytische Lösung, so dass iterative Verfahren entwickelt
werden.

6.4.3 Schlecht gestellte Probleme und Regularisierung

Wirklich schlecht gestellt wird die PET-Rekonstruktion durch obigen zweiten Punkt,
die Unstetigkeit der Rekonstruktion. Es wird also eine Regularisierung notwendig: zu-
sätzliche Terme oder Annahmen, die den inversen Radon-Operator durch eine geglät-
tete, stetige Variante ersetzen [Scherzer 2009]. Die Aufgabe ist die Optimierung der
Glättungsparameter als Kompromiss zwischen den Effekten der Datenfehler – kleine
Rauschbeiträge ergeben große Abweichungen der Rekonstruktion – und der Regula-
risierungsfehler – zu starke Glättung und Verlust diagnostischer Details.
Bei den analytischen Algorithmen der PET sind Regularisierungen gut verstan-
den. Bei der gefilterten Rückprojektion zeigt sich die Notwendigkeit der Regularisie-
rung im unbeschränkten Anwachsen des Filterkerns |k|. Wie bei der CT können sie in
glatter Weise bei hohen Frequenzen durch Fensterfunktionen abgeschnitten werden.
190 | Simone Beer, Henrik Botterweck

Ein Nachteil vieler statistischer Verfahren ist die nur implizite Regularisierung durch
vorzeitiges Beenden der Iteration. Es ist schwer, allgemeine Regeln zur optimalen Ite-
rationszahl anzugeben.

6.4.4 Die Integraltransformation der PET

Einer PET-Aufnahme entspricht mathematisch eine Abbildung vom Raum der 3D-
Aktivitätsverteilungen A im Objekt in die Koinzidenzverteilungen über die LOR. Ohne
Streuung ist diese Abbildung eine X-ray-Transformation – die Integration von A ent-
lang der LOR, gewichtet mit der Schwächung entlang des Strahls. Eine Vereinfachung
der PET gegenüber SPECT ergibt sich aus der Tatsache, dass sich die Schwächung
der Zählrate aus dem Produkt der Schwächungen beider einzelnen Photonenpfade
ergibt. Deshalb ist sie unabhängig von der Position eines Zerfalls auf der LOR. In
2D mit dem LOR-Richtungswinkel 𝜃 der Verschiebung s, dem Einheitsvektor n𝜃 in
LOR-Richtung und n⊥𝜃 senkrecht darauf sowie dem lokalen Absorptionskoeffizienten
𝜇(x) ist die PET-Transformation:

R[A](𝜃, s) = e∫ 𝜇(sn𝜃 +tn𝜃 )dt ∫ A(sn⊥𝜃 + tn𝜃 )dt (6.7)

Wenn die Schwächung aus einer zusätzlichen Transmissionstomographie bekannt ist,


wird eine quantitative Rekonstruktion von A(x) aus R[A](𝜃, s) möglich.

Transmission (lat. trans – hinüber; mittere – schicken): Durchstrahlung des Messobjektes aus
Quellen, die sich innerhalb des Detektorrings befinden; dient zur Abschätzung der Schwächung
der Emissionsstrahlung durch das Objekt und zur Streukorrektur.

6.4.5 Klassifikation der PET-Rekonstruktionsverfahren

Man kann die Rekonstruktionsalgorithmen in analytische und diskrete unterteilen,


sie als „statistisch“ oder „nichtstatistisch“ auffassen sowie geschlossene Lösungen
den iterativen gegenüberstellen (vgl. 󳶳Kap. 5.6 SPECT Rekonstruktionsverfahren). All
diese Unterscheidungen sind unabhängig voneinander!
Wir unterscheiden drei unabhängige Diskretisierungsschritte:
1. die Zerlegung der Volumenaktivität in eine endliche Linearkombination von Ba-
sisfunktionen, normalerweise kartesischen Voxeln, aber alternativ auch symme-
trieangepasste Volumenelemente oder auch rotationssymmetrische Blobs für eine
realistischere Modellierung der (Rück-) Projektion
2. die Zerlegung des Projektionsraumes in diskrete LOR, passend zu den physikali-
schen Detektorpaaren oder in interpolierter Geometrie
6 PET | 191

3. die Diskretisierung der Zerfallsaktivität in Photonen, wie sie durch die Quanten-
mechanik unvermeidlich ist.

Ein Rekonstruktionsverfahren kann vor oder nach der Diskretisierung betrachtet wer-
den. Die gefilterte Rückprojektion (FBP) wird primär im kontinuierlichen Raum ent-
wickelt, statistische Rekonstruktionen sind endlichdimensional und diskret.

6.4.6 Statistisch modellierte PET-Rekonstruktion

Jeder Rekonstruktion liegt implizit oder explizit ein statistisches Modell der Messung
zugrunde. Der 𝛽+ -Zerfall ist als Folge unabhängiger, gleichverteilter Ereignisse Pois-
son-verteilt; die Wahrscheinlichkeit, dass in einem Teilvolumen mit Aktivität A inner-
halb der Zeit T genau n Zerfälle stattfinden ist:
(AT)n
p(n) = e−AT (6.8)
n!
Bei hohen Zählraten kann eine Gauss-Verteilung angenommen werden. Unter die-
ser Näherung sind least-squares und die ähnlich wirkenden Rückprojektionsalgorith-
men (FBP) nahezu optimal. Aber je mehr Eingangskanäle existieren (3D-PET, TOF,
DOI), desto weniger Ereignisse werden im Einzelnen erwartet. Wenn man aus sol-
chen zufallsverteilten Größen abgeleitete Parameter – also die Aktivitätsverteilung –
schätzen will, so ist ein unter gewissen Bedingungen bestmögliches Optimierungs-
prinzip die Maximum-Likelihood-Schätzung: Wenn p(P|A) eine bekannte Wahrschein-
lichkeitsdichte für Sinogramme P bei gegebener Aktivitätsverteilung A ist, dann ist
L(A|P) = p(P|A) die likelihood von A bei beobachtetem P und

AML = arg maxA L(A|P) (6.9)

die Maximum-Likelihood-(ML-)Schätzung von A. Im Grenzfall großer Beobachtungs-


mengen konvergiert sie gegen den wahren Wert und dann hat auch kein anderer er-
wartungstreuer Schätzer eine bessere, d. h. geringere Varianz. Für kleine Stichproben-
mengen muss das aber nicht gelten und schon gar nicht, wenn die Verteilung p(P|A)
nur näherungsweise bekannt ist. Beides bewirkt, dass bei der PET-Rekonstruktion
zum einen eine realistische Modellierung angestrebt wird, zum anderen die eigent-
liche ML-Lösung gar nicht berechnet wird, sondern eine regularisierte Form.
Eine wichtige Variante stellen die Maximum-a-posteriori-(MAP-)Schätzer dar. Es
soll zu einem beobachteten Sinogramm P die wahrscheinlichste Aktivität A unter Be-
rücksichtigung von Vorwissen gefunden werden. Mit der Bayes’schen Regel stellen
wir um:
p(A)
p(A|P) = p(P|A) ⋅ (6.10)
p(P)
Dabei ist p(A) die A-priori-Wahrscheinlichkeit, also unsere Erwartung an die mögli-
chen A aufgrund anatomischen Wissens oder gewisser Glättungsannahmen. Die be-
192 | Simone Beer, Henrik Botterweck

dingte Wahrscheinlichkeit p(A|P) stellt den A-posteriori-Wert unter Berücksichtigung


der Messung dar. Dieses Vorgehen wäre optimal, wenn die A-priori-Verteilung gut be-
kannt wäre. Aus praktischen und numerischen Gründen werden aber oft nur Glatt-
heitsbedingungen gestellt.

6.4.7 Expectation maximization

Für PET kann die likelihood nur iterativ maximiert werden. Der am weitesten verbrei-
tete Algorithmus ist Expectation Maximization (EM). Statt der eigentlich zu optimie-
renden Funktion wird eine betrachtet, die von weiteren, unbeobachtbaren Fakten ab-
hängt – nämlich vom tatsächlichen Herkunftsort der einzelnen Ereignisse einer LOR.
Zwei Schritte wechseln sich ab:
Expectation (E-Schritt): Bestimme den Erwartungswert der log-likelihood der Ak-
tivität, gemittelt über alle möglichen Werte der unbeobachtbaren Größen (Annihilati-
onsorte). Die Gewichte dieser Mittelung ergeben sich aus den Beobachtungen und der
aktuellen Aktivitätsschätzung.
Maximisation (M-Schritt): Bestimme eine neue Aktivitätsschätzung durch Maxi-
mieren der im letzten Schritt gefundenen Funktion.
Für PET heißt das konkret [Shepp und Vardi 1982]: Bestimme zur aktuellen Schät-
zung das erwartete Sinogramm (Vorwärtsprojektion). Hier können alle Effekte realis-
tisch modelliert werden, was den großen Vorteil iterativer Verfahren gegenüber den
analytischen ausmacht. Berechne den Quotienten aus den gemessenen und den eben
geschätzten LOR-Raten. Multipliziere die Aktivität an Orten x mit einem Faktor ent-
sprechend den Quotienten des vorigen Schritts im Sinogrammraum, wenn man sie so
gewichtet, wie sich die Annihilationen bei x über das Sinogramm verteilen (Rückpro-
jektion). Der letzte Schritt bedeutet anschaulich, dass die Korrekturkoeffizienten vom
Sinogramm entlang den LOR zurück in das Aktivitätsvolumen projiziert werden und
sich dort entsprechend mitteln.
Unpraktikabel wird der originale EM-Algorithmus durch seine schlechte Konver-
genz; oft wären über 100 Iterationen notwendig. Eine Reduktion wird möglich, wenn
in jedem Schritt nur eine Teilmenge aller LOR betrachtet wird: Ordered Subset EM
(OSEM). Für stabile Konvergenz müssen die Teilmengen möglichst gleichviel, aber
komplementäre Information enthalten. Grundsätzlich ist das Konvergenzverhalten
des OSEM-Algorithmus nicht trivial: Verschiedene Größen- und Frequenzskalen kon-
vergieren unterschiedlich, so dass Artefakte entstehen können. Bei einer empirisch
zu bestimmenden Iterationszahl ergibt sich die beste Bildqualität, entsprechend der
Regularisierung bei analytischen Algorithmen.
6 PET | 193

6.4.8 Korrekturen

Um die bestmögliche Bildqualität zu erreichen und eine quantitative Auswertung zu


ermöglichen, müssen noch einige Korrekturen durchgeführt werden. Zu den wichtigs-
ten zählen die Detektornormierung und die Kalibrierung. Die Sensitivität ist für je-
de LOR unterschiedlich: Die Szintillationskristalle sind nicht optisch äquivalent, die
Photomultiplier dejustieren mit der Zeit etc. Man kann die LOR-Sensitivität verein-
fachend als Produkt voneinander unabhängiger Faktoren schreiben, die jeweils nur
von der Geometrie (Einfallswinkel) oder einem einzelnen Detektorelement abhängen.
Damit kann die Anzahl unbekannter Normierungsfaktoren von mehreren Millionen
(Anzahl der LOR) auf einige Tausend (Detektorelemente) reduziert werden, was eine
statistisch stabilere Messung ermöglicht.
Die Zeitspanne verringerter Sensitivität eines einzelnen Detektorpixels wird be-
stimmt von optischen (Nachleuchtdauer der Szintillation) und elektronischen Kompo-
nenten. Durch die Koinzidenzdetektion kommen systemweite Effekte hinzu. Verwandt
ist das Phänomen des pile-up: Mehrere Photonen treffen gleichzeitig einen Kristall
an verschiedenen Positionen oder einzelne Photonen werden gestreut und produzie-
ren an verschiedenen Stellen Szintillationslicht. Diese Effekte sind unter der Detektor-
totzeit zusammengefasst. Abgeschätzt wird sie durch Messungen des Zerfalls starker
Quellen. Die Abweichung vom erwarteten exponentiellen Zerfallsgesetz zeigt die Tot-
zeiteffekte auf.
Die Zählrate für zufällige Koinzidenzen lässt sich zwar aus den Einzelraten der
Detektoren abschätzen, aber wegen der Detektortotzeit ist es üblich, sie aus den Ko-
inzidenzraten selbst zu schätzen. Dazu werden für jede LOR zusätzlich diejenigen Ko-
inzidenzen gezählt, die sich ergeben, wenn einer der beiden Detektorkanäle um ei-
ne feste Zeit D verschoben wird, die größer als T ist. So ergeben sich ausschließlich
Zufallskoinzidenzen, so dass aus dem Vergleich der zeitverschobenen mit den origi-
nalen Daten auf die Rate der zufälligen Koinzidenzen geschlossen werden kann. Bei
einer Subtraktion der Zufallsereignisse ist die schlechtere Statistik der Koinzidenzra-
ten im Vergleich zu den Einzelraten zu beachten – die Differenz fehlerbehafteter Grö-
ßen kann den relativen Fehler stark vergrößern. In einer statistischen Rekonstruktion
können die Zufallsereignisse auch im Vorwärtsprojektor einbezogen werden, was die
Subtraktion erspart.
Durch die teilweise sehr kleinen physikalischen Halbwertszeiten der verwendeten
Tracer ist auch eine Zerfallskorrektur erforderlich.
Die Zählratenschwächung durch Absorption ist bei PET unabhängig von der
Position der Emission entlang der LOR. Sie ist jedoch recht groß, da viele LOR weit
im Körper verlaufen. Die gemessenen Ereignisse werden dadurch je nach Patient und
Aufnahme um 50. . . 95 % reduziert. Ohne Korrektur erscheinen ernsthafte Artefakte.
Es muss deshalb für jede LOR ein Korrekturfaktor bestimmt werden. Traditionell wer-
den dazu stabförmige, innerhalb des Detektorrings rotierende Quellen (z. B. 68 Ge/68 Ga
oder 137 Cs) zu einer Transmissionsmessung verwendet. Wenn eine CT-Rekonstruktion
194 | Simone Beer, Henrik Botterweck

vorhanden ist (PET/CT), kann auch diese zur Schwächungskorrektur verwendet


werden. Sie hat im Allgemeinen eine höhere Ortsauflösung und man kann die LOR-
Korrekturfaktoren durch Integration über die entsprechenden Strecken gewinnen.
Wichtig ist die Umrechnung der Absorption aus dem Bereich der Ursprungsmessung
um 100 keV auf die PET-Energie von 511 keV. Wegen der starken Abhängigkeit der Ab-
sorption von der Kernladungszahl Z und der Photonenenergie E ist die Extrapolation
stark materialabhängig. Man segmentiert die gemessene Schwächung deshalb nach
dem Gewebetyp, im Wesentlichen Knochen, Muskel-/Fettgewebe, Lunge, Luft, und
verwendet die entsprechenden Wirkungsquerschnitte.
Die Streuung der Photonen trägt vor allem im 3D-Modus stark zur Zählrate bei.
Ein Detektor mit idealer Energieauflösung würde eine Abtrennung der gestreuten
Photonen durch Verwendung von Energieschwellen ermöglichen. Nun haben die bei
der PET verwendeten Szintillationsdetektoren in der Regel Energieauflösungen von
10. . . 20 %. Viele Annihilationsphotonen übertragen durch den Compton-Effekt auch
nur einen Bruchteil ihrer Energie im Szintillator. Daher sind PET-Energiefenster häu-
fig sehr groß, etwa 350. . . 650 keV, so dass bis zur Hälfte der detektierten Ereignisse
gestreut sind.
Allen Korrekturansätzen liegt ein Streumodell sowie die Messung ergänzender In-
formation zugrunde. Bei der geometrischen Streuinterpolation beobachtet man einen
etwa exponentiellen Abfall der Streuung an den Objekträndern. Aus daran angepass-
ten Extrapolationsfunktionen wird die Streuung im Innern geschätzt und vom Sino-
gramm subtrahiert. Diese Methode funktioniert nur bei sehr homogenen Objekten. In
ähnlicher Weise kann man versuchen, aus schon erkannten starken Streuzentren die
sie umgebende Streuung durch Entfaltung mit einem geschätzten Streukern herauszu-
rechnen (Dekonvolution). Eine weitere weit verbreitete Methode ist die Energieextra-
polation, eine Schätzung aus zusätzlichen Energiefenstern. Im einfachsten Fall wird
die Streuung für Zählraten bei Energien weit unter 511 keV gemessen und auf das ge-
messene Energiefenster für Koinzidenzen zurückgerechnet. Dafür sind Kalibrations-
messungen zur Berücksichtigung energieabhängiger Detektoreffizienzen notwendig;
außerdem ändert sich die Energieabhängigkeit der Streuung mit der Objektstruktur,
wodurch modellabhängiges Vorwissen eingeht. Da Phantommessungen zeitaufwen-
dig und fehleranfällig sind, ist eine feinere Modellierung vorteilhaft. Ein Beispiel dafür
ist die Verwendung dreier statt zweier Energiefenster [Shao 1994].
Einen Schritt weiter gehen modellgestützte Verfahren, in denen die Streuung im
Objekt basierend auf einem vorhandenen Modell des Objekts und Scanners (Phan-
tommessungen) berechnet wird [Ollinger 1996]. Besonders attraktiv sind solche Algo-
rithmen, wenn eine gute Transmissionsrekonstruktion (PET/CT) vorliegt und deshalb
die Absorption und Compton-Streuung ortsabhängig bekannt sind. Die aufwendigs-
ten Methoden bestimmen die Streuung aus einer realitätsnahen Simulation, die auf
einer vorherigen Rekonstruktion ohne oder mit einfacher Streukorrektur beruht. Dar-
aus werden Organ- und Körpergrenzen segmentiert, um den gesamten Bildgebungs-
prozess nachzubilden.
6 PET | 195

6.4.9 Effiziente Implementierung

Bei der statistischen 3D-PET Rekonstruktion sind sehr viele LOR iterativ zu betrach-
ten. Es ist entscheidend, speziell die Vorwärtsprojektion effizient zu implementieren.
So muss nicht für jeden Annihilationsort der geometrische Beitrag zu jeder LOR
berechnet werden, da das System Symmetrien in der zylinderförmigen Detektoran-
ordnung besitzt. Es können symmetrieangepasste Koordinaten verwendet werden.
So wird auch eine List-mode-Rekonstruktion über jeden beobachteten Zerfall einzeln
möglich. LOR, die bezüglich der Symmetrie äquivalent sind, können zusammenge-
fasst werden; mehrere solcher Gruppen können dann gleichzeitig von verschiedenen
Prozessorkernen bearbeitet werden. Zu verfolgende LOR-Strahlen sollten so abge-
arbeitet werden, dass jeweils auf die physikalischen Speicherzellen einer „memory
page“ zugegriffen wird. Das ist nicht ganz einfach, da ja der Computerspeicher linear
angeordnet, das zu betrachtende Volumen aber dreidimensional ist.

6.5 Klinische Anwendungen


Die PET wird hauptsächlich zur Erkennung und Überwachung von Tumoren und Me-
tastasen, in der Diagnostik kardiologischer und neurologischer Erkrankungen sowie
in der präklinischen Forschung eingesetzt.
󳶳Abb. 6.5 zeigt einige kommerziell erhältliche Tomographen. Neben einer Bild-
qualität, die präzise Aussagen ermöglicht, sollten Tomographen der Humanmedizin
eine hohe Sensitivität haben, um einen hohen Patientendurchsatz bei möglichst ge-
ringer applizierter Dosis zu ermöglichen.
In der Onkologie ist 18 F-Fluordesoxyglukose (FDG), ein Glukoseanalogon, der
Tracer der Wahl. Tumorzellen verbrauchen aufgrund eines erhöhten Stoffwechsels
meistens viel Glukose. Daher ist die PET mit FDG eine sensitive Methode für die Erken-
nung und das Staging (die Stadienbestimmung zur Feststellung des Ausbreitungs-
grades eines bösartigen Tumors) von Tumorerkrankungen sowie für die Überprüfung
des Ansprechens auf Therapien. Einen Überblick über FDG-PET/CT in der Onkologie
gibt [Krause 2007].

FDG 18 F-Fluordesoxyglukose: Standardtracer für PET.

In der Kardiologie kann der funktionelle Aspekt einer Herzerkrankung für die Thera-
pieplanung und Prognoseabschätzung von großer Bedeutung sein. Die PET wird dabei
zur Untersuchung der myokardialen Perfusion und des myokardialen Stoffwechsels
eingesetzt. Als Tracer werden neben FDG auch 13 NH3 , H15 82
2 O und Rb eingesetzt. Einen
Überblick über die Methoden und klinischen Anwendungen der Nuklearkardiologie
gibt der Positionsbericht der Arbeitsgemeinschaft Kardiovaskuläre Nuklearmedizin
der Deutschen Gesellschaft für Nuklearmedizin 2001 [Arbeitsgemeinschaft Kardio-
196 | Simone Beer, Henrik Botterweck

(a) (b)

Abb. 6.5: Beispiele für Positronen-Emissions-Tomographen der (a) Humanmedizin und (b) für Klein-
tiere (Bilder von Siemens Health Care).

vaskuläre Nuklearmedizin 2001]. Bei PET-Untersuchungen des Herzens wird die


Bildqualität von Bewegungsartefakten durch Atmung und Herzschlag beeinflusst.
Abhilfe schafft hier eine Synchronisation der Datenaufnahme mit der Bewegung
(„gated-PET“). Die Bewegungen werden durch geeignete Sensoren erfasst und in die
Auswertung mit einbezogen, indem z. B. die Daten zeitlich so geordnet werden, dass
sie jeweils nur aus einer bestimmten Phase des Herzzyklus stammen. Die effektive
Aufnahmezeit pro Bild wird dementsprechend reduziert.
Für PET-Untersuchungen des Gehirns, insbesondere zur Befundung bei Epilep-
sie, Demenzen und Hirntumoren, wird sehr häufig wiederum FDG verwendet. Darüber
hinaus kommt aber auch eine Reihe von weiteren Tracern zum Einsatz. Neben der Mes-
sung des zerebralen Glukosemetabolismus erlauben sie unter anderem die Untersu-
chung des regionalen zerebralen Blutflusses und die Messung komplexer biochemi-
scher Vorgänge wie z. B. die Interaktion von Rezeptoren mit spezifischen Liganden.
In der Forschung ist PET zudem zu einem wertvollen Werkzeug in der Arzneimit-
telentwicklung geworden, indem es wesentliche Erkenntnisse über die Wirkmecha-
nismen und Kinetik der Substanzen und damit Informationen über eine optimale Do-
sierung liefert.
Im Rahmen der präklinischen Bildgebung mittels PET werden grundlegende bio-
chemische Prozesse von Krankheiten, neue Tracer oder die Wirkung neuer Therapien
an lebenden Tieren erforscht [Chatziioannou 2002]. Da es sich in der Regel um Mäuse
oder Ratten handelt, sollte die Auflösung der präklinischen Tomographen entspre-
chend gut sein, um auch sehr kleine Strukturen analysieren zu können.
6 PET | 197

Sowohl für klinische Ganzkörperuntersuchungen als auch Herzuntersuchungen


ist ein Tomograph mit einem Durchmesser nötig, der möglichst wenig Menschen auf-
grund ihres Gewichtes von einer Untersuchung ausschließt. Für diese Anwendungen
kann auch das Einbeziehen einer Time-of-Flight-(TOF-)Information sinnvoll sein, da
die Verbesserung der Bildqualität aufgrund von TOF proportional zur Größe des un-
tersuchten Objektes ist [Surti 2006].
Da für die Tomographie des Kopfes oder auch für Kleintiere ein deutlich kleine-
rer Ringdurchmesser nötig ist, können für spezielle Hirn-Tomographen oder Kleintier-
Tomographen aufwendigere und teurere Detektorkonzepte verwendet werden, durch
die z. B. die Auflösung des Tomographen erhöht wird. Auch die simultane MR/PET-
Bildgebung wurde als Erstes für spezielle Tierscanner und Hirnscanner umgesetzt,
z. B. als PET-Insert in ein MRT [Judenhofer 2008]. Während für Ganzkörper-PET die
Kombination von PET mit CT mittlerweile zum Standard gehört, ist aufgrund der bes-
seren Weichteil-Kontrastdarstellung eine Kombination mit der MRT besonders gut zur
funktionalen Bildgebung in der Neurologie geeignet.

6.6 Qualitätssicherung und Normen


6.6.1 Strahlenschutzverordnung

Der Umgang mit offenen Radionukliden wird durch die Strahlenschutzverordnung


(StrlSchV) geregelt. Richtlinien wie die „Richtlinie Strahlenschutz in der Medizin“ er-
gänzen diese Verordnung und dienen als Ausführungsbestimmungen. Ärzte, die ra-
dioaktive Stoffe am Menschen anwenden, müssen die erforderliche Fachkunde im
Strahlenschutz besitzen. Außerdem ist die Mitwirkung eines Medizinphysik-Experten
erforderlich. Die Strahlenschutzverordnung regelt u. a. die Genehmigungsvorausset-
zungen, Fragen zur Beförderung der radioaktiven Stoffe, Fachkunde und betriebliche
Organisation des Strahlenschutzes, Indikationen und Beschränkungen der Anwen-
dung radioaktiver Stoffe am Menschen sowie Maßnahmen zur Qualitätssicherung. In
der atomrechtlichen Genehmigung der zuständigen Behörde zum Betrieb eines Po-
sitronen-Emissions-Tomographen können weitere Auflagen enthalten sein.

6.6.2 Regelmäßige Qualitätskontrolle

Um eine einwandfreie technische Durchführung der Untersuchung zu erreichen, ver-


langt § 83 Absatz 5 StrlSchV, dass in regelmäßigen Abständen Messungen zur Quali-
tätskontrolle durchgeführt werden und die Aufzeichnungen 10 Jahre aufzubewahren
sind. Für die grundlegenden Messungen werden in der Regel geeignete Messprotokol-
le und Phantome vom Hersteller des Tomographen zur Verfügung gestellt. Die Normen
DIN 6855-4 (Qualitätsprüfung nuklearmedizinischer Messsysteme – Teil 4: Konstanz-
198 | Simone Beer, Henrik Botterweck

prüfung von Positronen-Emissions-Tomographen [PET]) und DIN EN 61675-1 (Bildge-


bende Systeme in der Nuklearmedizin – Merkmale und Prüfbedingungen – Teil 1: Po-
sitronen-Emissions-Tomographen) regeln die notwendigen Verfahren und Prüfhäu-
figkeiten für Konstanzprüfungen an den Tomographen, zu denen als halbjährliche
Prüfung die Prüfung von Kalibrierungsfaktor und Kreuzkalibrierung, die transversa-
le Auflösung, der Abbildungsmaßstab und die Bilddokumentation zählen. Jährlich ist
eine Überprüfung der mechanischen Teile durchzuführen.
In jedem Fall sollte zu Beginn eines jeden Untersuchungstages ein sogenannter
Daily Check durchgeführt werden. Das ist ein möglichst einfaches, innerhalb weniger
Minuten durchzuführendes Messverfahren zur Analyse der grundlegenden Leistun-
gen der Hardware. Eine visuelle Kontrolle des Ergebnisses erlaubt es, beispielswei-
se defekte Detektoren zu identifizieren. Weitere Werte wie z. B. Uniformität oder Zeit-
verhalten können zusätzlich protokolliert werden. Abweichungen im Verlauf der Zeit
können darauf hinweisen, dass eine neue Detektoreinrichtung erfolgen sollte. Dar-
über hinaus sollten regelmäßig eine Detektornormierung, ein Blank-Scan und eine
Quantifizierungskalibrierung durchgeführt werden. Im Rahmen einer regelmäßigen
Wartung des Tomographen werden darüber hinausgehende Einstellungen durch den
Kundendienst durchgeführt.

6.6.3 NEMA-Standard

Neben den DIN-Normen gibt es weitere Standards für Charakterisierungsmessungen


von Positronen-Emissions-Tomographen, die von der National Electrical Manufactur-
ers Association (NEMA) herausgegeben worden sind. Da Positronen-Emissions-Tomo-
graphen in der Vergangenheit in den USA eine größere Verbreitung gefunden haben
als in den meisten europäischen Ländern, hat sich der NEMA-Standard als meistbe-
nutzter Standard etabliert. Aktuelle Standards sind NEMA NU 2-2007 für Tomogra-
phen der Humanmedizin und NEMA NU 4-2008 für hochauflösende Kleintier-Tomo-
graphen. Die Messungen des NEMA NU 2-2007 Standards und seiner Vorgänger NU
2-1994 und NU 2-2001 sind so ausgelegt, dass sie besonders aussagekräftig für Ganz-
körper-Untersuchungen sind. Beide Standards sind geeignet für Tomographen mit in-
trinsischer Radioaktivität, die von lutetiumhaltigen Szintillatoren stammt. Sie geben
Phantome und genaue Mess- und Auswertevorschriften für die Ermittlung der Ortsauf-
lösung, Sensitivität, Totzeitverhalten und Bildqualität vor. Für die meisten kommer-
ziellen Positronen-Emissions-Tomographen lässt sich in der Literatur eine Charakte-
risierung nach einem NEMA-Standard finden (z. B. [Bao 2009, Brix 1997, Jakoby 2011,
Mawlawi 2004, Surti 2007]). Da die Messungen standardisiert sind, ist dadurch auch
ein fairer Vergleich zwischen unterschiedlichen Tomographen möglich.
6 PET | 199

6.7 Nebenwirkungen/Grenzwerte
Die bei einer PET-Untersuchung verwendeten Radiopharmaka sind häufig aufgrund
der Messmethode den körpereigenen Substanzen sehr ähnlich, außerdem werden sie
in sehr geringer Dosierung verabreicht. Aus diesem Grund sind Nebenwirkungen auf-
grund der pharmakologischen Intervention nicht zu erwarten. Mögliche, aber sehr un-
wahrscheinliche Nebenwirkungen können sich aufgrund des notwendigen Zugangs
zu den Blutgefäßen für die Injektion des Tracers oder eine notwendige Blutabnahme
ergeben. Hauptsächlich liegt das Risiko einer PET-Untersuchung darin, dass die Pati-
enten radioaktiver Strahlung ausgesetzt werden.
Der Strahlenschutz der Bevölkerung folgt gemäß den Empfehlungen der Inter-
nationalen Strahlenschutzkommission ICRP einer einfachen Regel: „ALARA – as low
as reasonably achievable“. Für eine PET-Untersuchung ist von einem Arzt mit der
erforderlichen Fachkunde im Strahlenschutz die „rechtfertigende Indikation“ nach
§ 80 StrlSchV zu stellen, d. h., der gesundheitliche Nutzen für den Patienten muss
die möglichen Risiken überwiegen. Eine Untersuchung mit [18 F]-FDG beispielsweise
bewirkt typischerweise eine effektive Dosis von ∼ 7 mSv. Diese Dosis ist in Relation
zur natürlichen Strahlenexposition zu sehen, die durch Quellen wie z. B. kosmische
Strahlung oder die Strahlung der natürlich vorkommenden Radionuklide in der Um-
welt bei 2,1 mSv pro Jahr liegt. Die Schwellendosis für akute Schäden aufgrund von
radioaktiver Strahlung liegt bei einer deutlich höheren Dosis von ∼ 200 mSv. Mit
steigender Dosis nimmt aber die Wahrscheinlichkeit für Spätschäden zu. Dabei er-
höht sich die Wahrscheinlichkeit für das Auftreten von tödlichem Krebs um 0,005 %
pro mSv und die Wahrscheinlichkeit für das Auftreten von schweren Erbschäden um
0,001 % pro mSv. Dem „allgemeinen“ Risiko für tödlichen Krebs von ca. 23 % und dem
raucherspezifischen Risiko von ca. 8 % steht damit ein Risiko von 0,035 % durch eine
[18 F]-FDG-Messung gegenüber (s. auch 󳶳Kap. 7, Biologische Wirkung ionisierender
Strahlung und Dosimetrie).
In den Veröffentlichungen der Internationalen Strahlenschutzkommission
ICRP sind für eine große Anzahl weiterer Tracer detaillierte Informationen über die
Biokinetik und die entsprechenden Organ- und Körperdosen zu finden ([ICRP 1988]
und zugehörige Addenda). Bei der PET/CT kommt zur Strahlenexposition des PET-
Radiopharmazeutikums zusätzlich die Strahlenexposition durch die CT, als ob es sich
um getrennte Untersuchungen handeln würde.

6.8 Neue Entwicklungen und Trends


Die technischen Herausforderungen der kombinierten PET/MRT sind soweit gelöst,
dass die Geräte bereits in der Praxis eingesetzt werden können. Aus den Anwendun-
gen erwachsen neue Fragestellungen, die sich z. B. aus der unterschiedlichen Auflö-
sung der beiden Modalitäten ergeben und Bewegungskorrekturen nötig machen, oder
200 | Simone Beer, Henrik Botterweck

auch die Nutzung der MRT-Daten für notwendige Korrekturen wie die Schwächungs-
korrektur.
Bei der Weiterentwicklung von PET-Detektoren spielen die neuen „Silicon-Pho-
tomultiplier“ (SiPM) [Buzhan 2003] aktuell eine große Rolle und scheinen eine sehr
interessante Alternative zu herkömmlichen Photomultipliern zu sein, da sie sehr kom-
pakt sind und unempfindlich auf Magnetfelder reagieren. Eine neue Entwicklung bei
den Kristallen sind monolithische Szintillationskristalle, in denen der Ursprung des
Szintillationslichtes durch mathematische Methoden ermittelt wird. Sie haben gegen-
über Block-Detektoren oder einzelnen Kristallstäbchen eine Menge Vorteile, so z. B. ei-
ne genaue Ermittlung der Wechselwirkungstiefe und hohe Sensitivität, da kein Raum
durch Schnitte oder reflektierende Materialen verloren geht. Eine Herausforderung ist
die Stabilität der Positionsbestimmung bzw. der nötigen Kalibrationsmessungen [van
Dam 2011]. Diese neuen Entwicklungen versprechen die Bildqualität der Positronen-
Emissions-Tomographen sowie die Kombinierbarkeit mit anderen Modalitäten weiter
zu verbessern.
Auch durch die Entwicklung neuer, spezifischer Tracer wird die PET mit ihrer ho-
hen Sensitivität ihre Bedeutung im wachsenden Bereich der molekularen Bildgebung
behalten. Dabei werden verlässliche quantitative Rekonstruktions- und Auswerteme-
thoden auch im Bereich der Forschung immer wichtiger.

Quellenverzeichnis
Arbeitsgemeinschaft Kardiovaskuläre Nuklearmedizin der Deutschen Gesellschaft für
Nuklearmedizin e.V.: Methoden und klinische Anwendung der Nuklearkardiologie:
Positionsbericht. Göttingen: Deutsche Gesellschaft für Nuklearmedizin (DGN), 2001.
Bao Q., Newport D., Chen M., Stout D. B., Chatziioannou A.: Performance evaluation of the Inveon
dedicated PET preclinical tomograph based on the NEMA NU-4 Standards. J Nucl Med 2009; 50:
401–408.
Brix G., Zaers J., Adam L-E., Bellemann M. E., Ostertag H., Trojan H., Haberkorn U., Doll J.,
Oberdorfer F., Lorenz W. J.: Performance evaluation of a whole-body PET scanner using the
NEMA Protocol. J Nucl Med 1997; 38: 1614–1623.
Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit: Strahlenschutz in der Medizin.
Richtlinie nach der Verordnung über den Schutz vor Schäden durch ionisierende Strahlen
(Strahlenschutzverordnung – StrlSchV). Berlin: 2002.
Buzhan P., Dolgoshein B., Filatov L., Ilyin A., Kantzerov V., Kaplin V., et al.: Silicon photomultiplier
and its possible applications. Nucl Instr Meth A 2003; 504: 48–52.
Casey M. E., Nutt R.: A multicrystal two dimensional BGO detector system for positron emission
tomography. IEEE Trans Nucl Sci 1986; 33: 460–463.
Chatziioannou A. F.: Molecular imaging of small animals with dedicated PET tomographs. Eur J Nucl
Med 2002; 29: 98–114.
Hubbel J. H., Seltzer S. M.: Tables of X-ray mass attenuation coefficients and mass energy-absorption
coefficients from 1 keV to 20 MeV for elements Z = 1 to 92 and 48 additional substances of
dosimetric interest. NIST Standard Reference Database 126. Gaithersburg, MD: National
Institute of Standards and Technology (NIST), 2004.
6 PET | 201

International Commission on Radiological Protection: Radiation dose to patients from


radiopharmaceuticals. ICRP Publication 53. Ann ICRP 1988; 18 (1–4).
Jakoby B. W., Bercier Y., Conti M., Casey M., Bendriem B., Townsend D. W.: Physical and clinical
performance of the mCT time-of-flight PET/CT scanner. Phys Med Biol 2011; 56: 2375–2389.
Judenhofer M. S., Wehrl H. F., Newport D. F., Catana C., Siegel S. B., Becker M., et al.: Simultaneous
PET-MRI: a new approach for functional and morphological imaging. Nat Med 2008; 14:
459–465.
Krause B. J., Beyer T., Bockisch A., Delbeke D., Kotzerke J., Minkov V., Reiser M., Willich N.,
Arbeitsausschuss PET in der DGN: FDG-PET/CT in der Onkologie. Nuklearmedizin 2007; 46:
291–301.
Levin C., Hoffman E. J.: Calculation of positron range and its effect on the fundamental limit of
positron emission tomography system spatial resolution. Phys Med Biol 1999; 44: 781–799.
Mawlawi O., Podoloff D. A., Kohlmyer M. S., Williams J. J., Stearns C. W., Culp R. F., Macapinlac H.:
Performance characteristics of a newly developed PET/CT scanner using NEMA standards in 2D
and 3D modes. J Nucl Med 2004; 45: 1734–1742.
Melcher C. L.: Scintillation crystals for PET. J Nucl Med 2000; 41: 1051–1055.
National Electrical Manufacturers Association: Performance measurements of positron emission
tomographs. NEMA Standards Publication NU 2–2007. Rosslyn, VA., 2007.
National Electrical Manufacturers Association: Performance measurements of small animal positron
emission tomographs. NEMA Standards Publication NU 4–2008. Rosslyn, VA., 2008.
Normenausschuss Radiologie (NAR) im DIN: DIN 6855-4 Qualitätsprüfung nuklearmedizinischer
Messsysteme – Teil 4: Konstanzprüfung von Positronen-Emissions-Tomographen (PET). Berlin:
DIN Deutsches Institut für Normung, 2004.
Normenausschuss Radiologie (NAR) im DIN: DIN EN 61675-1 Bildgebende Systeme in der
Nuklearmedizin – Merkmale und Prüfbedingungen – Teil 1: Positronen-Emissions-
Tomographen. Berlin: DIN Deutsches Institut für Normung, 2010.
Ollinger J. M.: Model-based scatter correction for fully 3D PET. Phys Med Biol 1996; 41: 153–176.
Pfennig G., Klewe-Nebenius H., Seelmann-Eggebert W.: Karlsruher Nuklidkarte, 6. Aufl., korrig.
Nachdr. Lage, Lippe: Haberbeck, 1998.
Scherzer O., Grasmair M., Grossauer H., Haltmeier M., Lenzen F.: Variational methods in imaging.
Reihe: Applied Mathematical Sciences 167. Berlin: Springer, 2009.
Shao L., Freifelder R., Karp J. S.: Triple energy window scatter correction technique in PET. IEEE Trans
Med Imaging 1994; 13: 641–648.
Shepp L. A., Vardi Y.: Maximum likelihood reconstruction in positron emission tomography. IEEE
Trans Med Imaging 1982; 1: 113–122.
Surti S., Karp J., Popescu L. M., Daube-Witherspoon M., Werner M.: Investigation of time-of-flight
benefit for fully 3-D PET. IEEE Trans Med Imag 2006; 25: 529–538.
Surti S., Kuhn A., Werner M. E., Perkins A. E., Kolthammer J., Karp J. S.: Performance of Philips Gemini
TF PET/CT scanner with special consideration for its time-of-flight imaging capabilities. J Nucl
Med 2007; 48: 471–480.
Townsend D. W., Carney J. P. J., Yap J. T., Hall N. C.: PET/CT today and tomorrow. J Nucl Med 2004; 45:
4S-14S.
Van Dam H. T., Seifert S., Vinke R., Dendooven P., Löhner H., Beekman F. J., Schaart D. R.: Improved
nearest neighbour methods for gamma photon interaction position determination in
momolithic scintillator PET detectors. IEEE Trans Nucl Sci 2011; 58: 2139–2147.
Verordnung über den Schutz vor Schäden durch ionisierende Strahlen (Strahlenschutzverordnung –
StrlSchV). Bonn: Bundesgesetzblatt Jahrgang 2001, Teil I, Nr. 38, 2001.
202 | Simone Beer, Henrik Botterweck

Weiterführende Literatur
Knoll G. F.: Radiation detection and measurement. 4. Aufl. New York: Wiley, 2010.
Natterer F.: Numerical methods in tomography. Acta Numerica 1999.
Natterer F., Wübbeling F.: Mathematical methods in image reconstruction. Monographs on
Mathematical Modeling and Computation 2001; 5: SIAM.
Phelps M. E.: PET: molecular imaging and its biological applications. New York: Springer, 2004.
Phelps M. E.: PET: Physics, instrumentation, and scanners. New York: Springer Science+Business
Media, LLC, 2006.
Rieder A.: Keine Probleme mit inversen Problemen. Wiesbaden: Vieweg, 2003.

Testfragen
1. Welche beiden Faktoren limitieren die grundsätzlich erreichbare Auflösung der Positronen-Emis-
sions-Tomographie?
2. Welche Anforderungen muss ein PET-Detektor erfüllen?
3. Was wird in der PET-Datenerfassung als list mode bezeichnet? Warum wird dieser in der Rekon-
struktion häufig durch akkumulierte Sinogramm-Daten ersetzt?
4. Warum stellt die Schwächung durch Absorption in der PET ein kleineres Problem dar als in der
SPECT? Formulieren Sie dazu die Integraltransformation der PET mit Schwächung mathematisch.
5. Zählen Sie typische Korrekturen der PET-Rekonstruktion auf, die zusätzlich zum idealisierten Ver-
fahren berücksichtigt werden müssen.
6. Welche Eigenschaften dürfen PET-Detektoren nicht haben, wenn sie in einem MRT betrieben wer-
den sollen? Gilt das auch, wenn sie in einem CT betrieben werden?
Olaf Dössel
7 Biologische Wirkung ionisierender Strahlung und
Dosimetrie

7.1 Motivation und Einleitung | 204


7.2 Stochastische und deterministische Wirkungen | 204
7.3 Dosimetrische Größen und deren Einheiten | 205
7.4 Quantitative Bewertung des Risikos für Schäden durch ionisierende
Strahlung | 209
7.5 Typische Dosis bei Röntgen- und nuklearmedizinischen
Untersuchungen | 210
7.6 Dosimeter | 211
7.7 Gesetzliche Vorschriften | 213

Zusammenfassung: Ionisierende Strahlung wie z. B. Röntgen- oder Gammaquanten


kann dem Menschen schaden. Es wäre ein Fehler, darauf in diesem Buch nicht ein-
zugehen. Die biologische Wirkung ionisierender Strahlung ist aber ein sehr weites
Forschungsthema, das hier nur sehr kurz behandelt werden kann. Deterministische
und stochastische Wirkungen werden beschrieben. Die dosimetrischen Größen die-
nen der quantitativen Bewertung des Risikos, durch diagnostische Röntgen- oder
Gammastrahlung einen gesundheitlichen Schaden zu erleiden. Die bei Röntgen-
aufnahmen oder nuklearmedizinischen Untersuchungen üblichen Dosen werden
angegeben. Mehrere gesetzliche Vorschriften regeln den Betrieb von röntgendiagnos-
tischen oder nuklearmedizinischen Einrichtungen und gewährleisten einen sicheren
Umgang mit ionisierender Strahlung.

Abstract: Ionizing radiation can be harmful for humans – an aspect that cannot be ne-
glected in a book on medical imaging. However, the biological effect of ionizing radia-
tion is a wide research area that can only be discussed briefly in this book. Determinis-
tic and stochastic effects are described first. Further the methodology to quantitatively
evaluate the risk of health hazards arising from ionizing radiation is outlined on the
basis of quantities and units of dosimetry. Typical doses applied in X-ray imaging and
nuclear medicine are presented. The safe operation of X-ray and nuclear medicine
systems and laboratories is ensured by several legal regulations that are summarized
here.
204 | Olaf Dössel

7.1 Motivation und Einleitung


In einem Buch über die bildgebenden Verfahren der Medizin, in dem die Röntgentech-
nik und die nuklearmedizinischen Abbildungsverfahren beschrieben werden, darf der
Hinweis auf die mögliche Schädigung des Körpers durch ionisierende Strahlung nicht
fehlen. Aber es muss darauf hingewiesen werden, dass es andere Bücher gibt, die die-
ses Thema in den Vordergrund gestellt haben und es damit sehr viel ausführlicher
behandeln, als es hier möglich ist [Schlegel und Bille 2002].
Ionisierende Strahlen sind Röntgen- bzw. Gammaquanten, Elektronen, Protonen,
Neutronen, schwere Kerne (z. B. C), Alphateilchen und Fragmente der Kernspaltung.
In diesem Buch ist nur von Röntgen- und Gammaquanten die Rede, daher wird die
biologische Wirkung der anderen Strahlenarten hier nicht behandelt.

7.2 Stochastische und deterministische Wirkungen


Trifft ein Röntgen- oder Gammaquant auf eine Zelle, so werden in erster Linie viele
Wassermoleküle getroffen und es entstehen Ionen, Radikale und Elektronen mit ho-
her kinetischer Energie (󳶳Abb. 7.1). Die Elektronen können weitere Wassermoleküle
treffen. Zu einem deutlich geringeren Prozentsatz werden auch andere Moleküle direkt
getroffen – hier sei wegen der besonderen Bedeutung die DNA im Zellkern genannt.
Radikale sind hoch reaktive kurzlebige Molekülfragmente mit mindestens einem
ungepaarten Elektron. Das wichtigste Radikal in diesem Zusammenhang ist ein Frag-

Zelloberfläche
ionisierendes
Teilchen
Liposomen
Ribosomen

Mitochondrium
raues endoplasma-
vom Tubulus-Typ
tisches Retikulum

Nucleolus
Poren der Kernhülle

Mitochondrium
Golgi-Komplex vom Crista-Typ

Abb. 7.1: Zelle und ionisierendes Teilchen.


7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 205

ment des Wassers: das Hydroxyl-Radikal OH− . Diese Radikale können den Zellen
Schaden zufügen, indem sie mit Molekülen der Zelle reagieren und so deren Funktion
beeinträchtigen.
Eine ganze Reihe solcher Schäden wird nach kurzer Zeit durch natürliche Prozes-
se wieder „repariert“, wenn die Einwirkung von außen ein „erträgliches Maß“ nicht
überschreitet. Die Dosis, die nicht überschritten werden darf, kann für alle Zelltypen
des Körpers folgendermaßen bestimmt werden: Gesunde Zellen in einem Kulturmedi-
um teilen sich mit einer typischen Rate. Wird durch die Einwirkung der Strahlen diese
„Kolonienbildung“ gestoppt, so ist die maximale Dosis erreicht. Bleibt man unterhalb
dieser Dosis, gilt: je kleiner die Dosis, desto kleiner der Effekt auf die Zellteilungsrate
(der Effekt ist nicht unbedingt linear: siehe Dosiseffektkurven). Schäden, die sich so
verhalten, werden als deterministische Schäden bezeichnet. Bei großen kerntech-
nischen Unfällen ist es vorgekommen, dass Menschen einer so großen Strahlung aus-
gesetzt waren, dass ein sehr großer Teil ihrer Zellen nicht repariert werden konnte
und sie daran gestorben sind. Auch dies sind deterministische Schäden. Die LD 50/60
ist die lethale Dosis, bei der 50 % der betroffenen Menschen nach 60 Tagen verstorben
sind. Sie beträgt für gesunde Menschen 3 bis 5 Gy [Knedlitschek und Weibezahn 2002]
(die Einheit wird in 󳶳Kap. 7.3 erklärt).

Deterministische Schäden: Schäden des Körpers durch ionisierende Strahlen, die umso größer
werden, je größer die Dosis ist.

Stochastische Schäden: Schäden des Körpers durch ionisierende Strahlen, bei denen die Wahr-
scheinlichkeit für einen Schaden mit der Dosis zunimmt.

Nun gibt es aber auch Schäden, die nicht repariert werden können oder bei deren Re-
paratur zufällig etwas „schief gegangen ist“. Hierzu zählen insbesondere Schäden an
der DNA, die sowohl durch direkte Treffer als auch durch Reaktion mit freien Radika-
len entstanden sein können. Man unterscheidet stochastische Schäden an den all-
gemeinen Körperzellen und stochastische Schäden an den Keimzellen. Die Ersteren
können in einer Kaskade weiterer Prozesse Krebs auslösen. Die Zweiten können zu ei-
ner Schädigung des möglicherweise aus diesen Keimzellen entstehenden Lebewesens
führen. Schon eine sehr kleine Dosis kann, wenn auch mit sehr kleiner Wahrschein-
lichkeit, einen stochastischen Schaden auslösen.

7.3 Dosimetrische Größen und deren Einheiten


Die quantitative Messung von einem Fluss von Röntgen- oder Gammaquanten
durch den Raum (ein Strahlenfeld) führt zu den Größen „Teilchenflussdichte“
und „Energieflussdichte“.
206 | Olaf Dössel

Die Teilchenflussdichte von einem parallelen Strahlenbündel ist als Zahl der Teil-
chen N (z. B. Photonen) pro senkrecht zum Flussvektor stehender Fläche dA pro Zeit
dt definiert.

Teilchenflussdichte 𝜙: Zahl der Teilchen bzw. Photonen pro Durchtrittsfläche und Zeitintervall in
1/(m2 s).
Zahl der Teilchen d2 N
𝜙= =
Fläche (senkrecht) ⋅ Zeit dA ⋅ dt
Teilchenfluenz 𝛷: Teilchenflussdichte, integriert über ein Zeitintervall in 1/m2 .

Zahl der Teilchen dN


𝛷= = = ∫ 𝜙dt
Fläche (senkrecht) dA

Die Teilchenfluenz 𝛷 ist die über eine vorgegebene Zeitspanne integrierte Photonen-
zahl pro Fläche. Diese Größe erlaubt unmittelbar die Berechnung der Zahl der Photo-
nen pro Pixel, die für das Quantenrauschen (Poisson-Statistik, s. 󳶳Kap. 21.5) maßgeb-
lich ist. Für einen nicht in eine Richtung ausgerichteten Photonenfluss wird die Zahl
der Photonen genommen, die pro Zeit dt in eine Kugelfläche dA eintritt.
Die Energieflussdichte 𝜓 ist bei einem parallelen Strahlenbündel die Energie E,
die durch eine senkrecht stehende Fläche dA pro Zeit dt hindurchtritt. Sie ist bei Pho-
tonen identisch mit dem Poyntingvektor der elektromagnetischen Feldtheorie.

Energieflussdichte 𝜓: durch eine Fläche pro Zeitintervall hindurchtretende Energie in Form von
Strahlung in J/m2 s = W/m2 .

durchtretende Energie d2 E
𝜓= =
Fläche (senkrecht) ⋅ Zeit dA ⋅ dt

Energiefluenz 𝛹: Energieflussdichte, integriert über ein Zeitintervall, in J/m2 .

dE
𝛹= = ∫ 𝜓dt
dA

Die Energiefluenz 𝛹 ist die über ein Zeitintervall integrierte Energieflussdichte.


Hätte man einen monoenergetischen Photonenstrahl mit der Quantenenergie h𝜈,
so würde gelten:
𝜓 = h𝜈 ⋅ 𝜙 und 𝛹 = h𝜈 ⋅ 𝛷 (7.1)

Die Aufgabe, ein Strahlenfeld quantitativ auszumessen, führt zu den Größen Ionen-
dosis und Ionendosisleistung. Die genauen Definitionen sind:
Halten wir eine mit Luft gefüllte Messkammer in einen Strahlengang und bestim-
men die in dieser Messkammer durch Ionisation gebildete Ladungsmenge (eines Vor-
zeichens) dividiert durch die Masse des Gases in der Kammer, so erhalten wir die Io-
nendosis J. Die zeitliche Ableitung der Ionendosis ist die Ionendosisleistung.
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 207

Ionendosis: Maß für die ionisierende Strahlung. Die in einem Messobjekt durch Strahlung gebil-
dete Ladung (eines Vorzeichens) pro Masse des Messobjekts (z. B. der Masse des Gases in einer
Messkammer) in As/kg.

in einer Messkammer gebildete Ladungsmenge dQ


Ionendosis J = =
Masse des Gases in der Messkammer dm

Ionendosisleistung J:̇ Ionendosis pro Zeitintervall, in A/kg.

dJ
Ionendosisleistung J ̇ =
dt

Früher wurde die Ionendosis in der Einheit Röntgen (R) angegeben, wobei 1 R = 2,58 ⋅
10−4 As/kg.
Die Masse des Gases in der Messkammer erhält man, indem man den Druck und
die Temperatur misst und daraus die Dichte bestimmt. Dann multipliziert man die
Dichte mit dem Volumen der Messkammer und erhält die Masse.
Es sollte beachtet werden, dass die Messkammer selber den Photonenfluss nur
sehr wenig absorbieren sollte.
Mithilfe eines geeigneten Massenschwächungskoeffizienten von Luft (der natür-
lich von der Photonenergie abhängt), kann aus der Teilchenflussdichte 𝜙 die Ionen-
dosisleistung berechnet werden (und umgekehrt).
Die Frage nach dem Schaden, der einem Körper zugefügt wird, der sich diesem
Photonenfluss aussetzt, führt als Erstes zu der Größe Kerma K (kinetic energy released
in matter):

Kerma K: Energiedosis bei Sekundärelektronengleichgewicht in J/kg = Gy (Gray).

dEtr bei der ersten Wechselwirkung übertragene kinetische Energie


K= =
dm Masse

Die Kerma kann mit einem geeigneten Massenschwächungskoeffizienten 𝜇/𝜌 aus der
Energiefluenz berechnet werden. Der Massenschwächungskoeffizient hängt vom Ma-
terial (Wasserkerma bzw. Luftkerma) und der Photonenergie ab.
Im nächsten Schritt definiert man die gesamte im Objekt deponierte Energie pro
Masse: die Energiedosis D.

Energiedosis D: in einem Körper durch Strahlung deponierte Energie pro Masse des Körpers in
J/kg = Gy (Gray).
in der Probe deponierte Energie
Energiedosis = D =
Masse der Probe
̇
Energiedosisleistung D: Energiedosis pro Zeitintervall in J/(kg s) = Gy/s.

dD
Energiedosisleistung Ḋ =
dt
208 | Olaf Dössel

Tab. 7.1: Bewertungsfaktoren q für verschiedene Strahlenarten (für Neutronen und Protonen unbe-
kannter Energie).

Photonen Elektronen Neutronen Protonen Alphateilchen


Bewertungsfaktor q 1 1 10 10 20

Früher wurde die Energiedosis in Rad (rd) gemessen, wobei 1 rd = 10 mGy.


Die Energiedosis wird in Gray gemessen und beschreibt schon relativ gut den bio-
logischen Schaden, der durch die Strahlung im Körper angerichtet wird. Sie kann auch
aus der Energiefluenz 𝛹 berechnet werden (vgl. Kerma).
Unterschiedliche Strahlenarten richten einen unterschiedlich großen Schaden im
Gewebe an. Beispielsweise zeigen Protonen eine sehr viel dichtere Spur von Ionen und
sind damit schädlicher als Photonen. Diesem Umstand trägt man dadurch Rechnung,
dass ein strahlenartabhängiger relativer Bewertungsfaktor eingeführt wird. 󳶳Tab. 7.1
zeigt die festgelegten Werte für den Bewertungsfaktor q.
Mit diesem Bewertungsfaktor erhält man schließlich die Definition der Äquiva-
lentdosis:

Äquivalentdosis: Produkt aus Energiedosis und einem strahlenartabhängigen Faktor, der die bio-
logische Wirksamkeit berücksichtigt. Dieser Faktor wurde für Röntgenstrahlen auf 1 festgelegt.
Die Äquivalentdosis wird in der Einheit Sievert (Sv) angegeben.

Äquivalentdosis = H = q ⋅ D

Äquivalentdosisleistung H:̇ Äquivalentdosis pro Zeitintervall in J/kgs = Sv/s.

Äquivalentdosisleistung = Ḣ = q ⋅ Ḋ

Der Bewertungsfaktor für Photonen wurde willkürlich auf 1 festgelegt. Früher wurde
die Äquivalentdosis in rem angegeben, wobei 1 rem = 10 mSv.
Die jetzt gültige Einheit der Äquivalentdosis ist, da der Bewertungsfaktor keine
Einheit hat, wieder J/kg. Um Verwechslungen zu vermeiden, wurde die Einheit Sie-
vert (Sv) für die Äquivalentdosis eingeführt. Da der Bewertungsfaktor für die in die-
sem Buch interessierenden Röntgen- und Gammaquanten 1 ist, ist der Zahlwert für die
Energiedosis in Gy und die Äquivalentdosis in Sv hier gleich.
Absorbiert ein Körper tatsächlich einen wesentlichen Anteil der auftreffenden
Photonen, so wird ein kleines Volumenelement an der Oberfläche die größte Dosis
erhalten (Hautdosis). Je tiefer das Volumenelement im Körper liegt, desto kleiner ist
dann die Energiedosis (Tiefendosis).
Bei der sogenannten Ganzkörperdosis wird die ungleichmäßige Verteilung der
Dosis im Körper vernachlässigt und einfach die gesamte deponierte Energie durch das
Körpergewicht geteilt. Bei der Organdosis wird entsprechend die im Organ deponierte
Energie durch das Gewicht des Organs geteilt.
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 209

Für verschiedene Anodenspannungen und Aluminiumfilter (die das Spektrum der


Röntgenstrahlen festlegen) sowie für verschiedene Absorbermaterialien (im Wesent-
lichen Luft, Wasser und Körpergewebe) hat man nun die Energiedosis, die zu einem
Strahlungsfeld einer bestimmten Ionendosis gehört, sehr genau ausgemessen und in
Tabellen festgehalten. Damit kann man aus einer gemessenen Ionendosis die zu er-
wartende Energiedosis ausrechnen [DIN 6827]. Beispielsweise gilt:

J⋅f =D
fWasser, 100 kV, 4,2 mm Al = 34, 50 Gy/(As/kg)
fMuskel, 100 kV, 4,2 mm Al = 35, 66 Gy/(As/kg) (7.2)

7.4 Quantitative Bewertung des Risikos für Schäden durch


ionisierende Strahlung
Man muss zwischen dem Risiko, an Krebs zu erkranken, und dem Risiko einer Schä-
digung des Erbgutes unterscheiden.
Das Risiko, aufgrund einer Untersuchung mit diagnostischer Röntgenstrahlung
an Krebs zu erkranken, kann nur aus wenigen empirischen Studien u. a. mit den Op-
fern der Atombomben auf Hiroshima und Nagasaki abgeschätzt werden. Hierbei muss
zwischen kleinen Dosen im Bereich einiger mSv und großen Dosen im Bereich einiger
Sv unterschieden werden. Für diagnostische Röntgenstrahlung sind nur die kleinen
Dosen maßgeblich.
Das relative Risiko RR, durch eine diagnostische Strahlenexposition an Krebs zu
erkranken, gibt den Faktor an, um den die Spontanrate der jeweiligen Tumoren durch
Strahlenexposition erhöht wird. Bezieht man sich hierbei auf das Risiko, irgendwann
im Verlauf des gesamten restlichen Lebens an Krebs zu erkranken, so spricht man vom
relativen Lebenszeitkrebsrisiko. Das attributive Risiko beträgt RR − 1, da bei keiner
Erhöhung des Risikos der Wert für RR gerade 1 ist.

Relatives Risiko (RR): Risiko, durch eine Strahlenexposition an Krebs zu erkranken. Es, gibt den
Faktor an, um den die Spontanrate der Tumorerkrankung durch die Exposition erhöht wird.

Relatives Lebenszeitrisiko: relatives Risiko, irgendwann im restlichen Leben an Krebs zu erkran-


ken.

Attributives Risiko: relatives Risiko minus 1. Damit ist das attributive Risiko Null, wenn durch die
bewerteten Einflüsse keine zusätzlichen Erkrankungen auftreten.

Das attributive relative Lebenszeitrisiko muss genau genommen für alle Organe des
Körpers getrennt angegeben werden, da jedes Organ unterschiedlich empfindlich auf
ionisierende Strahlung reagiert (Gewebegewichtsfaktoren und effektive Dosis). Auch
ist das Risiko natürlich vom Alter bei der Strahlenexposition abhängig: Bei Kindern
210 | Olaf Dössel

und Jugendlichen ist das Risiko deutlich größer als bei Menschen, die älter als 40 Jahre
sind. Schließlich muss man zwischen Männern und Frauen unterscheiden. Trotzdem
macht es Sinn, auch die pauschalen Werte abzuschätzen. Man sollte aber wissen, dass
es für den Einzelfall (wenn Alter, Geschlecht und Art der Exposition bekannt sind)
Methoden gibt, das Risiko genauer zu bestimmen.
Die Internationale Strahlenschutzkommission ICRP gibt einen pauschalen
Wert von 5,2 % pro Sievert für das attributive Lebenszeitrisiko, an Krebs zu erkranken,
und für vererbbare Schäden einen Wert von 0,2 % pro Sievert an [ICRP 2007]. Das
bedeutet, dass nach einer Aufnahme mit 1 mSv im statistischen Mittel von 1 Mio. Pa-
tienten 52 dadurch an Krebs sterben. Das muss verglichen werden mit einer Zahl von
ca. 220 000 Krebstoten pro Jahr in Deutschland. Bezogen auf ca. 80 Mio. Einwohner
entspricht das 2750 Krebstoten pro 1 Mio. Menschen.
In Deutschland beträgt die natürliche Strahlenexposition 2,4 mSv pro Jahr. Die
220 000 Krebstoten pro Jahr haben also überwiegend andere Ursachen als die natür-
liche oder diagnostische Strahlenbelastung. Ebenfalls sei zum Vergleich gesagt: Ein
Transatlantikflug verursacht eine zusätzliche Dosis von ca. 0,03 mSv. Diese Dosis kann
bei ca. zwei von 1 Mio. Passagieren eine Krebserkrankung auslösen.

7.5 Typische Dosis bei Röntgen- und nuklearmedizinischen


Untersuchungen
Die Äquivalentdosis, die bei einer typischen Röntgenuntersuchung appliziert wird,
schwankt sehr stark. Daher ist es riskant, hier Werte anzugeben. Trotzdem erscheint
es dem Autor wichtig, die Größenordnung der applizierten Äquivalentdosis anzuge-
ben (󳶳Tab. 7.2). Hierbei ist mit „effektiver Dosis“ diejenige Dosis gemeint, die bei der
Berechnung des Risikos mit den Pauschalwerten verwendet werden sollte.
Man erkennt, dass die Nierenangiographie und die Koronarangiographie (Herz-
katheter) mit relativ großen Dosen verbunden sind. Hierbei ist zu beachten, dass die

Tab. 7.2: Typische Äquivalentdosen in der Röntgendiagnostik [Jung 1998].

Untersuchung Organ Organdosis Effektive Dosis


in mSv in mSv

Schädel rotes Knochenmark 4 0,2


Thorax Lunge und weibliche Brust 0,3 0,2
Becken rotes Knochenmark 0,3 0,1
Mammographie weibliche Brust 4 2,5
Angiographie rotes Knochenmark 40 30
CT vom Schädel rotes Knochenmark 5 2
CT vom Thorax Lunge, weibliche Brust 20 10
Durchleuchtung Magen-Darm rotes Knochenmark 17 6
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 211

Tab. 7.3: Typische Äquivalentdosen in der Nuklearmedizin [wikibooks 2012].

Organ Radiopharmazeutikum Applizierte Dosis in Effektive Dosis in


MBq mSv
99m
Schilddrüse Tc-Pertechnetat 131I -Jodid 185 1,9
150 9,2
99m
Lunge – Perfusion Tc-MAA 74 0,8
99m
Leber Tc-S-Kolloid 74 0,7
99m
Knochen Tc-MDP 740 4,2

Krankheiten, die es zu untersuchen gilt (z. B. Herzinfarkt), oft einen tödlichen Aus-
gang nehmen und daher ein höheres Strahlenrisiko akzeptiert wird.
In der Szintigraphie erfolgt die Berechnung der Äquivalentdosis völlig anders als
in der Röntgendiagnostik, da in der Nuklearmedizin ein radioaktives Isotop in den
Körper des Patienten injiziert wird. Aber die Äquivalentdosis hat natürlich die gleiche
Bedeutung wie in der Röntgendiagnostik. 󳶳Tabelle 7.3 zeigt einige typische Werte.
An einigen Durchleuchtungssystemen wird am Bedienpult der Anlage die im Ver-
lauf der Untersuchung insgesamt applizierte Äquivalentdosis angezeigt. Wie kann die
Röntgenanlage abschätzen, welche Dosis der Patient bereits abbekommen hat?
Der Schlüssel zu der Antwort ist die sogenannte Äquivalentdosisleistungskon-
stante 𝛤H (󳶳Abb. 7.2). Diese Zahl gibt die Äquivalentdosisleistung bei 1 mA Anoden-
strom und 1 m Abstand zwischen Röhre und Patient an. Daraus erhält man die Äqui-
valentdosisleistung nach folgender Formel:
I
Ḣ = 𝛤H ⋅ A (7.3)
rRP
wobei IA der Anodenstrom und rRP der Abstand zwischen der Röntgenröhre und dem
Patienten ist. Die Äquivalentdosis ist dann das Zeitintegral der Äquivalentdosisleis-
tung, also die Summe aus allen gewählten Äquivalentdosisleistungen multipliziert
mit den zugehörigen Belichtungszeiten.
Wird für die Röhre beispielweise eine Anodenspannung von 100 kV gewählt, ein
2 mm Aluminiumfilter verwendet, 60 mA Anodenstrom und eine Belichtungszeit von
1 s eingestellt, so hat der Patient eine Dosis von 10 mSv bekommen.

7.6 Dosimeter
Das Personal, welches im Bereich einer röntgendiagnostischen oder nuklearmedizi-
nischen Einrichtung arbeitet, unterliegt der Strahlenschutzkontrolle. Es muss bei der
Arbeit ständig Dosimeter am Körper tragen, um eine Messung der Äquivalentdosis,
die möglicherweise versehentlich appliziert wurde, zu ermöglichen.
Im Einsatz sind sogenannte Stabdosimeter und Dosimeter mit Filmplaketten. Bei
den Stabdosimetern wird ein kleiner beweglicher Faden in einer kleinen Ionisations-
212 | Olaf Dössel

1000

Filter in mm

1 Be
Äquivalentdosisleistungskonstante I¯R in (mSv m²)/(mA min)

100

0,2 Al
0,5 Al
1 Al
2 Al
3 Al

10

0,5 Cu

1 2 Cu

3,4 Cu

0,1
50 100 150 200
Röhrenspannung in kV

Abb. 7.2: Äquivalentdosisleistungskonstante nach [DIN 6812].

kammer elektrostatisch aufgeladen. Geht nun ionisierende Strahlung durch das Do-
simeter, so entlädt sich der Faden und verkippt im Dosimeter. Dies ist mit einer Lupe
zu erkennen. Die Filmplaketten sind mit einem hochempfindlichen Röntgenfilm aus-
gestattet und zeigen eine Schwärzung, wenn sie belichtet wurden. In den Plaketten
sind außerdem verschiedene Metallplättchen angebracht, mit deren Hilfe eine Aussa-
ge über die ungefähre Energie der Strahlung und deren Einfallsrichtung möglich ist.
Die Filme müssen regelmäßig entwickelt und quantitativ ausgemessen werden.
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 213

7.7 Gesetzliche Vorschriften


Den ordnungsgemäßen Umgang mit Röntgenquellen in der Röntgendiagnostik und
mit radioaktiven Isotopen in der Nuklearmedizin regeln in Deutschland Gesetze und
Verordnungen. Sie sollen hier kurz erwähnt werden.
Den Betrieb von Röntgeneinrichtungen regelt die Röntgenverordnung RöV (zu
finden unter www.gesetze-im-internet.de, einem Service des Bundesministeriums
der Justiz). Hier soll nur ein Ausschnitt der Verordnung skizziert werden, der das
Original nicht ersetzen kann, sondern nur einen Eindruck vermittelt. Die Röntgenein-
richtungen müssen eine Bauartzulassung haben. Der Betreiber muss das Aufstellen
bei der zuständigen Behörde (verschieden je nach Ort) anzeigen und die Einrichtung
abnehmen lassen. Die Anlage darf nur in speziellen dafür zugelassenen Räumen be-
trieben werden. Jede Änderung muss angezeigt und von der zuständigen Einrichtung
abgenommen werden. Es muss einen Strahlenschutzverantwortlichen und Strah-
lenschutzbeauftragte geben, welche die nötige Sachkunde nachweisen und die bei
der zuständigen Behörde benannt werden müssen. Eine regelmäßige Qualitätssi-
cherung ist vorgeschrieben, zu der auch die sogenannte „Konstanzprüfung“ [DIN
6868] gehört, die mindestens einmal im Monat durchgeführt werden muss. Darin sind
bestimmte Messprozeduren detailliert vorgeschrieben, die regelmäßig durchgeführt
und protokolliert werden müssen. Die Mitarbeiter, die im Bereich der Röntgeneinrich-
tung arbeiten, gehören zur Gruppe der „beruflich strahlenexponierten Personen“. Sie
unterliegen der Strahlenüberwachung, müssen am Arbeitsplatz ständig Körperdosi-
meter tragen und einen Strahlenpass führen. Die Anwendung von Röntgenstrahlen
am Menschen dürfen nur Ärzte mit der nötigen Fachkunde anordnen. Sie müssen
dabei die ärztlichen Leitlinien einhalten, insbesondere muss eine „rechtfertigende
Indikation“ vorliegen.
Darüber hinaus gelten die Vorschriften des Medizinproduktegesetzes [MPG].
Für nuklearmedizinische Einrichtungen ist die Strahlenschutzverordnung
maßgeblich (StrlSchV, zu finden unter www.gesetze-im-internet.de). Auch die bild-
gebenden Systeme der Nuklearmedizin unterliegen der Genehmigung und Überwa-
chung durch die zuständige Behörde und müssen arbeitstäglich (Energiefenster,
Untergrundzählrate) bzw. wöchentlich (Homogenität, örtliche Auflösung) auf ihre
Funktion geprüft werden [DIN 6855]. Das Personal unterliegt der Strahlenschutzkon-
trolle, und es müssen Dosimeter getragen werden. Die Anwendung von radioaktiven
Substanzen am Patienten darf nur durch Ärzte erfolgen, welche die erforderliche
Fachkunde erworben haben. Auch hier unterliegt die Anwendung mehreren ärztli-
chen Leitlinien, von denen nur in begründeten Fällen abgewichen werden darf. Im
Vergleich zu Projektionsröntgen und CT kommt der Umgang mit radioaktiven Sub-
stanzen hinzu, der besonderen Bestimmungen unterliegt. Auch die Exkremente der
Patienten (insbesondere der Urin) sind möglicherweise radioaktiv und müssen den
Vorschriften entsprechend entsorgt werden.
214 | Olaf Dössel

Quellenverzeichnis
DIN 6812: Deutsches Institut für Normung e. V. www.din.de.
DIN 6827: Deutsches Institut für Normung e. V. www.din.de.
DIN 6855: Deutsches Institut für Normung e. V. www.din.de.
DIN 6868: Deutsches Institut für Normung e. V. www.din.de.
de.wikibooks.org/wiki/Physikalische_Grundlagen_der_Nuklearmedizin/_Dosimetrie, Zugriff: Juni
2012.
ICRP: Die Empfehlungen von 2007 der Internationalen Strahlenschutzkommission (ICRP) von 2007, –
ICRP-Veröffentlichung 103, www.icrp.org/. Zugriff: Juni 2012.
Jung H.: Strahlenrisiken. In: Ewen K. (Hrsg.): Moderne Bildgebung. Stuttgart: Thieme Verlag, 1998:
24–42.
Knedlitschek B., Weibezahn K. F.: Biologische Grundlagen der Strahlenwirkung. In: Schlegel W.,
Bille J. (Hrsg.): Medizinische Physik. Band 2: Medizinische Strahlenphysik. Berlin: Springer,
2002: 123–134.
Schlegel W., Bille J. (Hrsg.): Medizinische Physik. Band 2: Medizinische Strahlenphysik. Berlin:
Springer, 2002.

Weiterführende Literatur
BMU (Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit): Umweltradioaktivität und
Strahlenbelastung. Jahresbericht 1994.
Bundesärztekammer: Leitlinien der Bundesärztekammer zur Qualitätssicherung in der
Röntgendiagnostik. Qualitätskriterien röntgendiagnostischer Untersuchungen. Deutsches
Ärzteblatt 1995; 92: B 1691–1703.
Laubenberger T., Laubenberger J.: Technik der medizinischen Radiologie. Köln: Deutscher
Ärzte-Verlag, 1994.
Medizinproduktegesetz (MPG): www.gesetze-im-internet.de/mpg.
Röntgenverordnung (RöV): www.gesetze-im-internet.de/r_v_1987.
Strahlenschutzverordnung (StrlSchV): www.gesetze-im-internet.de/strlschv_2001/index.html.
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 215

Testfragen
1. Was ist der Unterschied zwischen stochastischen und deterministischen Wirkungen ionisieren-
der Strahlung?
2. Wie sind die Teilchenflussdichte und die Teilchenfluenz definiert?
3. Wie sind die Energieflussdichte und die Energiefluenz definiert?
4. Wie sind die Ionendosis und die Ionendosisleistung definiert und in welcher Einheit werden sie
gemessen?
5. Wie sind die Energiedosis und die Energiedosisleistung definiert und in welcher Einheit werden
sie gemessen?
6. Wie sind die Äquivalentdosis und die Äquivalentdosisleistung definiert und in welcher Einheit
werden sie gemessen? Nennen Sie den Bewertungsfaktor für Photonen und für Protonen.
7. Wie groß ist die jährliche natürliche Äquivalentdosis in Deutschland?
8. Wie sind das relative Risiko (RR), das relative Lebenszeitrisiko und das attributive Risiko, durch
eine Strahlenexposition an Krebs zu erkranken, definiert?
9. Wie kann man mit Hilfe der Äquivalentdosisleistungskonstanten die Äquivalentdosis abschät-
zen, der ein Patient bei einer Röntgenaufnahme ausgesetzt wird?
10. Welche Gesetzte und Verordnungen regeln in Deutschland den sachgerechten Umgang mit Rönt-
genstrahlen in der medizinischen Diagnostik?
Helmut Ermert, Christian Hansen
8 Ultraschall

8.1 Einleitung | 218


8.2 Ultraschallanwendungen in der Medizin | 219
8.3 Physikalische Grundlagen | 226
8.4 Ultraschallwandler | 236
8.5 Ultraschall-Bildgebung in der Medizin | 251
8.6 Doppler-Verfahren | 279
8.7 Spezielle Modalitäten | 299
8.8 Physikalische Effekte, biologische Wirkungen, Grenzwerte | 313

Zusammenfassung: Mit Schallwellen Bilder vom Inneren des menschlichen Kör-


pers erzeugen – das ist die faszinierende Technik der Bildgebung mit Ultraschall
(auch Sonographie genannt). Zunächst werden die Grundlagen der Ausbreitung von
Ultraschall im biologischen Gewebe und vom Aufbau und Funktion von Ultraschall-
wandlern behandelt. Anschließend folgt die Darstellung der Technik konventioneller
Ultraschallbildgebung (B-Bild-Technik, Doppler-Verfahren). Neue Modalitäten wie
z. B. Compounding, Elastographie und Ultraschall-Kontrastmittel eröffnen immer
neue diagnostische Möglichkeiten. Grenzwerte zur Vermeidung von Schädigungen
beim Patienten und Maßnahmen zur Sicherstellung der Gerätequalität sorgen für
einen sicheren und zuverlässigen Einsatz der Ultraschalltechnik in der Medizin.

Abstract: Using ultrasound waves to produce images of the human body – this is the
fascinating world of sonography. This chapter first presents basic foundations of ul-
trasound wave propagation in biological tissue and the design and operation of trans-
ducers. Following sections discuss the conventional ultrasonic imaging concepts B-
mode and Doppler-based systems. New ultrasonic imaging modalities such as com-
pounding, elastography, and application of contrast agents open up new diagnostic
options. Finally, relevant aspects of patient safety and system quality assurance will
be discussed.
218 | Helmut Ermert, Christian Hansen

8.1 Einleitung
Diagnostischer Ultraschall gilt als relativ kostengünstige, strahlenphysikalisch unge-
fährliche, unbelastende, mobile und leicht zu applizierende Modalität, die neben der
konventionellen Röntgentechnik das am weitesten verbreitete medizinisch-diagnos-
tische Bildgebungsverfahren darstellt.
Die Technik der diagnostischen Bildgebung mit Ultraschall hat einen hohen Stand
erreicht. Mit den Entwicklungen der letzten Jahrzehnte auf dem Gebiet der Elektro-
nik, Sensorik und Signalverarbeitung konnte erreicht werden, dass heute selbst Ultra-
schallgeräte der mittleren und unteren Preisklasse einschließlich tragbarer Systeme
eine Bildqualität hervorbringen, die zu Zeiten der Anfänge des medizinisch-diagnos-
tischen Ultraschalls nicht denkbar gewesen wären. Zwar erfordern die Ultraschallbil-
der auch moderner B-Bild-Geräte immer noch ein erfahrenes und geübtes Auge auf-
seiten des Anwenders, aber nicht mehr in dem Maße wie in den Anfängen des Ultra-
schalls. Auf dem heutigen Stand der Technik fungiert das Ultraschallgerät als leicht
handhabbares System für den Arzt, für den sich Ultraschalluntersuchungen in Bezug
auf den Grad der Interaktivität und den organisatorischen Ablauf bei der Anwendung
von Röntgen-, CT- und MR-Untersuchungen wesentlich unterscheiden.
Man kann dem bildgebenden Ultraschall drei verschiedene diagnostische Ziel-
richtungen zuordnen: Die dominierende und traditionelle ist die morphologische
Abbildung, die im Rahmen des B-Bild-Konzeptes zu einer grauwertkodierten Schnitt-
bilddarstellung im Echtzeitbetrieb mit den bereits erwähnten Qualitätsfortschritten
geführt hat, welche sich vornehmlich auf räumliche Auflösung und Kontrastauflösung
beziehen.

Morphologische Abbildung: Darstellung geometrischer Formen von Objekten.

Weitere Fortschritte im Bereich der morphologischen Abbildung betreffen neuartige


Ansätze und Lösungen, z. B.:
– bei der sende- und empfangsseitigen Fokussierung in Array-Systemen („beam for-
ming“),
– bei der Entwicklung zweidimensionaler Arrays für die Reduzierung der Schicht-
dicke in der Schnittbildtechnik und für die 3D-Abbildung,
– bei der Nutzung der Nichtlinearität des Gewebes als akustisches Übertragungs-
medium („harmonic imaging“),
– bei multidirektionalen Techniken (compounding), s. 󳶳Kap. 8.7.1,
– beim hochfrequenten Ultraschall für kleine Organe und intravaskuläre Anwen-
dung (IVUS), s. 󳶳Kap. 8.7.4, sowie
– bei Konzepten zur Visualisierung mechanischer Eigenschaften des Gewebes in
Schnittbildern (Elastographie ), s. 󳶳Kap. 8.7.2.
8 Ultraschall | 219

Funktionelle Abbildung: Darstellung funktioneller Vorgänge (z. B. Bewegung, Fluss, Stoffwechsel-


prozesse) in medizinischen Bildern.

Neben der morphologischen Abbildung ist die funktionelle Abbildung eine zwei-
te, äußerst bedeutende Zielrichtung. Beim Ultraschall ist es insbesondere die tech-
nische Nutzung des Doppler-Effektes (s. 󳶳Kap. 8.6), welche die Quantifizierung und
Visualisierung von Blutfluss erlaubt und damit funktionsdiagnostische Möglichkeiten
schafft. Die Entwicklungen auf dem Gebiet der farbkodierten, bildgebenden Dopp-
ler-Sonographie in den 1980er-Jahren haben mit zu dem großen Erfolg der Ultra-
schalltechnik beigetragen und diese für die Kardiologie und die Angiologie zu einer
unverzichtbaren diagnostischen Technik werden lassen. Mehr noch als die flussrich-
tungsselektive Darstellungsweise („color flow“) ist die flussintensitätsorientierte Dar-
stellung (power mode“) geeignet, Vaskularisierung und Perfusion zu visualisieren,
und hat damit die diagnostischen Möglichkeiten weiter bereichert. Die Technik zur
Darstellung von Flusszuständen in kleinen Gefäßen mit Ultraschall als funktionelle
Abbildungsmodalität hat mit der Entwicklung von kurzlebigen und lungengängigen
Ultraschallkontrastmitteln (s. 󳶳Kap. 8.7.3) einen weiteren Impuls erfahren, der u. a.
die Möglichkeiten der quantitativen Flussanalyse verbessert und Anwendungsmög-
lichkeiten in den Bereichen erschließt, in denen die Doppler-Technik ohne Kontrast-
mittel aus Gründen der relativ geringen Empfindlichkeit nur begrenzt einsetzbar ist.
Die Anwendung spezieller Kontrastmittel verspricht auch einen erfolgreichen Ein-
satz des Ultraschalls in der molekularen Bildgebung.

8.2 Ultraschallanwendungen in der Medizin


8.2.1 Diagnostische Anwendungen

Das Hauptanwendungsgebiet des Ultraschalls in der Medizin liegt im Bereich der me-
dizinischen Diagnostik. Die Ultraschalltechnik hat seit ihren ersten medizinisch-
diagnostischen Anwendungen in den 1940er- und 1950er-Jahren [Dussik 1942, Howry
et al. 1952, Wild 1950], begünstigt durch ihren erfolgreichen Einsatz in der Gynäkologie
und Geburtshilfe, in nahezu allen Fachbereichen der Humanmedizin Einzug gehalten.
Ultraschallabbildungsverfahren finden heutzutage hauptsächlich Verwendung in der
bereits erwähnten Gynäkologie und Geburtshilfe, in der Gastroenterologie, in der Kar-
diologie und allgemein in der Radiologie. Darüber hinaus wird die Sonographie unter
anderem auch in der Pädiatrie, der Orthopädie, der Chirurgie sowie in der Neurologie,
der Onkologie, der Urologie und der Angiologie eingesetzt.
Obwohl die Technik der Ultraschallbildgebung detailliert in 󳶳Kapitel 8.5 be-
schrieben wird, ist es für das Verständnis der folgenden Ausführungen sinnvoll,
bereits an dieser Stelle das grundsätzliche Prinzip der Ultraschallabbildung vor-
220 | Helmut Ermert, Christian Hansen

Schallwandler: Ultraschallbild
Array aus Einzelelementen y (grauwertkodiertes B-Bild)
(elevat.)
x (lateral)
Haut,
Muskel Fett
Muskel

z (axial)
Schild- 1
drüse
Hals-
Luft- schlagader
röhre Scan 2
Strahl-
linie
3

(a) (b) 1 2 3 cm

Abb. 8.1: Puls-Echo-Betrieb am Beispiel der Schilddrüsenabbildung. (a) Schematische Skizze. (b) B-
Bild mit folgenden Artefakten (vgl. 󳶳 Kap. 8.5): Abschattung hinter der Luftröhre (Stern), Randschat-
ten von der Halsschlagader (Kreuze), dorsale Schallverstärkung hinter der Halsschlagader (Kreis)
und Speckle im Bereich der Schilddrüse (Dreieck). Das Ultraschallbild wurde mit einem Siemens
Acuson Antares und dem Linear-Array VF10-5 mit einer Mittenfrequenz von 7,5 MHz aufgenommen.

zustellen. Die in der Medizin konventionell eingesetzte zweidimensionale Ultra-


schallabbildung erfolgt im sogenannten Puls-Echo-Betrieb. Hierbei wird von einem
Schallwandler ein Ultraschallpuls ausgesandt, der an Grenzschichten und Streuern
im Gewebe reflektiert bzw. rückgestreut wird. Die Schallausbreitung erfolgt fokus-
siert in einem begrenzten Raumbereich entlang eines Schallstrahls (beamline). Die
zum Schallwandler zurücklaufenden Echosignale werden von diesem empfangen
und zeitaufgelöst ausgewertet. Durch eine Aufnahme mehrerer, räumlich versetzter
(z. B. paralleler) Bildlinien in einer Ebene kann ein zweidimensionales grauwertko-
diertes Schnittbild der Echoamplitude, ein sogenanntes B-Bild (B: brightness), des
zu untersuchenden Objektes generiert werden. Das Verfahren bringt Bewegtbilder
in Echtzeit hervor. 󳶳Abb. 8.1 (a) zeigt dieses Prinzip schematisch. In 󳶳Abb. 8.1 (b)
ist (als Momentaufnahme) ein konventionelles Ultraschallbild einer Schilddrüse in
transversalem Schnitt zu sehen.
Dieses ist die in der Ultraschalldiagnostik überwiegend angewandte und in ver-
schiedenen technischen Modifikationen (Art der Wandler, Frequenzbereiche) ausge-
führte Betriebsart. Diese Vielfalt gestattet eine Vielzahl diagnostischer Aufgaben, wel-
che die Sonographie in verschiedenen Teilgebieten der Medizin zu übernehmen in
der Lage ist. Grundsätzlich sind folgende vier klinische Anwendungsgebiete zu unter-
scheiden [Lehmann et al. 1997]:
– Differentialdiagnostik: Neben anderen diagnostischen Methoden kann die
Sonographie zur bildbasierten Diagnostik eingesetzt werden, um Befunde und
Symptome möglichen Krankheitsbildern zuzuordnen. Weiterhin kann sie zur
Differentialdiagnostik (vergleichende Diagnostik ähnlicher Krankheitsbilder)
eingesetzt werden, um eine Diagnose zu bestätigen oder auszuschließen.
8 Ultraschall | 221

– Screening: Auch ohne initialen diagnostischen Befund kann die Sonographie


zur regelmäßigen Vorsorgeuntersuchung (Screening) bei Personen eingesetzt
werden, die bestimmten (Risiko-)Gruppen angehören.
– Therapie- und Verlaufskontrolle: Die Sonographie kann zur Therapie- und Ver-
laufskontrolle eingesetzt werden, um regelmäßig das Stadium einer Erkrankung
oder die Wirkung einer Therapie zu dokumentieren und zu überwachen.
– Überwachung interventioneller Maßnahmen: Ultraschall kann während inter-
ventioneller Maßnahmen wie Operationen zur bildbasierten Überwachung und
Kontrolle eingesetzt werden.

Die Sonographie ist neben der herkömmlichen Röntgendiagnostik, der Röntgen-


Computertomographie (Röntgen-CT) und der Magnetresonanztomographie (MRT,
auch Kernspintomographie genannt) eines der am häufigsten verwendeten bildge-
benden Verfahren in der Humanmedizin. In vielen Bereichen steht der medizinische
Ultraschall sogar an erster Stelle in der Reihe der Abbildungsmodalitäten. Diese her-
ausragende Stellung ist hauptsächlich auf die folgenden, dem Ultraschall eigenen
Vorteile zurückzuführen:
– Verträglichkeit: Die Sonographie ist zumeist nichtinvasiv und erzielt ohne Ver-
wendung ionisierender Strahlung besonders patientenschonend eine hohe diag-
nostische Aussagekraft.
– Flexibilität: Ultraschall ist mit geringem Aufwand und flexibel anwendbar, was
vor allem durch die Mobilität der Ultraschallgeräte bedingt ist.
– Kosten: Ultraschallgeräte sind vergleichsweise kostengünstig in der Anschaffung
und im Betrieb.
– Echtzeitfähigkeit: Die Abbildung erfolgt mit Bildwiederholraten von bis zu
200 Bildern/Sekunde, so dass die Ultraschallabbildung echtzeitfähig ist.
– Doppler-Blutflussmessung: Zusätzlich zur rein morphologischen Darstellung
von Objekten ist im Rahmen einer Funktionsdiagnostik auch die quantitative Mes-
sung des Blutflusses mit Doppler-Messmethoden möglich (s. 󳶳Kap. 8.6).
– Kontrastmittelanwendung: Im Bereich der Funktionsdiagnostik können neben
den Doppler-Verfahren auch klinisch zugelassene und gut verträgliche Ultra-
schallkontrastmittel eingesetzt werden, um die Durchblutung von Organen zu
visualisieren oder zu messen (s. 󳶳Kap. 8.7.3).

Neben den aufgeführten Vorteilen der Sonographie existieren allerdings auch Nach-
teile, die ihren Einsatz gerade in Konkurrenz zur Röntgen-CT oder MRT limitieren:
– Transmissionsgrenzen: Die Anwendbarkeit von Ultraschall ist (bis auf wenige
Ausnahmen) auf die Darstellung von Weichgewebe begrenzt, da die üblicherwei-
se in der Medizin genutzten Ultraschallwellen in gasgefüllte Bereiche und rigide
Strukturen wie Knochen kaum eindringen können. Auch Regionen, die in Schall-
ausbreitungsrichtung hinter Knochen oder gasgefüllten Regionen liegen, können
nicht abgebildet werden. In Weichgewebe breitet sich Ultraschall hingegen bes-
222 | Helmut Ermert, Christian Hansen

ser aus. Allerdings ist auch hier die Eindringtiefe begrenzt, da die Schallwellen
im Gewebe gedämpft werden.
– Rauschen: Ultraschallbilder sind von Speckle-Rauschen überlagert (vgl.
󳶳Abb. 8.1 (b)). Die Ursache für das Auftreten von Speckle wird in 󳶳Kapitel 8.5.2
näher beschrieben. Im Vergleich zur rauscharmen Darstellung in CT- und MRT-
Aufnahmen werden diese Speckle häufig als störend empfunden.
– Unidirektionalität: Röntgen-CT und MRT nehmen als multidirektionale Aufnah-
meverfahren das zu untersuchende Objekt aus einer Vielzahl verschiedener Blick-
richtungen in einer Schnittebene auf. Dies ist zwar bei diesen rekonstruktiven
Verfahren für die Bildgebung unumgänglich [Buzug 2004, Kalender 2006, Oppelt
2005, Morneburg 1995], führt allerdings direkt dazu, dass im entstehenden Bild
keine Vorzugsrichtung existiert. Die konventionelle Sonographie arbeitet hinge-
gen unidirektional. Hier kommt es zu Phänomenen bei der Abbildung (z. B. Tie-
fenabhängigkeiten und Artefakte), die von der Einfallsrichtung der Schallwellen
und der damit verbundenen Interaktion zwischen Schallwellen und Objekten ab-
hängen (vgl. 󳶳Kap. 8.5.3).
– Bildorientierung: Die Orientierung der Bildebene (axial, lateral und elevational
gemäß 󳶳Abb. 8.1) in einem an dem Schallwandler ausgerichteten Koordinaten-
system ist in Relation zu den Koordinatenachsen des Patienten (koronal, trans-
versal und sagittal [Sobotta 2002]) nicht eindeutig festgelegt, sondern variiert mit
der Position und Ausrichtung des Schallwandlers. Dies bedingt, dass bei den Ul-
traschallaufnahmen stets angegeben werden oder durch standardisierte Untersu-
chungsprotokolle definiert sein muss, wie ein Ultraschallbild entstanden ist. Bei
CT- oder MRT-Aufnahmen hingegen ist eine Darstellung von Schnittebenen üb-
lich, die an den Koordinatenachsen des Patienten ausgerichtet sind (z. B. die ty-
pische Drei-Felder-Ansicht bei Volumendatensätzen). Die variable Orientierung
der Ultraschallbildebene führt zu einer erschwerten Deutung der sonographisch
dargestellten Anatomie.

Eine Besonderheit der Sonographie ist die Möglichkeit eines hohen Maßes an Interak-
tivität von Ultraschalluntersuchungen, die durch die vielen Freiheitsgrade in der Auf-
nahmetechnik entsteht. Durch manuelles Verschieben des Schallkopfes und Druck-
applikation ändert sich die Darstellung von Organen im Ultraschallbild. Das Speck-
le-Muster verändert sich mit der dargestellten Form des Objektes, Artefakte zeigen
sich an anderer Position im Bild, und Objekte verändern ihre Lage zueinander. Die-
se Möglichkeit kann einerseits als vorteilhaftes Merkmal der Sonographie angesehen
werden. Die Interaktivität erlaubt es, eine Bildebene (auch durch manuelle Kompressi-
on des Gewebes) einzustellen, die eine Befundung und Diagnose optimal ermöglicht.
Auf der anderen Seite entsteht auf diese Weise eine große Intra- und Inter-Observer-
Variabilität der Diagnose, da nicht sichergestellt ist, dass die optimale Bildebene von
dem aktuellen Untersucher auch gefunden wird. Die Ultraschalluntersuchung erfor-
8 Ultraschall | 223

dert daher große Erfahrung auf Seiten des Anwenders. Forderungen nach standardi-
sierten Untersuchungsverfahren sind die Folge.
Einen Schritt weiter gehen Systeme, die nicht nur die Durchführung der Unter-
suchung festlegen, sondern darüber hinaus eine automatisierte Bildaufnahme ggf.
sogar dreidimensional ermöglichen. Solche Systeme sind allerdings klinisch bislang
nicht etabliert oder befinden sich noch in der technischen Entwicklung. Durch ih-
ren Einsatz könnte jedoch eine Reproduzierbarkeit und gute Dokumentierbarkeit der
Bilderzeugung erzielt werden. Ein besonderer Vorteil entstünde dadurch, dass solche
Systeme ggf. von Assistenzpersonal bedienbar sind. Derzeit werden in Deutschland
Ultraschalluntersuchungen nur von Ärzten durchgeführt und beurteilt. Das hinge-
gen bei CT- und MRT-Untersuchungen übliche arbeitsteilige Konzept, die Bildaufnah-
men standardisiert durch Assistenzpersonal durchführen zu lassen und die Bilder nur
zur Diagnose einem Arzt vorzulegen, wird zur Senkung von Betriebskosten in Län-
dern wie Großbritannien oder den USA auch bei der Ultraschallabbildung angewandt.
Aufgrund der oben beschriebenen Untersucherabhängigkeit der Sonographie wird in
Deutschland allerdings davon Abstand genommen. Die automatisierte Bilderzeugung
könnte eine solche Arbeitsteilung hingegen ermöglichen, sofern sie sich in zeitopti-
mierter Weise und mit gesicherten Qualitätsstandards in den klinischen Betrieb inte-
grieren ließe.
Möglichkeiten zur Realisierung einer automatisierten und reproduzierbaren Bild-
erzeugung bieten Systeme, die für die Anwendung an speziellen Organen entworfen
wurden. Im Vordergrund des Interesses steht dabei häufig die Mammadiagnostik.
Hier gibt es derzeit mehrere Entwicklungsaktivitäten und auch bereits einige Produk-
te. Zum Beispiel hat die Firma Siemens Healthcare ein System auf den Markt gebracht,
bei dem ein besonders breiter Schallwandler frontal auf die Mamma aufgesetzt und
automatisiert über die weibliche Brust senkrecht zur Bildebene (elevational gemäß
󳶳Abb. 8.1) verfahren wird, um so 3D-Datensätze aufzunehmen [Wöhrle et al. 2010].
Die Firma Toshiba Medical Systems unterstützt Entwicklungsarbeiten zu einem Scan-
ner, bei dem ein Schallwandler in aufrechter Position elevational um die Brust ro-
tiert [Halliwell et al. 2008, Shipley et al. 2005]. Hier ist unter anderem auch die Tech-
nik des spatial compoundings (s. 󳶳Kap. 8.7.1) anwendbar. Die Firma Techniscan Medi-
cal Systems [www.techniscanmedicalsystems.com], die Firma Helix Medical Systems
[www.helix.co.il] und das Karmanos Cancer Institute [Duric et al. 2007, Glide et al.
2007] haben unabhängig voneinander Ultraschallscanner für die Mammadiagnostik
entwickelt, die nach einem vergleichbaren Prinzip arbeiten. Eine flexible Lösung für
einen Echo-CT-Mammascanner, die ein konventionelles Ultraschallgerät zur Bildge-
bung verwendet und den Einsatz von Kontrastmitteln gestattet, wurde in [Hansen
2009] gefunden.
Neben den oben beschriebenen klinischen Anwendungen können bei der Ultra-
schalldiagnostik auch verschiedene diagnostische Ziele unterschieden werden.
224 | Helmut Ermert, Christian Hansen

Morphologische Diagnostik
Die in der Medizin konventionell eingesetzte zweidimensionale Ultraschallabbildung
erfolgt, wie bereits weiter oben am Beispiel der 󳶳Abb. 8.1 beschrieben, im sogenann-
ten Puls-Echo-Betrieb. Die auf Echos an Grenzschichten und Streuern im Gewebe
basierende Bildinformation in den Schnittbildern repräsentiert in erster Linie die Mor-
phologie (Größen, Formen, Dimensionen, Umrandungen, Grenzschichten) des Ob-
jektes. Häufig unterscheiden sich verschiedene Areale in den morphologischen Bil-
dern durch die dargestellte Textur (s. 󳶳Kap. 8.7.5) und das auftretende Speckle (s.
󳶳Kap. 8.5.3), womit indirekt bereits ein Hinweis auf bestimmte Arten bzw. Zustän-
de des biologischen Gewebes gegeben sind. Die diagnostische Aussagekraft der mor-
phologischen Bildinformation wird wesentlich durch die Echtzeitfähigkeit der Ultra-
schallbildgebung unterstützt. Letztere gestattet bereits einen Schritt in Richtung einer
funktionellen Diagnostik.

Textur: Feinstruktur, Musterstruktur in der Helligkeitsverteilung von medizinischen Bildern.

Funktionsdiagnostik
Neben einer diagnostischen Beurteilung der anatomischen Verhältnisse über die ab-
gebildete Morphologie und Textur von Organen und Gewebearten besteht auch die
Möglichkeit, funktionelle Untersuchungen sonographisch durchzuführen. Neben der
Untersuchung von Bewegungsabläufen in den morphologischen Echtzeitbildern liegt
der Schwerpunkt funktionsdiagnostischer Verfahren in der Untersuchung der Blutver-
sorgung des Gewebes bzw. der Organe. Etablierte Verfahren sind hier die qualitative
Darstellung und die quantitative Messung von Blutflussgeschwindigkeiten in Blutge-
fäßen, die weitgehend auf dem Doppler-Effekt basieren [Bogdahn 1998, Jensen 1996].
Erstmalig angewandt in 1957 [Satomura 1957], hat gerade die quantitative Blutflussab-
bildung der Sonographie einen großen Aufschwung in den 1980er-Jahren verschafft.
Die Blutbestandteile (im Wesentlichen Erythrozyten, Leukozyten und Thrombo-
zyten) erzeugen nur eine geringe Rückstreuung der Ultraschallwellen. In einem Ultra-
schallbild in gewebeoptimierter Aussteuerung ist das echoarme Innere von größeren
Blutgefäßen daher dunkel dargestellt (z. B. die Halsschlagader in 󳶳Abb. 8.1 (b)). Trotz
dieser sehr geringen Rückstreuung können die aus dem Blutgefäß empfangenen Echo-
signale genutzt werden, um die Bewegung von Blutteilchen (hier aufgrund ihrer domi-
nierenden Größe und Menge vorrangig der Erythrozyten) über einen kurzen Zeitraum
zu beobachten und deren Bewegungsrichtung und Geschwindigkeit zu schätzen. Die
verschiedenen Modifikationen der Doppler-Sonographie werden in 󳶳Kapitel 8.6 vor-
gestellt.
Bei großer klinischer Akzeptanz und Anwendung sind die Doppler-Verfahren
im Bereich niedriger Flussgeschwindigkeiten von unter zehn Zentimetern pro Se-
kunde, wie sie in kleinen Gefäßen des Blutkreislaufes vorkommen, nicht einsetzbar.
8 Ultraschall | 225

Hier versagt die Geschwindigkeitsbestimmung, da schon kleinste Bewegungen des


Schallwandlers oder der Organe aufgrund von Atmung oder Herzschlag zu Störungen
führen, die in der gleichen Größenordnung liegen wie die zu bestimmenden Flussge-
schwindigkeiten. Wie bereits oben zu den Vorteilen der Ultraschallbildgebung aufge-
führt, können alternativ zu den Doppler-Verfahren auch Ultraschallkontrastmittel
eingesetzt werden, um die Blutversorgung des Gewebes zu untersuchen [Bogdahn
1998, Goldberg et al. 2001]. Diese Kontrastmittel bestehen aus hüllenstabilisierten
Gasbläschen (Mikrobläschen), die im Durchmesser kleiner sind als 10 μm und so-
mit ungestört die kleinsten Gefäße des Menschen (Kapillaren) passieren. Sie werden
intravenös appliziert und stören die Hämodynamik nicht.

Hämodynamik: die von den Gefäßeigenschaften beeinflussten räumlich-zeitlichen Zusammen-


hänge zwischen Drücken, Flussgeschwindigkeiten, Flussmengen etc. beim Blutfluss in Gefäßen.

Trotz ihrer geringen Größe bewirken der große akustische Impedanzunterschied


zwischen Blutplasma und Gasbläschen und das besondere Schwingverhalten der Mi-
krobläschen im Schallfeld allerdings eine starke Rückstreuung der Ultraschallwellen.
Diese Eigenschaft wurde ursprünglich ausgenutzt, um bei Messungen des Blutflus-
ses mithilfe der Doppler-Technik ein besseres Signal-Rausch-Verhältnis zu erzielen.
Zwar werden auch heute noch Kontrastmittel zu diesem Zweck klinisch eingesetzt,
allerdings ist es zudem möglich, ohne den Einsatz von Doppler-Verfahren die charak-
teristische nichtlineare Oszillation der Mikrobläschen im Schallfeld zu detektieren,
um so eine kontrastmittelspezifische Ultraschallabbildung zu realisieren. Bei
einer solchen Abbildung werden Echosignalanteile vom Gewebe weitgehend unter-
drückt, so dass hauptsächlich das Ultraschallkontrastmittel hell abgebildet wird. Die
Technik der kontrastmittelgestützten Sonographie wird in 󳶳Kapitel 8.7.3 beschrieben.

8.2.2 Therapeutische Anwendungen

Neben den oben aufgeführten Einsatzgebieten der bildgebenden Ultraschalltechnik


gibt es auch verschiedene medizinisch-therapeutische Anwendungen des Ultra-
schalls, wobei es entweder die mechanischen oder die thermischen Wirkungen des
Ultraschalls sind, die für therapeutische Zwecke genutzt werden. In die erste Gruppe
gehören beispielsweise die Lithotripsie zur extrakorporalen Zerstörung von Nieren-
steinen mit Ultraschallstoßwellen [Chaussy et al. 1980, Wilbert et al. 1987, Wilbert
2002] und die Entfernung von Zahnstein.

Lithotripsie: Verfahren zur mechanischen Zertrümmerung von Steinen in Organen.


226 | Helmut Ermert, Christian Hansen

Zur zweiten Gruppe ist das sogenannte HIFU-Verfahren (High-Intensity Focused Ultra-
sound, HIVU) zu zählen, das hochfokussierten Ultraschall zur thermischen Behand-
lung von Tumoren verwendet und in den letzten Jahren an Interesse gewonnen hat
[Kremkau 1979, Randal 2002, Kennedy et al. 2003]. Wegen der thematischen Ausrich-
tung dieses Bandes werden therapeutische Verfahren hier nicht weiter behandelt.

8.3 Physikalische Grundlagen


Als Ultraschall werden Schallwellen bezeichnet, deren Frequenz jenseits der mensch-
lichen Hörschwelle im Bereich von 20 kHz bis 1 GHz liegen. In seiner medizinisch-
diagnostischen Anwendung wird Ultraschall überwiegend in einem Frequenzbe-
reich von ungefähr 1,5 bis 20 MHz eingesetzt.
Die Ausbreitung von Ultraschallwellen im weichen biologischen Gewebe gleicht
jener in fluiden Medien.

Fluide Medien: Medien ohne Formelastizität (z. B. Gase, Flüssigkeiten), in denen sich im Fall idea-
ler Fluidität nur longitudinale akustische Wellen, nicht aber Scherwellen ausbreiten können.

In beiden Fällen breitet sich Ultraschall als longitudinale Wechseldruckwelle aus.


Scherwellen, die sich gut in Festkörpern ausbreiten können, sind im Gewebe trotz
einer gewissen Viskosität, die gegenüber idealen Fluiden das Auftreten von Scher-
kräften möglich macht, aufgrund zu starker Dämpfung kaum ausbreitungsfähig.
Ultraschallwellenfelder können durch die orts- und zeitveränderlichen Feldgrößen
Druck p und Schnelle v⃗ beschrieben werden. Die fluiden Medien, in denen sich
Ultraschallwellen ausbreiten, lassen sich durch die Materialkenngrößen Dichte 𝜌0
und Kompressibilität 𝜅0 charakterisieren. Die Zusammenhänge zwischen den Feld-
größen und den Materialkenngrößen ergeben sich aus den Feldgleichungen und den
daraus resultierenden Wellengleichungen.

Schallschnelle: Geschwindigkeit der periodischen Auslenkung von Masseteilchen aus ihrer Ruhe-
lage in einem akustischen Wellenfeld.

Bei der Schnelle handelt es sich, im Unterschied zur Schallgeschwindigkeit, um die


Geschwindigkeit, welche die Masseteilchen des akustischen Übertragungsmediums
bei ihrer Bewegung aus ihrer Ruhelage heraus annehmen. Speziell in fluiden Medien
wird die Wellenausbreitung über die Euler-Gleichung, die Kontinuitätsgleichung und
die Zustandsgleichung beschrieben [Hamilton 1997; Meyer, Neumann 1979]. Obwohl
diese Gleichungen nichtlinear sind, werden sie meist in linearisierter Form verwendet.
Aus ihnen können die im Folgenden vorgestellten Kenngrößen abgeleitet werden, die
zur Beschreibung des Schallfeldes und dessen Interaktion mit Objekten herangezogen
werden.
8 Ultraschall | 227

Die Euler-Gleichung
dv⃗
−∇p = 𝜌 , (8.1)
dt
beschreibt den Zusammenhang zwischen dem lokalen Druckgradienten im Medium
und der Beschleunigung der Masseteilchen des Mediums. Die Kontinuitätsglei-
chung
d𝜌
−∇(𝜌v)⃗ = (8.2)
dt
erfasst die Beziehung zwischen der Bewegung der Masseteilchen und der zeitlichen
Abnahme der lokalen Dichte.
Eine dritte Beziehung, die zur Herleitung einer Wellengleichung für den Ultra-
schall erforderlich ist, ist die Zustandsgleichung, die beim Ultraschall wegen der
Schnelligkeit der Ausbreitungsvorgänge und des daher vernachlässigbaren Wärme-
austauschs der Feldanteile mit ihrer Umgebung einen adiabatischen Zustandsprozess
beschreibt. Sie definiert den nichtlinearen Zusammenhang zwischen Druck und Dich-
te gemäß
p = p(𝜌, T) ≈ p(𝜌) , (8.3)

wobei der Einfluss thermischer Austauschvorgänge vernachlässigt werden kann.

8.3.1 Lineare Theorie der Ultraschallwellenausbreitung in fluiden Medien

Die Besonderheit beim Ultraschall in homogenen fluiden Medium besteht darin, dass
die Feldgrößen Druck und Dichte sich jeweils einem räumlichen und zeitlichen Gleich-
anteil p0 bzw. 𝜌0 überlagern, während dieses auf die Feldgröße Schnelle (Geschwin-
digkeit der Masseteilchen) bei einem ruhenden Medium nicht zutrifft. Berücksichtigt
man in allen Gleichungen, dass die Gleichanteile viel größer sind als die der Ultra-
schallwelle zugehörigen Wechselanteile, lassen sich nützliche Näherungen anwen-
den, die jeweils zu einer Linearisierung der Beziehungen führen. Für die Zustandglei-
chung ergibt sich eine solche Linearisierung aus einer Taylor-Reihen-Entwicklung
in der Umgebung des statischen „Arbeitspunktes“ p0 , 𝜌0 , welche für kleine Wechsel-
signale zu einer Beziehung
1 𝜕p 󵄨󵄨󵄨󵄨
= 𝜌0 󵄨 (8.4)
𝜅0 𝜕𝜌 󵄨󵄨󵄨𝜌=𝜌0
führt, mit der die Kompressibilität 𝜅0 neben der Dichte 𝜌0 als Materialkenngröße des
fluiden Mediums definiert werden kann.

Kompressibilität: Eigenschaft, die die Volumenelastizität fluider Medien beschreibt (Kehrwert des
Kompressionsmoduls).
228 | Helmut Ermert, Christian Hansen

Damit lassen sich nun die Beziehungen zwischen den Feldgrößen einer Ultra-
schallwelle in Form zweier linearer, verkoppelter Differentialgleichungen (Feld-
gleichungen) angeben
𝜕v⃗
−∇p = 𝜌0 , (8.5)
𝜕t
𝜕p
−∇v⃗ = 𝜅0 , (8.6)
𝜕t
aus denen sich die Wellengleichungen für den Schalldruck und die Schallschnelle
in quellenfreien, homogenen Medien
1 𝜕2
(∇2 − )p = 0 (8.7)
c20 𝜕t2
1 𝜕2
(∇2 − ) v⃗ = 0 (8.8)
c20 𝜕t2
herleiten lassen. Es zeigt sich, dass die Ausbreitungsgeschwindigkeit einer Ultra-
schallwelle durch die Materialparameter Dichte 𝜌0 und Kompressibilität 𝜅0 bestimmt
wird. Somit wird die Schallgeschwindigkeit c0 :
1
c0 = . (8.9)
√𝜌0 ⋅ 𝜅0

Schallgeschwindigkeit: Geschwindigkeit der Ausbreitung einer ebenen akustischen Welle.

Die wichtigsten Zusammenhänge bei der Ausbreitung von Wellen in bestimmten


Medien lassen sich anhand homogener ebener Wellen recht gut beschreiben. Eine
sich in positiver z-Richtung eines kartesischen Koordinatensystems in einem homo-
genen, verlustfreien Medium ausbreitende homogene ebene monofrequente Welle
sei durch die Feldgrößen

p(z, t) = p̂ cos(𝜔t − kz) , (8.10)


⃗ t) = e⃗z v̂ cos(𝜔t − kz)
v(z, (8.11)

gegeben. e⃗z sei der Einheitsvektor in z-Richtung und kennzeichnet den vektoriellen
Charakter der Schnelle. Häufig ist es vorteilhaft, bei sinusförmiger Zeitabhängigkeit
der Signale die komplexwertige harmonische Exponentialfunktion zu benutzen, wo-
mit sich die Feldgrößen in folgender Form darstellen lassen:

p(z, t) = Re {p(z)ej𝜔t } , ⃗ t) = Re {v(z)e


v(z, ⃗ j𝜔t
}, (8.12)
−jkz −jkz
̂
p(z) = pe , ⃗ = e⃗z vê
v(z) . (8.13)

Die komplexwertigen Feldgrößen werden hier durch einen Unterstrich gekennzeich-


net. Nach Berechnung von komplexwertigen Feldgrößen können die physikalisch rea-
len Größen durch Anwendung der Beziehungen in 󳶳Gl. (8.12) gewonnen werden.
8 Ultraschall | 229

Tab. 8.1: Schallgeschwindigkeiten c0 und Schallimpedanzen Z0 für einige Materialien [Szabo 2004].

Wasser Blut Fett Muskel Leber Knochen Luft Einheit


c0 1482 1584 1430 1580 1578 3198 331 m/s
Z0 1,482 1,679 1,327 1,645 1,657 6,364 0,00043 106 kg/(m2 s)

Wellenzahl k: Kenngröße, die im Sinne einer Ortsfrequenz die räumliche Periodizität eines Wel-
lenfeldes beschreibt. Sie ist mit der (Zeit-)Frequenz f und der Ausbreitungsgeschwindigkeit c (z. B.
Schallgeschwindigkeit) über die Beziehung k = 2𝜋f /c verknüpft.

Aus den Wellengleichungen ergibt sich nun für die Wellenzahl k die Beziehung
𝜔 2𝜋f 2𝜋
k= = = , (8.14)
c0 c0 𝜆
in der von dem Zusammenhang zwischen Frequenz, Schallgeschwindigkeit und Wel-
lenlänge
𝜆 = c0 /f (8.15)
Gebrauch gemacht wird. Für die Amplituden der Feldgrößen erhält man die Relation
p̂ 𝜌
= √ 0 = Z0 , (8.16)
v̂ 𝜅0
aus der sich der Feldwellenwiderstand bzw. die Schallimpedanz Z0 als Material-
kenngröße definieren lässt.

Schallimpedanz, Feldwellenwiderstand: Materialeigenschaft, die das Verhältnis zwischen zwei


Wellengrößen bestimmt (z. B. Schalldruck zu Schallschnelle beim Ultraschall).

Im menschlichen Weichgewebe nimmt die Dichte 𝜌0 Werte zwischen ungefähr


950 kg/m3 und 1100 kg/m3 an, und die Werte für die Kompressibilität 𝜅0 liegen zwi-
schen 380 ⋅ 10−12 m2 /N und 510 ⋅ 10−12 m2 /N [Angelsen 2000]. Die Werte der Schallge-
schwindigkeit liegen somit gewebespezifisch im Bereich von 1400 bis 1600 m/s.
Für den medizinisch genutzten Frequenzbereich und die hier vorliegenden Schall-
geschwindigkeiten betragen die Wellenlängen im Gewebe ungefähr 70 μm bis 1,6 mm.
Einige Werte der Schallgeschwindigkeit und der Schallimpedanz sind in 󳶳Tab. 8.1 zu-
sammengestellt.
Eine wichtige Größe ist die Schallintensität einer Welle. Im Fall der oben ange-
nommenen ebenen Welle lässt sich die Schallintensität als die räumliche Dichte der
durch eine Ebene (z = constant) transportierten Leistung interpretieren und kann aus
T
1 󵄨 ⃗ 󵄨
J(z) = ∫ p(z, t) ⋅ 󵄨󵄨󵄨v(z, t)󵄨󵄨󵄨 dt (8.17)
T
0
230 | Helmut Ermert, Christian Hansen

berechnet werden. Beim Beispiel der sich in positiver z-Richtung ausbreitenden ebe-
nen Welle gemäß 󳶳Gl. (8.10) und 󳶳Gl. (8.11) ist im Falle eines verlustlosen Mediums
die Intensität an jeder Stelle z gleich groß und beträgt
1 1 2
J = p̂ ⋅ v̂ = p̂ . (8.18)
2 2Z0

Schallintensität: flächenbezogene Dichte der transportierten Leistung einer Schallwelle.

Ein Maß, das vor allem zur Abschätzung der mechanischen Beanspruchung des Ge-
webes eingesetzt wird, ist der mechanische Index (MI). Er berechnet sich aus dem
negativen Spitzendruck p̂ neg (in MPa) und der Frequenz f (in MHz) gemäß:
p̂ neg
MPa
MI = (8.19)
√ MHz
f

Intensität und mechanischer Index sind für die Festlegung von Grenzwerten von Be-
deutung, die für eine sichere Anwendung des diagnostischen Ultraschalls am Patien-
ten zu beachten sind (s. 󳶳Kap. 8.8.3).

Mechanischer Index: aus dem negativen Spitzendruck und der Frequenz einer Schallwelle abge-
leiteter Faktor, der in der Ultraschalldiagnostik als Grenzwert zur Vermeidung mechanischer Schä-
den durch die Schallwellen benutzt wird.

Während der Schallausbreitung kommt es zu den typischen wellenphysikalischen In-


teraktionen zwischen der Ultraschallwelle und dem Gewebe:
Reflexion: An flächenhaften Materialübergängen, deren Ausdehnungen größer
sind als die Wellenlänge der Schallwelle, kommt es zur Reflexion. Für den Reflexi-
onswinkel 𝜃r gilt bei strahlengeometrischer Näherung gemäß 󳶳Abb. 8.2: 𝜃r = 𝜃e . Be-
stimmend für die Stärke der Reflexion ist der Unterschied der Schallimpedanzen Z1
und Z2 der beiden Medien. Je größer der Impedanzunterschied ist, desto stärker ist

c₁, Z₁
Ѳr
Ѳe

c₂, Z₂

Ѳt
Abb. 8.2: Schematische Darstellung der Reflexi-
on und Brechung von Schallwellen in strahlen-
geometrischer Näherung.
8 Ultraschall | 231

Tab. 8.2: Reflexionskoeffizienten an Grenzschichten zwischen verschiedenen Medien in % (berech-


net aus den Werten in 󳶳 Tab. 8.1, senkrechter Einfall).

Wasser Blut Fett Muskel Leber Knochen Luft


Wasser 0,000 0,388 0,304 0,272 0,311 38,717 99,884
Blut 0,000 1,371 0,010 0,004 33,930 99,898
Fett 0,000 1,145 1,223 42,892 99,870
Muskel 0,000 0,001 34,717 99,895
Leber 0,000 34,437 99,896
Knochen 0,000 99,973
Luft 0,000

die Reflexion. Das Maß der Reflexion kann über den Reflexionskoeffizient Kr be-
stimmt werden, wobei die Schallintensität der reflektierten Welle Jr ins Verhältnis zur
Schallintensität der einfallenden Welle Je gesetzt wird. Er ergibt sich in Abhängigkeit
des Einfallswinkels 𝜃e und des Transmissionswinkels 𝜃t zu [Millner 1987]:
2
Jr (Z ⋅ cos 𝜃e − Z1 ⋅ cos 𝜃t )
Kr = = 2 (8.20)
Je (Z2 ⋅ cos 𝜃e + Z1 ⋅ cos 𝜃t )2

Da sich die Schallimpedanzen der verschiedenen Arten von biologischem Weichge-


webe nur geringfügig unterscheiden, sind die Reflexionskoeffizienten nicht sehr groß.
Zur Veranschaulichung sind in 󳶳Tab. 8.2 einige Werte des Reflexionskoeffizienten für
den senkrechten Einfall der Schallwelle auf die Grenzschicht zusammengestellt.

Grenzschicht: flächenhafter Raumbereich zwischen zwei Medien mit Unterschieden in den für die
Wellenausbreitung (Brechung, Reflexion, Streuung) relevanten Materialparametern (Wellenwider-
stand, Ausbreitungsgeschwindigkeit).

An Grenzschichten zwischen biologischem Gewebe und gasförmigen Medien (z. B.


Luft) betragen die Reflexionskoeffizienten fast 100 %. Aus diesem Grunde und we-
gen der großen Dämpfung des Ultraschalls in Gasen bei den üblichen diagnostischen
Frequenzen sind luft- oder gasgefüllte Bereiche im menschlichen Körper diagnostisch
nicht erfassbar. Gleiches gilt für Gewebe hinter gasgefüllten Zonen wegen der totalen
akustischen Abschattung dieser Bereiche.
Transmission: Die Schallwelle wird aufgrund geringer Impedanzunterschiede
im biologischen Gewebe meist nicht vollständig reflektiert. Neben der reflektierten
Welle in Medium 1 existiert eine transmittierte Welle in Medium 2, deren Ausbrei-
tungsrichtung durch Brechung (Refraktion) an der Grenzfläche verändert wird. Der
Transmissionswinkel 𝜃t kann in strahlengeometrischer Näherung nach dem Snelli-
us-Brechungsgesetz in Abhängigkeit der Schallgeschwindigkeiten c1 und c2 in den Me-
232 | Helmut Ermert, Christian Hansen

dien berechnet werden (vgl. 󳶳Abb. 8.2):

sin 𝜃t sin 𝜃e
= (8.21)
c2 c1

Analog zum Reflexionskoeffizienten kann ein Transmissionskoeffizient Kt defi-


niert werden, der die Schallintensität der transmittierten Welle Jt ins Verhältnis
zur Schallintensität Je setzt [Millner 1987]. Es gilt mit Kr + Kt = 1:

Jt 4 ⋅ Z1 ⋅ Z2 ⋅ cos 𝜃e ⋅ cos 𝜃t
Kt = = (8.22)
Je (Z2 ⋅ cos 𝜃e + Z1 ⋅ cos 𝜃t )2

Die Richtungsänderung einer transmittierten Welle infolge der Brechung gemäß Glei-
chung 󳶳Gl. (8.21) ist bei weichem Gewebe wegen der Ähnlichkeit der Schallgeschwin-
digkeitswerte gering. Zum Beispiel ist bei der Transmission durch eine Grenzschicht
zwischen Fettgewebe und Muskelgewebe und bei einem Einfallswinkel von 20° (im
Fett) der Austrittswinkel der gebrochenen Welle (im Muskel) ca. 22,2°. Wegen des ge-
ringen Unterschiedes wird in den diagnostischen Ultraschallgeräten der Effekt der
Brechung vernachlässigt.
Beugung: Bei der Ausbreitung und der Interaktion mit Objekten kommt es zusätz-
lich zur Reflexion und zur Brechung zu einer Beugung (Diffraktion) der Schallwellen.
Das entstehende Wellenfeld ergibt sich gemäß dem Huygens-Prinzip. Die Beugungs-
gesetze stellen auch eine wichtige Grundlage zur Berechnung der Schallwellenfelder
dar, die von Ultraschallwandlern ausgehen.

Apertur: Begriff aus der Antennentheorie, der die Geometrie (Länge oder Fläche) eines Sende- oder
Empfangssystems (einzelne Antenne, Gruppenantenne) beschreibt.

x
→ →
R =Ωr₁ – r₂Ω Feldpunkt
dS
Apertur S

r₂ →
p(r→₁,t)
r₁

z
νn

Abb. 8.3: Anordnung zur Berechnung des von einer ebenen Apertur
ausgehenden Schallwellenfeldes.
8 Ultraschall | 233

Das von zumeist ebenen Wandleroberflächen ausgehende Schallfeld kann in einem


Feldpunkt gemäß 󳶳Abb. 8.3 mittels des Rayleigh-Integrals [Pierce 1989]

(r2⃗ , t − | 1 c 2 | )
𝜕 r ⃗ −r ⃗
𝜌 v
𝜕t n
p(r1 , t) = 0 ∬ 󵄨󵄨 ⃗ 󵄨 dS (8.23)
2𝜋 󵄨󵄨r1 − r2⃗ 󵄨󵄨󵄨
S

berechnet werden. Es wird dabei angenommen, dass die Oberfläche („Apertur“) Be-
standteil einer unendlich ausgedehnten Ebene ist und die Apertur mit nur einer Nor-
malkomponente der Schallschnelle belegt ist, während die Schallschnelle außerhalb
der Apertur auf der gesamten Ebene verschwindet. Für den Fall eines monofrequenten
Wellenfeldes und einer homogenen Belegung der Apertur mit einer Schnelle

vn (z = 0, t) = Re {v̂ n ej𝜔t } (8.24)

lässt sich die Feldverteilung aus

j𝜔𝜌0 e−jkR 󵄨 󵄨
p(r1⃗ ) = v̂n ⋅ ∬ dS mit R = 󵄨󵄨󵄨r1⃗ − r2⃗ 󵄨󵄨󵄨 (8.25)
2𝜋 R
S

und
p(r1⃗ , t) = Re {p(r1⃗ )ej𝜔t } (8.26)
bestimmen.
Streuung: Neben den makroskopisch beschreibbaren Effekten der Reflexion, Bre-
chung und Beugung kommt es zur Streuung des Ultraschalls an Streukörpern, die
kleiner sind als die Wellenlänge der Schallwelle. Aufgrund der mikroskopischen In-
homogenität des biologischen Gewebes tritt diese Rayleigh-Streuung permanent
bei der Schallausbreitung im Weichgewebe auf, so dass sie bei der Abbildung von
Gewebestrukturen hauptsächlich ausgenutzt wird. Ein Maß für die Streuung ist der
Streuquerschnitt 𝜎s , der sich aus der Leistung der gestreuten Welle Ps und der Leis-
tungsdichte der einfallenden Welle Je ergibt:
Ps
𝜎s = (8.27)
Je

Die lokale Reflektivität 𝛾(x, y, z) ergibt sich in Abhängigkeit von den Ortskoordina-
ten (x, y, z) und bei Annahme einer schwachen Inhomogenität der Schallimpedanz
Z(x, y, z) um den Mittelwert Z näherungsweise zu:

Z(x, y, z) − Z
𝛾(x, y, z) = . (8.28)
2⋅Z

Reflektivität: räumlich verteilte Materialeigenschaft, bei Puls-Echo-Verfahren ein Maß für die
durch die Feinstruktur des Materials erzeugten Echopegel (z. B. im biologischen Gewebe).
234 | Helmut Ermert, Christian Hansen

Tab. 8.3: Dämpfungswerte für Wasser und für einige Gewebearten [Szabo 2004].

Dämpfung Wasser Blut Fett Muskel Leber Knochen


dB/(MHz ⋅ cm) 0,00217 0,14 0,6 0,57 0,45 3,54

Dämpfung: Während ihrer Ausbreitung im Gewebe verliert die Ultraschallwelle mit


zunehmender Wegstrecke (Eindringtiefe) an Energie. Neben der sogenannten „Frei-
raumdämpfung“, die eine lokale Energieverminderung aufgrund von Beugungseffek-
ten im Falle eines divergierenden Wellenfeldes in einem homogenen Medium hervor-
ruft, existieren zwei weitere Gründe für diesen Energieverlust: Zum einen führen die
Reflexion und die Streuung im Gewebe zur Minderung der transmittierten Schallener-
gie. Zur Dämpfung trägt dieser Effekt mit einem Anteil von ca. 10. . . 15 % bei. Zum an-
deren kommt es während der Wellenausbreitung zur Absorption (Umwandlung von
Feldenergie, z. B. aus Wellenfeldern, in Wärme in einem Medium) von Schallenergie
aufgrund von Viskositäts- und Relaxationsverlusten im Medium und zur Wärmeent-
wicklung.

Dämpfung: Reduktion der Amplitude bzw. der Leistung einer Welle infolge Absorption, Reflexio-
nen, Streuung und/oder Beugung im Übertragungsmedium; definiert als Verhältnis zweier (elek-
trischer, optischer, akustischer o. a.) Leistungs- (oder Amplituden-)werte, oder der 10-fache (Leis-
tung) bzw. 20-fache (Amplitude) dekadische Logarithmus dieses Verhältnisses mit der Einheit De-
zibel (dB).

Die Stärke dieser Gewebedämpfung wird durch die Materialeigenschaften des Gewe-
bes bestimmt. Es ergibt sich für die Leistungsdichte über der Tiefe z:

J(z) = J(0) ⋅ e−𝛼(f )⋅z (8.29)

wobei 𝛼 der Absorptionskoeffizient ist, für den in Abhängigkeit von der Frequenz f
gemäß empirischer Untersuchungen [Angelsen 2000, Duck 1990] gilt:

𝛼(f ) ∼ f q mit 1 ≤ q ≤ 2 (8.30)

Die Dämpfung der Schallwellen nimmt im menschlichen Gewebe also mit zunehmen-
der Tiefe und höheren Frequenzen zu. Sie liegt bei linearer Näherung von 󳶳Gl. (8.30)
typischerweise im Bereich von ca. 0,5 dB/(cm·MHz). In 󳶳Tab. 8.3 sind die Dämpfungs-
werte für Wasser und einige Gewebearten zusammengestellt.

8.3.2 Nichtlineare Effekte

Nichtlineare Effekte treten bei der Schallwellenausbreitung in vielfältiger Weise auf.


Im Gewebe kann es in Abhängigkeit von der Schallamplitude zu Strahlungsdrücken
8 Ultraschall | 235

(Langevinscher und Rayleighscher Strahlungsdruck), zu Gleichströmungen (Quarz-


wind), zur Kavitation oder zur Ausbildung von Stoßwellen kommen [Meyer, Neu-
mann 1979].

Stoßwellen: pulsförmige akustische Wellen höherer Amplitude, die durch die nichtlinearen Eigen-
schaften des biologischen Gewebes bei der Ausbreitung ihre Form verändern und wegen der Aus-
bildung steiler Pulsflanken zur Steinzertrümmerung genutzt werden können.

Akustischer Strahlungsdruck: Durch die nichtlineare Wirkung eines Mediums erzeugter Gleichan-
teil des Schalldruckes in einem akustischen Wellenfeld.

Während über die Begrenzung der Sendeleistung von Ultraschallgeräten Gewe-


beschädigungen vermieden werden, kommt es dennoch zur nichtlinearen Verzerrung
der Schallwellen während ihrer Ausbreitung im Gewebe. Zwei Effekte führen zu sol-
chen Verzerrungen:
Bewegung des Mediums: Aufgrund der ultraschallinduzierten Bewegung der
Teilchen im Medium variiert die Schallgeschwindigkeit c lokal mit der dort auftre-
tenden Schallschnelle um einen konstanten Wert c0 . Für z. B. eine ebene Welle nach
󳶳Gl. (8.10) und 󳶳Gl. (8.11) gilt in der Ebene z = 0 die Beziehung:

c(t, z = 0) = c0 + v̂ cos(𝜔t) . (8.31)

Nichtlinearität des Mediums: Die in der Zustandsgleichung Gl. 󳶳Gl. (8.3) beschrie-
bene Abhängigkeit des Drucks p von der Dichte 𝜌 ist nichtlinear [Hamilton 1997, Meyer
u. Neumann 1979]. Entwickelt man den Druck p (𝜌) in einer Taylor-Reihe um einen
Arbeitspunkt 𝜌0 und bei einem stationären Druck p0 , so ergibt sich:

𝜌 − 𝜌0 B 𝜌 − 𝜌0 2
p − p0 = A ⋅ ( )+ ⋅( ) + ... (8.32)
𝜌0 2! 𝜌0
Unter Vernachlässigung von Anteilen höherer Ordnung wird über das Verhältnis aus
dem Faktor B des quadratischen Anteils zum Faktor A des linearen Anteils die Nichtli-
nearität des Mediums charakterisiert. Der Quotient B/A wird als Nichtlinearitätspa-
rameter bezeichnet. Es ist
B 𝜕c
= 2 ⋅ 𝜌0 ⋅ c0 ( ) (8.33)
A 𝜕p 𝜌=𝜌0

Typische Werte von B/A liegen bei menschlichem Gewebe im Bereich zwischen 5
und 10. Die Schallgeschwindigkeit c wird durch diese Nichtlinearität lokal erhöht. Es
gilt [Hamilton 1997, Meyer u. Neumann 1979]:
B
c(t) = c0 + ⋅ v̂ cos(𝜔t) . (8.34)
2A
In Kombination führen beide Effekte dazu, dass die Schallgeschwindigkeit asymme-
trisch und amplitudenabhängig mit v⃗ variiert und die Form der Wellenfronten verzerrt
236 | Helmut Ermert, Christian Hansen

p(t) p(t–τ)

Zeitbereich
t t

Ausbreitung
ΩP( ƒ )Ω ΩP( ƒ )Ω
Energie
Frequenzbereich

ƒ₀ 2ƒ₀ ƒ ƒ₀ 2ƒ₀ ƒ

Abb. 8.4: Veranschaulichung der nichtlinearen Wirkung eines Übertragungsmediums.

wird:
B
) ⋅ v̂ cos(𝜔t)
c = c0 + (1 + (8.35)
2A
In 󳶳Abb. 8.4 ist veranschaulicht dargestellt, wie der zeitliche Verlauf einer Wellengrö-
ße (z. B. des Druckes p(t)) mit der Frequenz f0 während der Ausbreitung (z. B. nach
einem Laufweg z = c0 ⋅ 𝜏) verzerrt und Signalenergie vom Spektralbereich um die
Frequenz f0 in den Bereich der ersten Harmonischen 2f0 übergekoppelt wird.

8.4 Ultraschallwandler
8.4.1 Der piezoelektrische Effekt

Der piezoelektrische Effekt tritt in einer Reihe kristalliner und teilkristalliner Medien
auf. In seiner direkten Form besteht dieser Effekt darin, dass sich an den gegenüber-
liegenden, z. B. planparallelen Außenflächen von z. B. zylindrischen Körpern, die aus
piezoelektrischen, elektrisch nichtleitenden Materialien bestehen, elektrische Ladun-
gen bilden können. Diese Ladungen treten auf, wenn auf diese Körper eine mecha-
nische Spannung, die mit einer Deformation verbunden ist, senkrecht zu den Stirn-
flächen einwirkt. Der reziproke piezoelektrische Effekt bewirkt das Auftreten einer
mechanischen Spannung und einer Dehnung als Folge einer Einwirkung einer elek-
trischen Spannung. In den Wandlern, die für die diagnostische Anwendung von Ul-
traschall genutzt werden, finden heute überwiegend piezoelektrische Materialien An-
wendung.

Piezoelektrischer Effekt: in piezoelektrischen Materialien auftretender Effekt, der eine Umwand-


lung von akustischer in elektrische Energie („direkter“ Effekt) und umgekehrt („reziproker“ Effekt)
bewirkt.
8 Ultraschall | 237

I = A⋅∂D
∂t

T⋅A
A
S⋅h

U = E⋅h
h E D

Abb. 8.5: Kreiszylindrischer Körper der Höhe h und der Fläche A als piezoelektrisches Element.

An einem kreiszylindrischen piezoelektrischen Element gemäß 󳶳Abb. 8.5 soll der


piezoelektrische Effekt erläutert werden. Es soll angenommen werden, dass es sich
bei diesem Element um eine sehr flache Scheibe handelt, bei der alle mechanischen
und elektrischen Vorgänge parallel zueinander und nur in Richtung der Zylinderach-
se orientiert sind. Alle in radialer oder azimuthaler Richtung orientierten Komponen-
ten sollen vernachlässigt werden. Außerdem sei das piezoelektrische Material des
Elementes so polarisiert, dass der piezoelektrische Effekt nur in Richtung der Zylin-
derachse wirksam ist.
Wird zunächst angenommen, dass das Material nicht piezoelektrisch ist, agiert
das Element elektrisch als Plattenkondensator und unabhängig davon mechanisch
als elastischer Körper, wobei das Verhalten durch die Beziehungen

D = 𝜀E (8.36)

und
S = sT (8.37)
beschrieben wird. Darin ist die Beziehung zwischen der dielektrischen Verschie-
bungsdichte D und der elektrischen Feldstärke E durch die Dielektrizitätskonstante 𝜀
und die Beziehung zwischen der Deformation (englisch: strain) S und der mechani-
schen Spannung (englisch: stress) T durch die Elastizitätskonstante s gegeben.
Bei piezoelektrischen Materialien sind diese Gleichungen nicht mehr voneinan-
der entkoppelt, es entsteht ein System zweier verkoppelter Gleichungen

D = 𝜀T E + d ⋅ T
S = d ⋅ E + sE T , (8.38)

in denen die Größe d die Verkopplung von elektrischer und mechanischer Energie
repräsentiert und „piezoelektrische Ladungskonstante“ genannt wird. Darin ist 𝜀T
die Dielektrizitätskonstante bei konstanter mechanischer Spannung T und sE die Elas-
tizitätskonstante bei konstanter elektrischer Feldstärke E. In anderer Darstellung lau-
238 | Helmut Ermert, Christian Hansen

ten die Beziehungen:

S = +sD T + g ⋅ D
1
E = −g ⋅ T + T D . (8.39)
𝜀
Hier wird g die „piezoelektrische Druckkonstante“ genannt. sD ist die Elastizitäts-
konstante bei konstanter dielektrischer Verschiebungsdichte D und 𝜀T die Dielektrizi-
tätskonstante bei konstanter mechanischer Spannung T. Zwischen Ladungskonstante
und Druckkonstante besteht ein Zusammenhang gemäß

d sE
= 𝜀T √ D , (8.40)
g s
wobei diese Größen wegen ihrer für die Praxis relevanten Wirkung auch wie folgt in-
terpretiert werden können:
erzeugte Deformation 󵄨󵄨󵄨󵄨
d= 󵄨 ⇒ Sendekonstante
angelegtes elektrisches Feld 󵄨󵄨󵄨mech. Leerlauf
erzeugtes elektrisches Feld 󵄨󵄨󵄨󵄨
g= 󵄨󵄨 ⇒ Empfangskonstante
angelegten Druck 󵄨󵄨el. Leerlauf

Die gesamte Energiewandlung wird durch einen Koppelfaktor k beschrieben, der von
beiden Faktoren d und g abhängig ist:

d2 g2
k2 = = (8.41)
sE 𝜀T sD
𝜀
T

Als Beispiele piezoelektrischer Materialien sind Einkristalle (z. B. Quarz), aufge-


dampfte oder gesputterte dünne Schichten (z. B. CdS oder ZnO), keramische Mate-
rialien (z. B. PZT: Blei-Zirkonat-Titanat) sowie Polymere in Form von Folien (z. B.
PVDF: Polyvinylidendifluorid) zu nennen. Außerdem gibt es Zusammensetzungen
(Mischungen, Schichtungen) aus piezoelektrischem Keramikmaterial und dielektri-
schem Füllmaterial, um die akustischen Eigenschaften besser an die anzukoppelnden
Medien anzupassen (composite transducer). Für die Wandler beim diagnostischen Ul-
traschall wird überwiegend das Material PZT verwendet. Bei höheren Frequenzen
wird auch vom Material PVDF Gebrauch gemacht. In 󳶳Tab. 8.4 werden die wichtigs-
ten Kenngrößen von PZT und PVDF anhand typischer Werte miteinander verglichen.

Piezomaterial: einkristallines, polykristallines (z. B. keramisches) oder kunststoffartiges Material


mit piezoelektischen Eigenschaften.

Es ist erkennbar, dass PZT die besseren Sendeeigenschaften und PVDF die besseren
Empfangseigenschaften besitzt. PVDF ist zwar wegen seiner kleineren akustischen
Impedanz besser an eine fluide Umgebung angepasst, PZT besitzt aber einen größeren
Koppelfaktor k und ist außerdem verlustärmer als PVDF.
8 Ultraschall | 239

Tab. 8.4: Zum Vergleich: Kenngrößen von PZT und PVDF.

g d k 𝜖r c0 Z0
10−3 V ⋅ m/N 10−12 C/N % m/s 106 kg/(m2 ⋅ s)
PZT 10 110 30 1 200 4 350 30
PVDF 216 23 12 12 2 250 2,7

Polyvinylidenfluorid (PVDF): für die Verwendung in Schallwandlern geeigneter Kunststoff mit pie-
zoelektrischen Eigenschaften.

Blei-Zirkonat-Titanat (PZT): für die Verwendung in Schallwandlern geeignetes Keramikmaterial


mit piezoelektrischen Eigenschaften.

8.4.2 Wandler: Aufbau und Funktion

Wandlerformen und Eigenfrequenzen


Bei den für die medizinische Ultraschalldiagnostik bestimmten Wandlern werden so-
genannte Dickenschwinger verwendet, die in ihrer Wirkungsweise dem Konzept in
󳶳Abb. 8.5 entsprechen und bei denen der piezoelektrische Effekt durch Dickenschwin-
gungen begleitet wird. In den Betriebszuständen, bei denen die Schwinger in mecha-
nischer Resonanz sind, lässt sich der piezoelektrische Effekt besonders effizient nut-
zen.
In 󳶳Abb. 8.6 sind die Verläufe von Druck (durchgehende Linien) und Schnelle
(gestrichelte Linien) dargestellt, wie sie in einer piezoelektrischen Scheibe gemäß
󳶳Abb. 8.5 im Fall von Dickenschwingungen auftreten. Der Zylinderachse des Ele-
ments in 󳶳Abb. 8.5 sei dazu die z-Achse in 󳶳Abb. 8.6 zugeordnet. Es wird angenom-
men, dass das Element von einem unendlich dünnen Medium umgeben ist. Dann
fordern die Randbedingungen für akustische Wellenfelder an den Stirnflächen des
Elements Nullstellen für den Schalldruck, weil sich dort kein Druck aufbauen kann.
Demgegenüber nimmt der Verlauf der Schallschnelle an den Stirnflächen Maxima
ein. Es entsteht im Resonanzfall eine stehende akustische Welle im Piezoelement,
die bei einer flachen Scheibe näherungsweise als homogen und eben angenommen

Ωp(z,t = t₀)Ω
Ωνz(z,t = t₀ + Tn/4)Ω

h Druck p
Schnelle νz

z z Abb. 8.6: Resonanzzustände eines Dicken-


n=1 n=3 schwingers.
240 | Helmut Ermert, Christian Hansen

werden kann. Aus den Ansätzen für den Druck und die Schnelle gemäß 󳶳Gl. (8.10)
und 󳶳Gl. (8.11) ergeben sich nach Überlagerung zweier gegenläufiger Wellen gleicher
Amplitude für die Einhüllenden die Ausdrücke
󵄨󵄨 󵄨 󵄨 󵄨
󵄨󵄨p(z, t = t0 )󵄨󵄨󵄨 = 󵄨󵄨󵄨2p̂ ⋅ sin(kn z)󵄨󵄨󵄨 (8.42)

und
󵄨󵄨 󵄨 󵄨 󵄨
󵄨󵄨vz (z, t = t0 + Tn /4)󵄨󵄨󵄨 = 󵄨󵄨󵄨2v̂z cos(kn z)󵄨󵄨󵄨 , (8.43)

wobei t0 einen der Zeitpunkte beschreibt, zu denen der Schalldruck seine maximale
Amplitude annimmt. Die Schnelle erreicht ihre maximale Amplitude um ein Viertel
der Schwingungsdauer Tn später. Dickenschwingungen treten nur dann auf, wenn
die Schallschnellen an den Stirnflächen des Schwingers entgegengesetztes Vorzei-
chen haben. Das ist dann der Fall, wenn die Schwingerdicke einem ungeradzahligen
Vielfachen der halben Schallwellenlänge im Schwingermaterial entspricht. Bei gerad-
zahligen Vielfachen ändert sich die Dicke des Schwingers nicht, es existiert keine Di-
ckenschwingung. Die Resonanzfrequenzen und die entsprechenden Periodendauern
lassen sich aus
𝜔 1 c
fn = n = = n ⋅ PZT mit n = 1, 3, 5, . . . . (8.44)
2𝜋 Tn 2⋅h
berechnen, wobei cPZT die Schallgeschwindigkeit des piezoelektrischen Materials für
die Ausbreitung in z-Richtung ist. Dickenschwinger führen auch parasitäre Radial-
schwingungen aus. Im Falle flacher Scheiben mit einem Radius gemäß

a = √A/𝜋 ≫ h (8.45)

liegen diese in einem anderen Frequenzbereich und sollen hier außer Acht gelassen
werden.
Neben den Dickenschwingern gibt es auch andere Schwingerformen wie z. B.
Längsschwinger, Ringschwinger, Rohrschwinger, Radialschwinger [Lerch et al. 2009],
die teilweise dadurch gekennzeichnet sind, dass die elektrischen und die mechani-
schen Feldgrößen senkrecht zueinander orientiert sind.

Elektrische Eingangsimpedanz
An den elektrischen Anschlussklemmen eines Wandlerelements stellt sich dieses als
2-Pol-Netzwerk dar, dessen Bauelemente das elektrische und das mechanische Ver-
halten beschreiben und das in 󳶳Abb. 8.7 dargestellt ist. Das piezoelektrische Element
mit den Metallisierungen auf seinen Stirnflächen wirkt zunächst als Plattenkonden-
sator
C0 = 𝜀A/h , (8.46)

dessen Eigenschaften durch die Geometrie und die dielektrischen Eigenschaften des
Wandlermaterials beschrieben werden. Die Wandlerfunktion bei k > 0 kann durch
8 Ultraschall | 241

Lm
Cm RV
Y C₀ Rm
RS Abb. 8.7: Elektrisches Ersatzschaltbild, das die
Eingangsadmittanz eines Wandlers beschreibt.

Im Y

ωM

ωA ωR
Re Y

Abb. 8.8: Ortskurve der Eingangsadmittanz Y


eines Schallwandlerelements.

zusätzliche elektrische Bauelemente berücksichtigt werden, die das mechanische Ver-


halten des Wandlers repräsentieren.
Die Reaktanzen

k2 1
Cm = C0 und Lm = (8.47)
(1 − k 2 ) (𝜔12 Cm )

bestimmen die Resonanzfrequenz 𝜔1 des Reihenschwingkreises Lm /Cm in 󳶳Abb. 8.7


und speichern die mechanische Energie der Schwingung. Der Verlustwiderstand
1
RV = (8.48)
(𝜔1 Cm Q)

nimmt die Leistung auf, die im Wandler absorbiert wird und sich aus einem Gütefaktor
𝜔1
Q= (8.49)
𝛥𝜔3 dB

mittels der 3dB-Bandbreite bestimmen lässt. Der „Strahlungswiderstand“ RS reprä-


sentiert die Verlustanteile, die durch die Abstrahlung entstehen. An der Ortskurve der
Eingangsadmittanz in 󳶳Abb. 8.8, die das Verhalten des Wandlerelementes in der Um-
gebung der Resonanz beschreibt, lässt sich erkennen, dass die Admittanz bei den Fre-
quenzen 𝜔R („Resonanz“) und 𝜔A („Antiresonanz“) rein reelle Werte annimmt.
242 | Helmut Ermert, Christian Hansen

Sende- und Empfangsverhalten

Δƒ
dPZT dAS Abstrahlung
ƒ₀ ƒ
λPZT cPZT
dPZT = =
2 2ƒ₀

Anpassungsschicht (ZAS, cAS)


Metallisierung (Kontakt)
Piezokeramik (ZPZT, cPZT)
Absorbermaterial („Backing”, ZB)

Abb. 8.9: Schematische Darstellung des Aufbaus eines Schallwandlers.

Bei der Frequenz 𝜔M wird in der Nähe der Resonanzfrequenz der Betrag der Admit-
tanz maximal. Die Schaltungsumgebung des Wandlers muss so ausgelegt sein, dass
dieser im Bereich der Resonanzfrequenz optimal an Sender und Empfänger angepasst
ist.
Es gibt auch Ersatzschaltbilder für Ultraschallwandler, die als 3-Tor-Netzwerke
sowohl die elektrische als auch die beiden akustischen Seiten der Wandler mit einbe-
ziehen. Dazu sei hier auf die Literatur [Szabo 2004] verwiesen.

Schallwandler, Transducer: Bauelement zur bidirektionalen elektroakustischen Wandlung von


Signalen, vorwiegend durch Nutzung des direkten und des reziproken piezoelektrischen Effektes.

In einem Ultraschallwandler ist das piezoelektrische Element beidseitig in eine


Schichtstruktur eingebettet. Die Stirnflächen sind metallisiert und mit Kontakten für
den elektrischen Anschluss versehen. Zur Sendeseite hin folgt wegen des großen
Unterschiedes zwischen der akustischen Impedanz des Wandlermaterials und den
Impedanzen der Umgebung (biologisches Gewebe) eine Anpassungsschicht, deren
Dicke gleich einem Viertel der Wellenlänge in dieser Schicht und deren Schallim-
pedanz gleich dem geometrischen Mittel aus den benachbarten Schallimpedanzen
(Wandlermaterial/Gewebe) ist. Das Konzept der Anpassung zwischen verschiedenen
Medien über 𝜆/4 dicke Schichten ist u. a. aus der Optik bekannt.
In 󳶳Abb. 8.9 ist das Innere eines kreiszylindrischen Wandlers schematisch dar-
gestellt. Nicht dargestellt ist ein zylindrisches Gehäuse, in das die Wandlerstruktur
eingebettet ist und innerhalb dessen die Kontaktierung nach außen zu einem Koaxi-
alstecker geführt wird. Die piezolektrische Scheibe fungiert als Dickenschwinger in
8 Ultraschall | 243

der niedrigsten Schwingungsordnung (n = 1). Es ist

𝜆 PZT
dPZT = . (8.50)
2
Die Rückseite des piezoelektrischen Elementes ist an ein Absorbermaterial („Backing“)
angekoppelt, in dem der nach hinten abgestrahlte Schallanteil gedämpft wird. Die
Schallimpedanz ZB soll ungefähr der Schallimpedanz des Schallwandlermateri-
als ZPZT entsprechen, um eine gute Ankopplung zu gewährleisten.

Backing (dt. Hinterfüllung): dämpfendes, an der nicht benutzten Rückseite eines piezoelektri-
schen Schallwandlerelements angekoppeltes Material.

Eine perfekte Anpassung lässt sich nicht realisieren; die beiden Impedanzen können
prinzipiell nicht gleich sein, weil das Wandlermaterial verlustarm und das Backing-
Material stark verlustbehaftet ist. Die Ausdehnung der Backing-Schicht nach hinten
ist so zu bemessen, dass Echos von ihrer Rückseite den Wandler nur noch stark ge-
dämpft erreichen können oder total abgeklungen sind. Die Bedämpfung auf der Rück-
seite des Wandlers beeinflusst das Resonanzverhalten in der Weise, dass es die Band-
breite Δf gegenüber dem Fall einer akustisch leerlaufenden Rückseite vergrößert. Die
größere Bandbreite beim Sende- und Empfangsverhalten des Wandlers erlaubt den
Betrieb mit kürzeren Impulssignalen, was für eine gute axiale Auflösung in der Echo-
sonographie vorteilhaft ist, auch wenn gleichzeitig die Empfindlichkeit reduziert wird.
Die Anpassungsschicht wird gemäß
𝜆 AS cAS
dAS = = , ZAS = √ZPZT ZF (8.51)
4 4f0

dimensioniert, wobei ZF die Schallimpedanz der fluiden Umgebung ist. Diese Anpas-
sung wirkt nur bei der Mittenfrequenz f0 und ist schmalbandig, was die angestrebte
Breitbandigkeit des Wandlers ein wenig beeinträchtigt. Eine Abhilfe kann hier durch
die Beschichtung mit mehr als einer Anpassungsschicht geschaffen werden.
Das von einem Wandler abgestrahlte Wellenfeld kann auf unterschiedliche Wei-
se ermittelt werden. Für ebene Wandler mit kreisförmiger oder rechteckförmiger Ober-
fläche gibt es analytische Lösungen mit begrenzter Genauigkeit [Stenzel und Brosze
1958]. Aus diesen Lösungen können einige Parameter abgeleitet werden, welche die
Konturen des Schallfeldes gemäß 󳶳Abb. 8.10 beschreiben.
In unmittelbarer Nähe zur Oberfläche eines kreisförmigen Wandlers mit dem
Durchmesser D wird ein Wellenfeld aufgebaut, das innerhalb eines Kreiszylinders
etwa gleichen Durchmessers D und der Länge

D2 D2
zF = = f (8.52)
4𝜆 4c
244 | Helmut Ermert, Christian Hansen

zF
α
D
α z

Nahfeldbereich Fernfeldbereich

Abb. 8.10: Vereinfachte Darstellung der Form des von einem ebenen Wandler abgestrahlten Wellen-
feldes.

Abb. 8.11: Monofrequentes Wellenfeld eines kreisförmigen Wandlers mit ebener Oberfläche (Durch-
messer 12 mm, Frequenz 2 MHz) im Bereich z < zF .

verteilt ist. Dieser Abstand stellt den Übergang vom sogenannten Nahfeld zum Fern-
feld dar, in dem die Ultraschallwelle mit einem Divergenzwinkel

𝜆
sin 𝛼 = 1,2 ⋅ (8.53)
D
divergiert und bei großen Entfernungen z den Charakter einer Kugelwelle annimmt.
Eine experimentelle Möglichkeit zur Bestimmung von Ultraschallwellenfeldern
ist die schlierenoptische Darstellung. In 󳶳Abb. 8.11 ist das schlierenoptisch aufge-
nommene monofrequente Wellenfeld dargestellt, das von einem kreisförmigen Wand-
ler (Material PZT) mit einem Durchmesser von 12 mm bei der Frequenz 2 MHz aufge-
nommen wurde [Neumann et al. 2005].
Die Länge des dargestellten Wellenfeldes beträgt ca. 25 mm und ist wesentlich
kleiner als die Fernfeldgrenze (zf = 46 mm). Durch Fokussierungsmaßnahmen, die
bei Einzelwandlern akustisch durch sphärisch gekrümmte Wandlerscheiben oder mit-
tels einer Linse und bei Arrays elektronisch durch die Ansteuerung der Arrayelemente
getroffen werden können, kann die Strecke zF verändert, z. B. verkürzt, werden. Eine
typische Kontur des resultierenden Schallstrahls ist in 󳶳Abb. 8.12 dargestellt.
Eine entsprechende schlierenoptische Aufnahme ist in 󳶳Abb. 8.13 zu finden.
8 Ultraschall | 245

zF

D
z

Abb. 8.12: Vereinfachte Darstellung der Form des von einem fokussierenden Wandler abgestrahlten
Wellenfeldes.

(a) (b)

Abb. 8.13: Schlierenoptisch aufgenommene Wellenfelder eines fokussierenden Wandlers (Durch-


messer 12 mm, Mittenfrequenz f0 = 2 MHz, Bandbreite f = 0,8 MHz), (a) CW-Betrieb, (b) Pulsbetrieb
mit zu verschiedenen Verzögerungszeiten aufgenommenen „Momentaufnahmen“ der zwei Perioden
langen Pulse.

elektr. Abschirmung

Masseleitung Dämpfungskörper λ/4-Anpassung

z
x
Koaxial-Kabel y

Signalleitung Gehäuse Piezoelement akustische Linse

Abb. 8.14: Ultraschallgruppenwandler („Array“) für den Einsatz in der bildgebenden Echosonogra-
phie.

Für die diagnostische Bildgebung werden Ultraschallgruppenwandler („Ar-


rays“) verwendet, die aus nebeneinander liegenden streifenförmigen Einzelelemen-
ten bestehen und nach dem in 󳶳Abb. 8.9 beschriebenen Konzept aufgebaut sind. In
󳶳Abb. 8.14 ist der Aufbau eines solchen Gruppenwandlers dargestellt.

Array (dt. Reihe, Anordnung): in der Radar- und Ultraschalltechnik eine aus einzelnen Antennen-
elementen bestehende Gruppenantenne.

In 󳶳Abb. 8.15 sind zwei Ultraschallarrays mit unterschiedlicher Feinteilung bei der
Aufgliederung in Einzelelemente ohne Anpassungsschicht dargestellt.
246 | Helmut Ermert, Christian Hansen

Abb. 8.15: Darstellung zweier unbeschichteter Arrays mit unterschiedlicher Feinteilung.

Zusätzlich zu der Anpassungsschicht ist das Array noch mit einer akustischen Zy-
linderlinse versehen, mit der eine Fokussierung des Schallfeldes in elevationaler Rich-
tung (y) erreicht werden kann und die Wellenfelder auf eine endliche Schichtdicke in
y-Richtung konzentriert werden. In 󳶳Abb. 8.16 ist eine solche Anordnung dargestellt.

Linear Array (dt. lineare Reihe): eindimensionale Antennengruppe, bei der die Gruppenelemente
entlang einer Linie angeordnet sind.

Elevation: bei Schnittbildverfahren die Richtung senkrecht zur Schnittbildebene.

Im Bildgebungsbetrieb sind jeweils Gruppen nebeneinander liegender Wandlerele-


mente aktiv. Eine solche Untergruppe bildet im dargestellten Beispiel eine rechteck-
förmige Aperturfläche, die bei Parallelschaltung, d. h. Phasengleichheit aller Grup-
penelemente, ungefähr ein akustisches Wellenfeld aufbaut, wie ein rechteckförmiger
Wandler mit gleicher Oberfläche. Eine Ansteuerung der Elemente einer solchen Grup-
pe mit Zeitverschiebungen zwischen den Pulssendezeiten der einzelnen Elemente er-
laubt eine gezielte laterale Fokussierung in verschiedenen Tiefen (siehe 󳶳Abb. 8.30
und 󳶳Abb. 8.31).
Das CW-(continuous wave) Ultraschall-Wellenfeld einer rechteckigen Wandlera-
pertur mit Abmessungen, wie sie einer in einem Linear-Array eines Ultraschallgerätes
gleichzeitig aktivierten und gleichphasig angesteuerten Wandlergruppe entsprechen,
8 Ultraschall | 247

piezoelektrisches
Schallwandlerelement

aktive Untergruppe

laterale
F₁ Fokus-
sierung
F₂
zylindrische
Fokussierungslinse
F₃

elevationale x
Fokussierung y

laterale Scan-Richtung

Abb. 8.16: Lineares Wandler-Array.

elevationale Auflösung laterale Auflösung

Δy

Δx

Apertur

Abb. 8.17: Apertur einer Wandlergruppe eines Linear-Arrays.

wurde für eine Sendefrequenz von fo = 8,5 MHz in [Hiltawsky 2005] gemäß 󳶳Gl. (8.25)
berechnet. Die Aperturlänge in lateraler Richtung betrug Δx = 14,08 mm, die Apertur-
breite in elevationaler Richtung Δy = 2,50 mm. Die Geometrie der Anordnung ist in
󳶳Abb. 8.17 dargestellt.
248 | Helmut Ermert, Christian Hansen

Einhüllende der Schalldruckamplitude in dB


–10
90
y in mm
0 80

70
10
0 10 20 30 40 50 60
z in mm

Abb. 8.18: Schallfeld einer Array-Element-Gruppe in der Ebene x = 0.

Einhüllende der Schalldruckamplitude in dB


–10
90
x in mm

0 80

70
10
0 10 20 30 40 50 60
z in mm

Abb. 8.19: Schallfeld einer Array-Element-Gruppe in der Ebene y = 0.

Die Schallfeldverteilung in elevationaler Richtung ist in 󳶳 Abb. 8.18 dargestellt. Sie


ist mit der Verteilung in 󳶳Abb. 8.10 vergleichbar und gibt die divergierende Schicht-
dicke des Wellenfeldes wieder. Die Schichtdicke wird bei einem realen Schallwand-
lerarray durch die zylindrische Linse gemäß 󳶳Abb. 8.16 optimiert.
In 󳶳Abb. 8.19 ist die laterale Feldverteilung in der Ebene y = 0 dargestellt. Sie ist
mit der Feldverteilung des Wandlers in 󳶳Abb. 8.11 vergleichbar. Es zeigt sich, dass ei-
ne Feldverteilung, wie sie von einer gleichphasig betriebenen Wandlergruppe erzeugt
wird, in lateraler Richtung kaum fokussiert ist.
Hier bedarf es bei der Bildgebung zusätzlicher Fokussierungsmaßnahmen
(„Beamforming“), die in 󳶳Kapitel 8.5 beschrieben werden. Zur weiteren Veranschau-
lichung des Gesamtfeldes sind in 󳶳Abb. 8.20 die berechneten Feldverteilungen in
zueinander senkrechten Längsschnitten dargestellt.
Für medizinische Anwendungen gibt es eine große Vielfalt verschiedener Ausfüh-
rungen von Ultraschallwandlern. Einige Beispiele werden in 󳶳Abb. 8.21 gezeigt.
Alle Wandler werden bei ihrer Anwendung in den meisten Fällen durch eine
direkte Berührung mit der Haut an das zu untersuchende Gebiet angekoppelt. We-
gen der großen Reflexionsfaktoren der Grenzschichten Wandlermaterial/Luft und
Luft/biologisches Gewebe sind selbst dünnste Luftschichten zwischen Wandler und
Haut zu vermeiden. Die Ankopplung erfolgt deshalb mittels geeigneter Ankopp-
lungsmedien („Ultraschallgel“). Es gibt auch Wandler, die so gestaltet sind, dass
8 Ultraschall | 249

Einhüllende der Schalldruckamplitude in dB


100

90

10
80
x in mm

60
0
40
70
m
–10 20 z in m
5
yi
n m 0–5 0
m

Abb. 8.20: Schallfeld einer Array-Element-Gruppe (ohne Beamforming) in den Ebenen x = 0 und
y = 0.

Abb. 8.21: Einige Ultraschallwandler:


Oben: lineares Standardarray (links), Curved-Array (Mitte), Matrix-Array (rechts)
Unten: Rektalsonde für z. B. transrektale Prostatasonographie (links), intravaskulärer Wand-
ler für Katheteruntersuchungen in den Herzkranzgefäßen (Mitte), Hochfrequenz-Wandler für die
Dermatologie (rechts).

der Ultraschall über eine sogenannte „Wasservorlaufstrecke“ in das Gewebe einge-


koppelt wird (z. B. 󳶳Abb. 8.21 unten rechts).

Betriebsarten für piezoelektrische Wandler


Wegen des reziproken piezoelektrischen Effektes sind die piezoelektrischen Wandler
als Sender und/oder Empfänger einsetzbar. Hauptsächlich wird in der Ultraschall-
diagnostik das Prinzip der Puls-Echo-Sonographie genutzt. Da hier Sende- und
250 | Helmut Ermert, Christian Hansen

DUX

Puls

Echo

Abb. 8.22: Sende-Empfangs-Konzept der Puls-Echo-Sonographie (DUX = Duplexer).

Eingang Wandler
1 2
470

4700

3
Ausgang

Abb. 8.23: Einfache Duplexer-Schaltung für die Puls-Echo-Sonographie.

Empfangswandler identisch sind, bedarf es, wie bei einer Radar-Anlage, einer elek-
tronischen Schaltung (Duplexer, „DUX“), die in der Funktion als Signalweiche den
Sendeimpuls (mit hoher Amplitude) an den Wandler leitet und dabei die empfindliche
Empfangselektronik entkoppelt und die das Echosignal (mit kleiner Amplitude) an
die Empfangselektronik leitet und dabei auch den Weg zur Sendeelektronik versperrt
(󳶳Abb. 8.22).
In der Ultraschalltechnik lassen sich solche Duplexer in Form nichtlinearer Schal-
tungen realisieren. Ein typisches, einfaches Netzwerk, das als Sende-Empfangswei-
che arbeitet, ist in 󳶳Abb. 8.23 dargestellt.
Mit zueinander antiparallel geschalteten Diodenpaaren lassen sich das Sperren
und das Öffnen der Sendeseite sowie der Empfangsseite in Abhängigkeit von den auf-
tretenden Signalpegeln erreichen.

Duplexer: Signalweiche zur Trennung von Sende- und Echosignal in einem Puls-Echo-System.

Ein simultanes Senden und Empfangen mit einem einzelnen Wandler bereitet auf
elektronischer Seite wegen des großen Pegelunterschiedes zwischen Sende- und Emp-
fangssignal Schwierigkeiten. Bei monofrequentem Betrieb, wie er zum Beispiel beim
CW-Doppler-Verfahren angewandt wird (s. 󳶳Kap. 8.6), wird aus diesem Grunde mit ge-
trennten Sende- und Empfangswandlern gearbeitet. Diese lassen sich z. B. mit halb-
8 Ultraschall | 251

Abb. 8.24: Wandlerkonzept für CW-Anwendungen (Doppler).

kreisförmigen Aperturen galvanisch getrennt und mechanisch voneinander entkop-


pelt gemäß 󳶳Abb. 8.24 in einem Gehäuse unterbringen.
Im Zielgebiet dieses Wandlers überlappen sich die Sende- und die Empfangscha-
rakteristik, so dass hier das Prinzip der Echosonographie mit kontinuierlichen (z. B.
monofrequenten) Ultraschallsignalen angewandt werden kann.

8.5 Ultraschall-Bildgebung in der Medizin


Grundlage der zweidimensionalen Ultraschallabbildung ist die Abtastung eines Bild-
bereichs durch mehrere benachbarte Schallstrahlen. Bevor auf den zweidimensio-
nalen Bildaufbau eingegangen werden kann, soll zunächst die Aufnahme der Ultra-
schallsignale entlang solcher Linien und deren Formung beschrieben werden.

8.5.1 A-Scan- und TM-Scan-Technik

Puls-Echo-Betrieb
Die medizinische Ultraschallabbildung erfolgt üblicherweise, wie bereits in
󳶳Kap. 8.2.1 erwähnt, im Puls-Echo-Betrieb. Hierbei werden von einem Schallwand-
ler breitbandige Sendepulse in einem begrenzten Raumbereich entlang gebündelter
Schallwellen ausgesandt und die durch Reflexion und Streuung erzeugten Echosigna-
le entlang dieser Linien wieder empfangen. Abgebildet wird somit die Reflektivität
des Gewebes, die aufgrund von Inhomogenitäten in den Verteilungen von Dichte und
Kompressibilität lokal variiert.

A-Scan: eindimensionale echosonographische „Abtastung“ von Objekten; Aufnahme eines Ultra-


schallechos aus einer einzelnen Richtung, z. B. zur Berechnung einer einzelnen Bildlinie aus der
Amplitude des demodulierten hochfrequenten Echos (A = Amplitude).

In 󳶳Abb. 8.25 wird das Konzept erläutert. Das Sendesignal eines fokussierenden Ul-
traschallwandlers, hier in Form des Schalldrucks pS (t), breitet sich in einem streifen-
förmigen Bereich des zu untersuchenden Gewebes aus. Wegen der Reziprozität des
Sende- und Empfangsverhaltens des Wandlers gelangen Echos, die bei der Wechsel-
wirkung des Ultraschallsignals mit dem Gewebe entstehen, als Empfangssignale, hier
in Form einer elektrischen Spannung u(t), an den Wandler zurück. Aus diesem Sig-
252 | Helmut Ermert, Christian Hansen

Ultraschall- biologisches Gewebe = Streuer-Ensemble


wandler

p(t)

u(t)

GTGC(t)

t
Bild-Zeile

GTGC(t): zeitabhängige Verstärkung (TGC: „Time-Gain-Compensation”)

Abb. 8.25: Zur Erläuterung des A-Scans und der Bildung einer grauwertkodierten B-Bild-Zeile.

nal wird eine Einhüllende gewonnen, deren Amplitude zur Grauwertkodierung einer
Bildzeile genutzt werden kann. Die eindimensionale bzw. einzeilige Version dieser
Technik wird mit „A-Scan“ (A = Amplitude) bezeichnet, der Aufbau eines flächenhaf-
ten Schnittbildes, das sich aus parallelen A-Scan-Zeilen zusammensetzt, wird B-Scan
(B = Brightness) genannt.

B-Scan: zweidimensionale echosonographische Abtastung von Objektquerschnitten mittels


räumlich versetzter A-Scans zum Aufbau eines flächenhaften B-Bildes.

In 󳶳Abb. 8.26 sind am Beispiel des Schalldrucks einige Zeitsignale und ihre Betrags-
spektren dargestellt. Die Darstellung lässt erkennen, dass es einen systematischen Zu-
sammenhang zwischen der Dauer der Signale und der Breite ihrer Spektren gibt. Ex-
perimentell gewonnene Beispiele der Sende- und Empfangssignale eines Ultraschall-
systems sind in Abb. 8.27 dargestellt. Die 󳶳Abb. 8.27 (a) zeigt für einen Sendepuls
mit einer Mittenfrequenz von f0 = 2,25 MHz den Druckverlauf p(t) über der Zeit t
(Hydrophonmessung am Schallwandler CH4-1 des Ultraschallgerätes Siemens Acuson
Antares). Das zugehörige Betragsspektrum |P(f )| ist in Abb. 8.27 (c) dargestellt. Die
Bandbreite 𝛥f der derzeit in der Medizin verwendeten Schallwandler aus piezoelek-
trischen Materialien liegt typischerweise in der Größenordnung von 0,8f0 . Innerhalb
dieser Grenzen kann die Mittenfrequenz (spektraler Mittelwert eines bandbegrenzten
Signals) der Schallpulse variiert werden.
8 Ultraschall | 253

p₀(t) ΩP₀( ƒ )Ω

Δƒ = 0

T₀ → ∞ ƒ₀ ƒ

p₁(t) ΩP₁( ƒ )Ω

t Δƒ₁

T₁ ƒ₀ ƒ

p₂(t) ΩP₂( ƒ )Ω

t Δƒ₂

T₂ ƒ₀ ƒ

Abb. 8.26: Einige Zeitsignale und ihre Betragsspektren.

Bandbreite: spektrale Breite eines Signals oder des Übertragungsverhaltens (Durchlass, Dämp-
fung) eines Übertragungssystems (z. B. eines Bandfilters).

Unmittelbar nachdem der Ultraschallpuls ausgesandt wurde, wird mittels einer


Sende-Empfangsweiche nach Art der Schaltung in 󳶳Abb. 8.23 vom Sende- in den
Empfangsbetrieb umgeschaltet und mit dem schon für das Senden verwendeten
Schallwandler das (hochfrequente) Echosignal u(t) aufgenommen. Exemplarisch
ist ein solches Echosignal in 󳶳Abb. 8.27 (b) dargestellt. 󳶳Abb. 8.27 (d) zeigt daszu-
gehörige Betragsspektrum |U(f )|. Als Maß für die Reflektivität der streuenden oder
reflektierenden Strukturen wird die Amplitude a(t) der empfangenen Echosignale
ausgewertet. Sie kann (ggf. nach Filterung in geeigneten Bandgrenzen) über eine
Hüllkurvendetektion aus u(t) berechnet werden. Ist u(t) mittelwertfrei, so kann a(t)
beispielsweise mit
󵄨 󵄨2
a(t) = 󵄨󵄨󵄨 u(t)󵄨󵄨󵄨 (8.54)

aus dem analytischen Signal u(t) bestimmt werden, das mit der Hilberttransformation
H [Fettweis 1996]:
u(t) = u(t) + jH {u(t)} (8.55)
254 | Helmut Ermert, Christian Hansen

Tiefe s(t) in cm
7,4 7,6 7,8 8

100
1

Echoamplitude a(t) in a.u.


50
Druck p(t) in MPa

0,5

0 0

–0,5 –50

–1
–100
0 2 4 6 8 95 100 105
(a) Zeit t in μs (b) Zeit t in μs

0 0

Betragsspektrum ΩU( ƒ )Ω in dB
Betragsspektrum ΩP( ƒ )Ω in dB

–10 –10

–20 –20

–30 –30

–40 –40
0 2 4 6 8 0 2 4 6 8
(c) Frequenz ƒ in MHz (d) Frequenz ƒ in MHz

Abb. 8.27: Signalverläufe bei der Abbildung im Puls-Echo-Betrieb: (a) Druckverlauf p(t) eines Sen-
depulses mit f0 = 2,25 MHz, (b) Empfangsecho u(t) bzw. u(s) (grau) und Hüllkurve a(t) bzw. a(s)
(schwarz) (Umrechnung t → s gemäß 󳶳 Gl. (8.56)), (c) Betragsspektrum des Sendepulses, (d) Be-
tragsspektrum des Empfangsecho. (b) Das gezeigte Echosignal stammt von einer In-vivo-Aufnahme
der Leber. Die Aufnahme wurde mit einem Ultraschallgerät Siemens Acuson Antares und dem
Schallwandler CH4-1 gemacht, wobei das hochfrequente Echo u(t) über eine Schnittstelle abgerufen
und gespeichert wurde.

aus dem Messsignal u(t) gewonnen wird. Das demodulierte Signal a(t) wird als A-Linie
bezeichnet (A = Amplitude). Die Zeitkoordinate t steht bei u(t) und a(t) stets in direk-
ter Beziehung zur Tiefe z = s, aus welcher das Echo empfangen wird. Es gilt allgemein
für jedes t0 :
t0
1
s(t0 ) = ∫ c(t) ⋅ dt (8.56)
2
0
8 Ultraschall | 255

Hierbei ist s(t0 ) die dem Zeitpunkt t = t0 entsprechende Tiefe (Distanz zwischen
Schallwandler und Streuer), t die Zeit, die direkt mit dem Empfang bei t = 0 be-
ginnt und bis t0 läuft und schließlich bei der Empfangszeit tE endet, und c(t) die
Schallgeschwindigkeit im Gewebe, mit der sich die Schallwelle zur jeweiligen Zeit
ausbreitet. Da im Regelfall über die inhomogene Schallgeschwindigkeitsverteilung
im menschlichen Gewebe keine Informationen vorliegen, wird bei der konventionel-
len Sonographie nur näherungsweise mit einer konstanten Schallgeschwindigkeit c,
üblicherweise c = 1540 m/s, gerechnet. Es gilt somit:
1
s(t) = ⋅c⋅t (8.57)
2
Aufgrund der tiefenabhängigen Dämpfung des gesendeten und des reflektierten
Schallsignals weisen die Echos von tiefer liegenden Strukturen systematisch geringe-
re Amplituden auf als jene von wandlernahen Strukturen. Die Signale u(t) sind daher
tiefenabhängig zu verstärken. Eine solche tiefenabhängige Verstärkung GTGC (s) wird
als Time Gain Compensation (TGC) bezeichnet (siehe 󳶳Abb. 8.25). Da allerdings die
Verteilung des materialabhängigen Dämpfungkoeffizienten 𝛼 im Gewebe inhomogen
und im Regelfall unbekannt ist, muss der optimale Verlauf von GTGC (s) geschätzt
werden.

Time Gain Compensation (TGC; dt. Dämpfungskompensation mit zeitlich veränderlicher Verstär-
kung): Zeitsteuerung der Empfangsverstärkung eines Puls-Echo-Systems, mit dem der Einfluss der
Dämpfung im Übertragungsmedium für unterschiedliche Objektentfernungen ausgeglichen wird.

In Ultraschallgeräten sind daher empirisch getestete TGC-Kurven hinterlegt, die bei


der Bildgebung verwendet werden und bei Bedarf manuell nachgeregelt werden kön-
nen. Selbstverständlich sind dem Konzept der tiefenabhängigen Verstärkung Gren-
zen gesetzt, wenn die aufzunehmenden Echosignale zu stark abgeklungen sind und
im Empfangsrauschen nicht mehr detektiert werden können. Es existiert daher in Ab-
hängigkeit der Dämpfungseigenschaften des zu untersuchenden Gewebes eine maxi-
male Tiefe smax , bis zu der hin eine Ultraschallabbildung möglich ist. Diese maximale
Eindringtiefe wird mit zunehmender Sendefrequenz geringer.
Bei Anwendung des Puls-Echo-Verfahrens wird davon ausgegangen, dass sich
die Schalllaufwege beim Aussenden der Schallpulse (Ausbreitung vom Schallwandler
zum Streuer) nicht von denen beim Empfang (Ausbreitung vom Streuer zum Schall-
wandler) unterscheiden bzw. dass nach Streuung der Schallwelle am Streukörper
genügend Schallenergie entlang des angenommenen Schallstrahls zurückläuft. Nur
unter dieser Voraussetzung können die Echos der gesendeten Pulse vom selben
Schallwandler empfangen werden. Das Auftreten von Mehrfachreflexionen wird
hierbei nicht berücksichtigt (vgl. Born-Approximation [Angelsen 2000]).
Bei modernen Ultraschallgeräten erfolgt die Signalverarbeitung digital, so dass
die Signale u(t) bzw. a(t) zeitdiskret zu den Zeitpunkten tm , mit (m = 1, 2, . . ., M),
vorliegen. Ihre Abtastung erfolgt beispielsweise mit einer Abtastfrequenz von fabt =
256 | Helmut Ermert, Christian Hansen

Konturen in Bewegung

Wandler

A-Scan

B-Scan-Zeile
t
„schnelle” Zeitachse
t
„langsame” Zeitachse

TM-Scan

Abb. 8.28: Darstellung des Time-Motion-Scan-


t Konzepts.

1/𝛥tabt = 40 MHz. Bei Beachtung des Abtasttheorems wird hierdurch die Ultra-
schallabbildung auf den Einsatz von Pulsen mit maximalen Frequenzanteilen bis
zu 20 MHz beschränkt. Im Folgenden soll die Beschreibung der Echosignale aber
zeitkontinuierlich erfolgen. Nur bei Bedarf wird zu der zeitdiskreten Notation überge-
gangen. Gleiches gilt für die ebenfalls diskret vorliegende Koordinate sm .

TM-Scan
Aus dem A-Scan-Konzept lässt sich das TM-Scan-Verfahren (TM=Time Motion),
manchmal auch M-Scan genannt, herleiten (siehe 󳶳Abb. 8.28). Bei diesem Ver-
fahren wird kein lateraler Scan durchgeführt. Der Wandler verharrt in einer bestimm-
ten Position und registriert über eine Serie von Puls-Echo-Zyklen Bewegungen von
Diskontinuitäten, die sich innerhalb seiner gebündelten Schallstrahlcharakteristik
befinden. Die Ortsveränderung dieser Grenzschichten wird über einer sogenannten
„langsamen“ Zeitachse aufgezeichnet, so dass eine zweidimensionale Darstellung
entsteht, mit der Bewegungsabläufe gut analysiert werden können. Das TM-Scan-
Verfahren wird überwiegend in der Kardiologie und der Angiologie angewandt und
simultan zur Echtzeit-B-Bildgebung betrieben.

Time Motion Scan (TM; dt. Abbildung der Bewegung im Zeitverlauf): auf dem A-Scan basierendes
Verfahren zur Beobachtung und Aufzeichnung von Bewegungsabläufen von Grenzschichten (z. B.
Herzklappen) entlang einer Schallstrahlachse.
8 Ultraschall | 257

Strahlformung
Um die Ultraschallwellen räumlich entlang eines definierten Schallstrahls im Sende-
fall zu bündeln und darüber hinaus auch im Empfangsfall gerichtet die Echosigna-
le aufzunehmen, bedarf es einer präzisen Strahlformung (beamforming). Eine solche
Strahlformung modifiziert die Richtcharakteristik der Sende- und Empfangsapertur
in lateraler und elevationaler Richtung gemäß 󳶳Abb. 8.29.

Beamforming (dt. Strahlformung): Methode zur Erzeugung einer bestimmten Strahlform (Breite
und Richtung) durch die Ansteuerung der Elemente eines Arrays.

Hierbei werden eine Fokussierung des Schallfeldes zur Verbesserung der Auflösung
und ein Schwenken der Strahllinie zur gerichteten Aufnahme realisiert:

Curved Array (dt. gekrümmte Gruppe): Array mit gekrümmter, z. B. konvexer Aperturgeometrie.

Laterale Strahlformung: Die laterale Strahlformung erfolgt bei den üblicherweise


genutzten Array-Schallwandlern gemäß 󳶳Abb. 8.29 über die zeitverzögerte Ansteue-
rung der Einzelelementwandler der aktiven Apertur. Die aktive Apertur kann ihrerseits
(wie beim Linear-Array aus 󳶳Abb. 8.1 oder beim Curved-Array aus 󳶳Abb. 8.29 (a) aus
einer Untergruppe von Einzelelementwandlern oder wie beim Phased-Array gemäß
󳶳Abb. 8.30 aus sämtlichen Einzelelementwandlern des Arrays bestehen.

Phased Array (dt. phasengesteuerte Gruppe): Gruppenantenne mit elektronischer Steuerung der
Phasenbelegung der Antennenelemente zum Zweck der elektronischen Fokussierung und des
elektronischen Schwenkens der Richtcharakteristik.

Im Rahmen der Sendefokussierung kann die Fokustiefe sF zwar frei gewählt wer-
den, ist aber für einen einmal ausgesendeten Puls nicht mehr veränderbar. Meist wird
der Schallstrahl daher im Sinne einer verbesserten Tiefenschärfe über einen grö-
ßeren Tiefenbereich gleichbleibend breit gehalten. Die laterale Fokusbreite ist dabei
zwangsläufig größer als die für diskrete Tiefen minimal mögliche Breite. Sollen mehre-
re laterale Sendefokuszonen verwendet werden, so ist der Puls-Echo-Betrieb entlang
desselben Schallstrahls entsprechend zu wiederholen und die Empfangsechos sind
nach Hüllkurvendetektion gewichtet zu addieren.
Anders als im Sendefall kann der Fokus beim Empfang laufend jener Tiefe ange-
passt werden, aus der die aktuell empfangenen Echos eintreffen (dynamische Emp-
fangsfokussierung).
258 | Helmut Ermert, Christian Hansen

(a) Curved-Array aus Einzelelementen (b) Curved-Array in Seitenansicht


aktive Apertur

axial

elevational
lateraler
Fokus
axial
lateral
elevationaler
Fokus
Scan

Abb. 8.29: Darstellung der lateralen (a) und elevationalen (b) Strahlformung am Beispiel eines Cur-
ved-Arrays. Schematisch sind drei Einzelelemente zu einer aktiven Apertur zusammengefasst. Bei
realen Array-Schallwandlern ist diese Anzahl deutlich größer.

Sender Phased-Array
τn τ8 τ4 τ1
Verzögerungs-
elemente

lateraler
Fokus
Array
axial
Wellenfront

lateral
Schallausbreitungsrichtung
Scan

(a) elektronisch schwenkbare Wellenfront (b)

Abb. 8.30: Darstellung der lateralen Strahlformung am Beispiel eines Phased-Arrays. Hier werden
alle Einzelelemente zu einer aktiven Apertur zusammengefasst. Bei realen Phased-Array-Schall-
wandlern ist diese Anzahl deutlich größer. Elementbreite und Elementabstand müssen aus beu-
gungsphysikalischen Gründen wesentlich geringer sein als beim Linear-Array oder Curved-Array.
(a) Simultanes Fokussieren und Schwenken durch verzögerte Ansteuerung der Einzelelemente.
(b) Darstellung des Beamforming und Scan-Konzepts.
8 Ultraschall | 259

Dynamische Fokussierung: Zeitliche Steuerung der Fokustiefe einer Gruppenantenne (Array) in


der Empfangsphase eines Puls-Echo-Systems. Der momentane Ort des Fokus entspricht dabei je-
weils dem Entstehungsort des momentan empfangenen Echos.

Eine große Tiefenschärfe ist hier nicht erforderlich, so dass die Fokusbreite im Emp-
fangsfall minimiert werden kann. Um diese für alle Tiefen konstant zu halten, wird
meist die aktive Apertur für geringe Tiefen verringert. Für die F-Zahl FN , die über die
Fokustiefe sF und die Breite der aktiven Apertur Dap definiert ist, ergeben sich tiefenu-
nabhängig konstante Werte:
s
FN = F (8.58)
Dap

F-Zahl: Kenngröße von Ultraschallwandlern; Verhältnis von Fokus-Abstand (Wandler – Fokus) zum
Wandlerdurchmesser.

Zusätzlich zur lateralen Fokussierung kann auch ein Schwenken des Schallstrahls
realisiert werden. Während ein solches Schwenken bei Linear-Arrays meist optional
(s. 󳶳Kap. 8.7.1) möglich ist, ist es bei Phased Arrays für die Bildgebung konzeptionell
(siehe 󳶳Abb. 8.30).
Üblicherweise wird neben der zeitverzögerten Ansteuerung der Einzelelemente
auch eine Gewichtung ihrer Sende- und Empfangssignale [Cobbold 2007] vorgenom-
men (Apodisierung; 󳶳Abb. 8.31). Bei Verwendung räumlicher Apodisierungsfunktio-
nen (z. B. eines Hanning- Fensters [Szabo 2004]) werden zur Reduzierung von Neben-
keulen (sidelobes, siehe 󳶳Abb. 8.38) die Beiträge von Elementen am Rand der aktiven
Apertur weniger stark gewichtet als solche von zentral gelegenen Elementen [Angel-
sen 2000].

Apodisierung: Amplitudenbelegung der Elemente einer Gruppenantenne.

Elevationale Strahlformung: Die elevationale Sendefokussierung wird meist über


akustische Linsen gemäß 󳶳Abb. 8.14 und 󳶳Abb. 8.29 (b) realisiert. Zum Teil werden
aber auch weitere Reihen von Einzelelementwandlern eingesetzt, die elevational ne-
ben dem eigentlichen Array liegen und diesem temporär parallel geschaltet sind. Im
ersten Fall spricht man üblicherweise von 1D-Arrays, im zweiten Fall häufig von 1.XD-
Arrays (󳶳Abb. 8.32). Ein simultanes Fokussieren und Schwenken des Schallstrahls
in elevationaler Richtung ist erst bei 2D-Arrays möglich, die teilweise im Rahmen der
3D-Ultraschallabbildung eingesetzt werden (vgl. 󳶳Kap. 8.5.5).
260 | Helmut Ermert, Christian Hansen

Sendephase: Empfangsphase:
ein Fokus pro Sendepuls optimaler Fokus für jede Tiefe
(einstellbar, aber fixiert) (mitlaufend, dynamisch)
Sendeapertur variable Empfangsapertur
Array

Fokus 1

Fokus 2

Fokus 3
Fokus

Fokus 4

Abb. 8.31: Sendefokussierung und Empfangsfokussierung.

1D
fixierte Elevationsapertur,
fester Fokus

1.25D
variable Elevationsapertur,
statische Fokussierung
1.5D
dynamische Fokussierung,
symmetrisch
1.75D
wie 1.5D, aber unsymmetrische
Ansteuerungsmöglichkeit

Abb. 8.32: 1.XD-Arraykonzepte für die Optimierung der Strahlformung in elevationaler Richtung.

8.5.2 B-Bild-Technik

Bildaufbau
Zweidimensionale Ultraschall-B-Bilder (B = Brightness) werden erzeugt, indem der zu-
vor beschriebene Puls-Echo-Betrieb für mehrere lateral benachbarte Schallstrahlen
wiederholt wird und die einzelnen A-Linien grauwertkodiert und in geometrisch kor-
rekter Lage nebeneinander angeordnet werden. Obwohl die Schallausbreitung auch
elevational fokussiert in einem begrenzten Raumbereich erfolgt, werden sämtliche
Empfangssignale ohne elevationale Ortsauflösung in einer zweidimensionalen Ebene
dargestellt. Es existiert somit eine elevationale Schichtdicke, innerhalb derer alle ele-
vational benachbarten Objekte mit unterschiedlicher Gewichtung zum dargestellten
8 Ultraschall | 261

Grauwert beitragen (vgl. 󳶳Kap. 8.5.4). Stark echogene Bereiche, die eine hohe lokale
Reflektivität aufweisen und/oder hinter Bereichen geringer Dämpfung liegen, werden
in B-Bildern hell, schwach echogene Bereiche dunkel dargestellt.

B-Bild: auf dem B-Scan-Konzept (B = Brightness; dt. Helligkeit) basierendes Ultraschallbild mit
grauwertcodierter Schnittbild-Darstellung von Objekten.

Um den Bildbereich durch Abtastung mit benachbarten Schallstrahlen zu scannen,


bestehen bei Array-Schallwandlern zwei Möglichkeiten: Zum einen kann zu einem la-
teral benachbarten Schallstrahl weitergeschaltet werden, indem die Apodisierungs-
funktion, die durch die Elemente der aktiven Apertur räumlich abgetastet wird, la-
teral verschoben wird. Dies ist für Linear- und Curved-Arrays der Fall (󳶳Abb. 8.29).
Zum anderen kann der Schallstrahl über die zeitlich verzögerte Ansteuerung der Ein-
zelelemente geschwenkt werden. Diese Technik wird beim Phased-Array eingesetzt
(󳶳Abb. 8.30). In beiden Fällen liegen Echosignale un (tn ) bzw. A-Linien an (tn ) zu insge-
samt N Schallstrahlen vor, wobei n = 1, 2, . . ., N und N ≈ 300 ist. Die Zeitkoordinate tn
ist hierbei an den jeweiligen Schallstrahl n gebunden und beginnt mit tn = 0 für je-
de Linie erneut (es wird der Übersichtlichkeit halber im Folgenden verkürzt un (t) und
an (t) geschrieben). Es gilt 0 ≤ tn ≤ tE , wobei tE die Empfangszeit pro Schallstrahl ist.
Die Menge aller zu einem B-Bild gehörenden hochfrequenten Echosignale un (t) wird
im Folgenden als Ultraschallframe bezeichnet. In 󳶳Abb. 8.33 (a) sind parallel neben-
einander die logarithmisch skalierten A-Linien ℓ an (t) dargestellt, die bei der Abbil-
dung einer Leber mit einem Curved-Array aufgenommen wurden. Die Darstellung in
logarithmischer Skalierung ist bei der Ultraschallabbildung nötig und üblich, da der
Dynamikbereich der Echosignale bis zu 80 dB umfasst. Soweit nicht anders beschrie-
ben, werden im Folgenden Ultraschallbilder stets in dieser logarithmischen Skalie-
rung gezeigt. Die logarithmierten Amplituden ℓ an (t) werden als (Bild-)Intensitäten be-
zeichnet.

Dynamikbereich: Verhältnis zwischen dem maximalen Signalpegel und dem kleinsten, über dem
Rauschuntergrund detektierbaren Signalpegel in einem System.

Bevor der Puls-Echo-Betrieb für den Schallstrahl n + 1 (oder für einen weiteren Sende-
fokus) beginnt, muss der Empfang für Linie n (bzw. für den vorherigen Sendefokus)
abgeschlossen sein. Die Pulswiederholrate (pulse repetition frequency, PRF) ist somit
1
fPRF = , (8.59)
tE
wobei für die Empfangszeit tE gilt:
2 ⋅ sbild 2 ⋅ smax
≤ tE ≤ (8.60)
c c
Hierin sind c die angenommene Schallgeschwindigkeit, sbild die gewählte Bildtiefe
und smax die maximale Tiefe, bis zu der hin eine Ultraschallabbildung aufgrund der
262 | Helmut Ermert, Christian Hansen

A-Linien n/100
1 2 3
0 5 0
2 1 –10

Abtastpunkte m/1000
Tiefe s(t) in cm

4 2
–20
3 10
6

z in cm
–30
8 4
–40
5 15
10
–50
6
12
–60
110 90 70 –10 0 10
(a) Abstrahlwinkel φ in Grad (b) x in cm dB

Abb. 8.33: B-Bildgebung am Beispiel einer Leberaufnahme mit einem Curved-Array: (a) Parallel
angeordnete, grauwertkodierte A-Linien (in typisch logarithmischer Skalierung). (b) B-Bild nach
Scankonvertierung. Das Dreieck markiert ein Spiegelartefakt, das Rechteck einen Bereich, dessen
Amplitudenverteilung weiter unten analysiert wird. Die Aufnahme wurde mit einem Siemens Acuson
Antares und dem Curved-Array CH4-1 mit einer Mittenfrequenz von 2,5 MHz durchgeführt.

f0 in MHz 2,0 3,5 5,0 17,5 10,0 15,0 Tab. 8.5: Reichweiten bzw. maximale
smax in cm 30 17 12 8 6 4 Bildtiefen für verschiedene Frequenzen.

Dämpfung möglich ist. Diese Tiefe lässt sich mit der Beziehung
D
smax [ dBeff ]
[ ]= (8.61)
cm 2 ⋅ 𝜂 ⋅ [f0 /MHz]
abschätzen, in der Deff der nutzbare Dynamikbereich des Puls-Echo-Systems, f0 die
Mittenfrequenz der Ultraschallsignale und 𝜂 ein Proportionalitätsfaktor ist, der nach
den Ausführungen in 󳶳Kapitel 8.3.1 (siehe auch 󳶳Tab. 8.3) zwischen 0,5 und 1 liegt. Für
einen Dynamikbereich von 100 dB erhält man beispielsweise bei einer Frequenz von
5 MHz und bei einer Annahme von 𝜂 = 0,8 eine Reichweite von 12,5 cm. Praktikable
Richtwerte für die Reichweite bzw. maximale Bildtiefe sind in 󳶳Tab. 8.5 zusammen-
gestellt.
Bei einer Bildtiefe von beispielsweise sbild = 10 cm ergibt sich aus Gl. 󳶳Gl. (8.60)
mit c = 1540 m/s eine minimale Empfangszeit von tE = 0,13 ms und damit eine PRF
von fPRF = 7,7 kHz.
Für die Aufnahme eines aus 300 A-Linien bestehenden Ultraschallframes wird
mindestens eine Aufnahmezeit von 𝛥tfr󸀠 = 39 ms benötigt. Hierbei ist t󸀠 eine globale
Zeitkoordinate, die anders als t an keinen besonderen Vorgang (wie den Puls-Echo-
Betrieb für einen Schallstrahl) gebunden ist. Die Bildwiederholrate (frame rate) er-
gibt sich für nur einen Sendefokus aus
1 1 c
ffr = = ≤ (8.62)
𝛥tfr󸀠 N ⋅ tE 2 ⋅ N ⋅ sbild
8 Ultraschall | 263

Für das genannte Beispiel beträgt sie ffr = 39 Hz. In Abhängigkeit der Bildtiefe und der
Liniendichte ergeben sich aber durchaus Werte von bis zu 200 Hz. Im Falle mehrerer
Sendefoki reduziert sich ffr bei Erhöhung von 𝛥tfr󸀠 entsprechend.

Scankonvertierung
Um eine ortsrichtige Abbildung zu realisieren, sind im Rahmen einer Scankonvertie-
rung die aufgenommenen A-Linien in korrekter geometrischer Lage zueinander an-
zuordnen (󳶳Abb. 8.33). Während beim Linear-Array nur der Abstand der parallel lie-
genden A-Linien anzupassen ist, muss beim Curved-Array und beim Phased-Array
die Lage der A-Linien unter Berücksichtigung des Abstrahlwinkels korrigiert werden.

8.5.3 Eigenschaften von Ultraschallsystemen

Auflösung
Unter der Auflösung eines Abbildungssystems versteht man den kleinsten Abstand,
den zwei Punktobjekte voneinander entfernt sein dürfen, um im Bild noch getrennt
dargestellt zu werden.

Auflösung, räumlich: Maß für die Fähigkeit eines Abbildungssystems, kleine, nah beieinander lie-
gende Objekte als separate Objekte darstellen zu können.

Im Falle der Ultraschallabbildung ist die Auflösung stark anisotrop (Anisotropie: Rich-
tungsabhängigkeit, z. B. von Systemeigenschaften oder von Materialeigenschaften).
Man unterscheidet zwischen der axialen Auflösung, der lateralen Auflösung und der
elevationalen Auflösung (Schichtdicke). Die axiale Auflösung ist bei der zweidimen-
sionalen Ultraschallabbildung deutlich besser als die laterale; die elevationale Auf-
lösung ist am schlechtesten. Alle drei Größen variieren zusätzlich mit ihrem axialen
Abstand zur Ultraschallquelle, so dass die Auflösung tiefenabhängig ist. Die axiale
Auflösung ist, wie weiter unten erläutert wird, nur in geringerem Maße von der Tiefe
abhängig als die laterale und die elevationale. Aufgrund der anisotropen und tiefen-
abhängigen Auflösung des Ultraschallbildes variiert die Darstellung aufgenommener
Objekte grundsätzlich mit der Einfallsrichtung des Ultraschalls.
󳶳Abb. 8.34 zeigt beispielhaft die Bilder eines transversal abgebildeten linienför-
migen Streuers (dünner Draht) für verschiedene Tiefen.
Zur Charakterisierung der räumlichen Auflösung eines Ultraschallsystems kann
die Ausdehnung der Punktbildfunktion im Ultraschallbild benutzt werden. Dabei
interessiert der Verlauf der Echoamplitude des Punktbildes in axialer, lateraler und
elevationaler Richtung für Positionen des Punktes in verschiedenen Tiefen z = z.̆ Die
Halbwertsbreiten der Amplitudenverläufe 𝛿x , 𝛿y , 𝛿z in den Raumrichtungen x (lateral),
y (elevational) und z (axial) können als Maße für die räumliche Auflösung betrachtet
264 | Helmut Ermert, Christian Hansen

werden, wobei kleine Werte der Halbwertsbreiten jeweils eine hohe Auflösung bedeu-
ten. Die Halbwertsbreite ergibt sich als Abstand zwischen den Punkten im Amplitu-
denverlauf, an denen die Amplitude um die Hälfte ihres Maximalwertes (um 6 dB der
Maximalintensität) abgefallen ist.

Punktbildfunktion (PBF): Bildfunktion eines kleinen (idealerweise punktförmigen) Objekts, das


der Charakterisierung eines Abbildungssystems dient. Die Halbwertsbreite der Punktbildfunktion
wird oft als Maß für die räumliche Auflösung verwendet.

Die axiale Auflösung eines im B-Modus arbeitenden Ultraschallsystems hängt von


der Dauer der verwendeten Ultraschallpulse T6 dB ab. Die wesentlichen Zusammen-
hänge sollen am Beispiel eines HF-Echosignals u(t) mit der Mittenfrequenz f0 , der
Bandbreite ΔfE und einer Gauss-förmigen Einhüllenden erläutert werden.
Die Einhüllende des Echosignals repräsentiert über den Zusammenhang 󳶳Gl.
(8.57) den in axialer Richtung geschnittenen Längsschnitt der Punktbildfunktion.
Als Maß für die axiale Auflösung lässt sich die 6-dB-Breite („Halbwertsbreite“) der
Einhüllenden
1
𝛿ax = c ⋅ T6 dB (8.63)
2
definieren. In 󳶳Abb. 8.35 ist erkennbar, dass das Echo eines zweiten Streuers hinter
dem ersten Streuer vom Echo des ersten Streuers noch unterschieden werden kann,

vor lateralem Fokus im lateralen Fokus hinter lateralem Fokus


z in cm

11,0 14,6 19,6

11,5 15,0 20,2


–1 –0,5 0 0,5 1 –1 –0,5 0 0,5 1 –1 –0,5 0 0,5 1
(a) x in cm (b) x in cm (c) x in cm

Abb. 8.34: Linienbilder eines transversal abgebildeten Drahtes für verschiedene Tiefen relativ zum
Sendefokus sF = 8 cm.

u(t) ΩU( ƒ )Ω
50 % 50 %

ΔƒE
T6dB

t ƒ₀ ƒ

Abb. 8.35: Zur Erläuterung der axialen Auflösung: links: HF-Echosignal eines Punktstreuers, Ein-
hüllende (grün), Einhüllende des Echos eines weiteren Punktstreuers (grün gestrichelt), rechts:
Betragsspektrum des Echosignals.
8 Ultraschall | 265

wenn sich beide Einhüllenden nicht weiter als bis zu ihren Halbwertsbreiten überlap-
pen. Streng genommen überlagern sich die Einhüllenden nicht additiv. Die Überlage-
rung der Echosignale erfolgt im HF-Bereich, und als resultierende Einhüllende ent-
stehen komplexe Zeitverläufe. Erfahrungsgemäß ist die Annahme in 󳶳Gl. (8.63) aber
trotzdem anwendbar. Für die meisten in der Echosonographie verwendeten Pulsfor-
men gibt es einen fundamentalen Zusammenhang zwischen Pulsdauer und Bandbrei-
te, der hier auch gültig ist:
𝛥fE ⋅ T6dB ≈ 1 (8.64)
In der Regel fungiert der Schallwandler mit seiner begrenzten Bandbreite Δf als Band-
pass für das ausgesandte Sendesignal und das empfangene Echosignal.

Bandpass: Filter, das die Übertragung von Signalen auf eine bestimmte Bandbreite begrenzt.

Wegen der zweifachen Filterung auf Hinweg und Rückweg ist die 6-dB-Bandbreite des
Echosignals ΔfE nur halb so groß wie die Bandbreite des Wandlers Δf . Somit lässt sich
die axiale Auflösung auch über die Bandbreite Δf des Ultraschallgerätes definieren:
c0
𝛿ax ≈ (8.65)
𝛥f

Gleichung 󳶳Gl. (8.65) stellt die gegenüber 󳶳Gl. (8.63) universellere Definition der axia-
len Auflösung dar. Sie ist auch anwendbar auf Signale, deren Zeit-Bandbreite-Produkt
gemäß Gleichung 󳶳Gl. (8.64) viel größer als 1 ist. Von solchen Signalen wird in spezi-
ellen Puls-Echo-Systemen unter Nutzung des Konzepts der Pulskompression [Rao et
al. 1993, Paßmann et al. 1996] Gebrauch gemacht.
Da die Bandbreite bei zunehmender Mittenfrequenz steigt (Δf ≈ 0,8 f0 ), nimmt
auch die axiale Auflösung mit der Mittenfrequenz zu. Für einen Sendepuls mit einer
Gauss-förmigen Einhüllenden und einer Mittenfrequenz von f = 2,25 MHz ergibt sich
theoretisch bei einer Bandbreite von 𝛥f ≈ 0,8 f0 = 1,8 MHz und für eine Schallge-
schwindigkeit von c0 = 1540 m/s eine axiale Auflösung von 𝛿 ax = 0,86 mm. Eine Tie-
fenabhängigkeit der axialen Auflösung ergibt sich aus der frequenzabhängigen Dämp-
fung des Gewebes, da mit zunehmender Wegstrecke bei der Ausbreitung des Ultra-
schalls höhere Frequenzanteile der Signale stärker gedämpft werden als niedrigere,
woraus eine Verschiebung der Mittenfrequenzen zu niedrigeren Werten hin und eine
Reduzierung der Bandbreite resultieren.
Die laterale Auflösung wird durch die laterale Breite des Schallstrahls bestimmt
(vgl. 󳶳Abb. 8.29 und 󳶳Abb. 8.30). Da die Strahlform maßgeblich durch die Fokus-
sierung beeinflusst wird, variiert auch die laterale Auflösung tiefenabhängig mit der
Wahl des Sende- und Empfangsfokus. Insofern lässt sich für die laterale Auflösung
kein einheitliches Maß angeben. Von besonderem Interesse ist die laterale Auflösung
im Fokus des Ultraschallstrahls. Dort ist sie optimal und wird maßgeblich durch
die Mittenfrequenz f0 , von dem Abstand Wandler – Fokus sF und von der lateralen
266 | Helmut Ermert, Christian Hansen

Ausdehnung der aktiven Apertur Dap bestimmt. Im Fokus eines B-Bildes, der sich im
Sende- und Empfangsfall statisch in gleicher Tiefe befindet (󳶳Abb. 8.31), gilt für die
laterale Halbwertsbreite der Punktbildfunktion die Proportionalität
sF ⋅ f0
𝛿lat ∼ , (8.66)
Dap
wobei der hier weggelassene Proportionalitätsfaktor in der Größenordnung von 1
liegt [Lang et al. 1997] und von der lateralen Form des Schallwandlers oder der ak-
tiven Schallwandlergruppe abhängt. Da die Richtcharakteristik dieser Apertur im
Puls-Echo-Betrieb zweimal durchlaufen wird, entspricht die 6-dB-Auflösung der
3-dB-Breite des gesendeten Schallfeldes. Bei einem Ultraschallgerät und einem
Curved-Array mit einer Mittenfrequenz von 2,5 MHz wurde beispielsweise in einer
Fokustiefe von 13 cm experimentell eine laterale Auflösung (laterale Halbwertsbreite
der Punktbildfunktion) von 2,5 mm ermittelt [Hansen 2009].
Die elevationale Auflösung bezieht sich auf die zweite, zur Schallausbreitungs-
richtung transversale Raumkoordinate. Hier gilt die Beziehung 󳶳Gl. (8.66) entspre-
chend. Ein wie oben beschrieben experimentell ermittelter Wert für die elevationale
Auflösung (Schichtdicke) in beispielsweise 8 cm Tiefe betrug 4 mm.

Speckle
Ultraschallbilder weisen stets eine granulare Struktur auf, die als Speckle-Muster be-
zeichnet wird. Speckle entstehen durch die Überlagerung der rückgestreuten Echos
einer Vielzahl von Streuern, die sich gemeinsam innerhalb einer Auflösungszelle be-
finden. Solche Verhältnisse liegen in biologischem Gewebe regelmäßig vor, da die Zell-
strukturen des Gewebes wesentlich kleiner sind als eine Auflösungszelle. Bei der Aus-
breitung der Echosignale kommt es sowohl zu konstruktiver als auch zu destruktiver
Interferenz. Infolge dieser Interferenzen entsteht nach der Hüllkurvendetektion das
typische Speckle-Muster.

Speckle (dt. Fleck): granulare Feinstruktur von Bildern bei der Bildgebung mittels kohärenter Wel-
len infolge von Interferenzeffekten.

Die mathematische Beschreibung dieses Phänomens kann nur stochastisch erfolgen


[Wagner et al. 1983]. Die Echos der zufällig verteilten Streuer können näherungsweise
als monofrequente Signale mit zufällig verteilter Amplitude und Phase beschrieben
werden. Die rückgestreuten Echosignale sind dann komplexe Zufallszahlen, die in
Summe am Schallwandler anliegen. Die Überlagerung der aus einer Auflösungszelle
stammenden Echos entspricht in der komplexen Ebene einem Random-Walk [Ma-
covski 1993]. Das Empfangssignal un (t) kann somit auch als komplexer Zufallsvektor
beschrieben werden, dessen Real- und Imaginärteil infolge der großen Zahl von
Einzelsignalen näherungsweise bivariat normalverteilt ist. Die durch Hüllkurvende-
8 Ultraschall | 267

0,03
relative Häufigkeit η

0,02

0,01 Abb. 8.36: Im Histogramm dargestellte rela-


tive Häufigkeiten der Echoamplituden (linear
skaliert und normiert) des in 󳶳 Abb. 8.33 (b)
0 markierten Bereichs. Die an das Histogramm
0 0,5 1 angepasste Kurve repräsentiert eine Rayleigh-
normierte Amplitude Verteilung.

tektion gewonnene, linear skalierte Echoamplitude a folgt dann einer Rayleigh-


Verteilung mit der Wahrscheinlichkeitsdichte 𝜂(a). Für diese gilt in Abhängigkeit von
der Standardabweichung 𝜎k des Real- und Imaginärteils der komplexen Empfangssi-
gnale:
a − a2
𝜂(a) = 2 ⋅ e 2𝜎k (8.67)
𝜎k
In 󳶳Abb. 8.36 ist exemplarisch das Histogramm der linear skalierten Echoamplituden
für den in 󳶳Abb. 8.33 markierten Bereich dargestellt. Die an das Histogramm ange-
passte Kurve repräsentiert eine Rayleigh-Verteilung. Die reale Amplitudenverteilung
des Histogramms wird durch sie in guter Näherung beschrieben.
Für den Erwartungswert 𝜇 und die Standardabweichung 𝜎 einer Rayleigh-
Verteilung gilt:
𝜋 4-𝜋
𝜇 = √ ⋅ 𝜎k und 𝜎=√ ⋅ 𝜎k (8.68)
2 2
Das Verhältnis aus Erwartungswert und Standardabweichung nimmt somit stets den
konstanten Wert 1,91 an. Wird der Mittelwert der Echoamplituden (als Schätzer für den
Erwartungswert ebenfalls mit 𝜇 bezeichnet) als informationstragendes Signal verstan-
den, dem Speckle als Rauschen überlagert sind, so kann dieses Verhältnis als Signal-
Rausch-Verhältnis (SNR) interpretiert werden. Es gilt somit:
𝜇
SNR = ≈ 1, 91 (8.69)
𝜎
Für das obige Beispiel der Leberabbildung ergibt sich für den markierten Bereich ein
gemessener Wert von SNR = 1,83.
Abweichungen vom theoretischen SNR-Wert ergeben sich, wenn die Anzahl der
Streuer in einer Auflösungszelle gering ist, ihre Anordnung regelmäßig ist, Rau-
schen anderer Quellen dem Speckle-Muster überlagert ist oder aber Nichtlinearitäten
im Abbildungsprozess existieren. Nichtlinearitäten entstehen einerseits durch Am-
plitudenbegrenzungen beim Empfang oder bei der Signal- und Bildverarbeitung.
268 | Helmut Ermert, Christian Hansen

Andererseits führen aber auch die bei der Tissue Harmonic Imaging-Abbildung (THI,
siehe 󳶳Kap. 8.5.4) ausgenutzten nichtlinearen Effekte bei der Wellenausbreitung
(z. B. im Gewebe) oder bei der Streuung (z. B. bei Kontrastmittel) dazu, dass es zu
Abweichungen von der Rayleigh-Verteilung kommt.

Artefakte in Ultraschallbildern
Als Artefakte werden lokale Fehldarstellungen in Ultraschallbildern bezeichnet, die
aufgrund der Eigenschaften und der Methodik der Ultraschallbildgebung entstehen.
Wegen der unidirektionalen Aufnahmetechnik und der besonderen Relevanz wellen-
physikalischer Phänomene bei der Schallausbreitung ist das Auftreten solcher Arte-
fakte abhängig von der Schalleinfallsrichtung. Artefakte beeinträchtigen die Bildqua-
lität in Abhängigkeit ihrer Stärke und ihrer Position im B-Bild und können bei einer
Fehlinterpretation durch den Untersucher eine Diagnose negativ beeinflussen.
Eine erste Gruppe von Artefakten entsteht aufgrund der Interaktion der Schall-
wellen mit Objekten und Strukturen im Gewebe:
– Abschattung: Ein häufig auftretendes Artefakt ist die Abschattung von Bildberei-
chen hinter stark reflektierenden oder stark dämpfenden Objekten wie beispiels-
weise Knochen. Wird die Abschattung durch eine stark reflektierende Struktur er-
zeugt, so erscheint bei senkrechtem Einfall der Schallwelle auf die Grenzfläche
vor dem dunklen Schallschatten eine echogene Struktur im B-Bild. Bei schrägem
Einfall erscheint nur der schwarze Schallschatten. In 󳶳Abb. 8.1 (b) ist ein Abschat-
tungsartefakt im Bereich der Luftröhre zu erkennen.
Bei runden oder ovalen Grenzflächen können bei tangentialem Auftreffen der
Schallpulse Randschatten entstehen. Die Pulse werden in diesem Fall von der
Grenzfläche seitlich abgelenkt, so dass kaum Schallenergie in die Randbereiche
hinter diesen Strukturen gelangt. In 󳶳Abb. 8.1 (b) treten solche Randschatten
seitlich hinter der Halsschlagader auf.
– Dorsale Schallverstärkung: Die dorsale Schallverstärkung entsteht im B-Bild
aufgrund von Dämpfungsunterschieden in Objekten, die in der Bildebene lateral
nebeneinander liegen. Das beispielsweise axial hinter (dorsal) einer Zyste oder
einem großen Gefäß liegende Gewebe wird aufgrund schwacher Dämpfung in
dem flüssigkeitsgefüllten Bereich heller (scheinbar verstärkt) dargestellt als la-
teral benachbarte Bereiche des gleichen Gewebetyps. Die Bezeichnung dieses
Artefakts als Schallverstärkung ist in Hinblick auf seine Ursache zwar inkorrekt,
aber üblich. In 󳶳Abb. 8.1 (b) ist eine dorsale Schallverstärkung zentral hinter der
Halsschlagader zu erkennen.
– Geometrische Verzerrungen: Bei der Berechnung von B-Bildern werden
Brechungs- und Beugungseffekte nicht berücksichtigt und Laufzeitunterschiede
der Schallsignale durch die Verwendung einer konstanten Schallgeschwindigkeit
c = 1540 m/s vernachlässigt. Grundsätzlich erscheinen daher alle abgebildeten
Objekte geometrisch verzerrt. Hierbei ist die Größe der Schallgeschwindigkeits-
8 Ultraschall | 269

unterschiede der Objekte maßgeblich für die Stärke dieser Verzerrungen. Die
󳶳Abb. 8.37 veranschaulicht dies am Beispiel eines Kugel-Hohlraumphantoms,
das nacheinander mit unterschiedlichen Flüssigkeiten befüllt und abgebildet
wurde. Die Abb. 8.37 (a) und (c) zeigen den Strahlengang und das B-Bild für den
Fall, dass das Innere der Kugel mit dem sie auch umgebenden Wasser befüllt ist
(cw = 1540 m/s). Die Abb. 8.37 (b) und (d) zeigen den Fall, dass sich im Inneren
der Kugel Isopropanol befindet (cobj ≈ 1200 m/s < cw ). Im ersten Fall passieren die
Schallsignale ungebrochen und mit unveränderter Geschwindigkeit die Kugel, so
dass im B-Bild keine Fehler auftreten. Im zweiten Fall treten zwei beobachtbare
Effekte auf: Zum einen werden die Schallstrahlen am Rand der Kugel gebrochen,
so dass sich ihre Ausbreitungsrichtung verändert. Zum anderen durchlaufen die
Schallsignale die Kugel mit verringerter Geschwindigkeit. Im B-Bild erscheint die
Rückwand der Kugel daher verbreitert (Brechung) und axial nach hinten versetzt
(Laufzeit). Ähnliche Effekte sind nicht nur an der Kugel selbst, sondern auch
an Objekten hinter ihr zu beobachten. Grundsätzlich werden die Schallstrahlen
nicht nur in der Bildebene sondern auch elevational gebrochen. Die Schallwellen
können somit auch aus der Bildebene hinauslaufen und dort gestreut werden.
Neben den beschriebenen Brechungs- und Laufzeiteffekten treten Beugungseffek-
te auf, wodurch die Form des Schallstrahls verändert wird. Solche Effekte sind im
beispielhaft präsentierten Fall aber von geringerer Stärke.
– Wiederholartefakt: Wiederholartefakte (Reverberationen) entstehen aufgrund
von Mehrfachreflexionen der Schallwellen zwischen stark reflektierenden Grenz-
schichten. Da bei jeder der Reflexionen immer auch ein Teil der Schallwelle trans-
mittiert wird, werden wiederholt Echosignale derselben Grenzflächen empfan-
gen. Der feste zeitliche Abstand dieser Echos ist abhängig von der Distanz der
beiden reflektierenden Grenzflächen. Im B-Bild werden die zeitverzögert eintref-
fenden Echos mehrfach untereinander dargestellt. Als Sonderfall können Mehr-
fachreflexionen auch zwischen Grenzflächen im Gewebe und der Schallwandler-
oberfläche auftreten.
– Spiegelartefakt: Hinter spiegelnd reflektierenden Grenzschichten kommt es ge-
legentlich zum Spiegelartefakt. Hierbei werden die Sendepulse von der Grenzflä-
che umgelenkt, so dass Objekte und Strukturen, die eigentlich vor oder seitlich
neben der stark reflektierenden Grenzfläche liegen, im B-Bild auch hinter dieser
Grenzfläche dargestellt werden. In 󳶳Abb. 8.42 (b) ist solch ein Spiegelartefakt ne-
ben dem Zwerchfell (siehe Dreieckmarkierung) zu sehen.

Neben der vorgestellten ersten Gruppe von Artefakten, die auf Besonderheiten bei der
Interaktion der Schallwelle mit Objekten und Strukturen im Gewebe zurückzuführen
sind, existiert eine zweite Gruppe von Artefakten, die hauptsächlich aufgrund der spe-
ziellen Eigenschaften oder Einstellungen des Ultraschallgerätes entstehen:
– Überreichweiteartefakte: Bei einer zu klein gewählten Pulswiederholrate PRF
kann es dazu kommen, dass bei der Aufnahme der n-ten A-Linie starke Echos
270 | Helmut Ermert, Christian Hansen

(a) (b)

5 cm 5 cm

(c) (d)

Abb. 8.37: Geometrische Verzerrungen in Ultraschallbildern am Beispiel des Kugel- Hohlraumphan-


toms, gefüllt mit dem umgebenden Wasser (a, c) und mit Isopropanol (b, d): schematische Skizze
der realen Strahlenverläufe (a, b) und B-Bilder (c, d). Die für den Strahlengang verwendeten Grau-
werte in den oberen Bildern (a, b) symbolisieren die von der Schallgeschwindigkeit abhängigen
Signallaufzeiten. Die Ultraschallbilder wurden mit einem Siemens Acuson Antares und dem Curved-
Array CH4-1 mit einer Mittenfrequenz von 2,5 MHz aufgenommen.

empfangen werden, die von Reflexionen des vorherigen Sendepulses in Schall-


strahl n-1 verursacht wurden. Solche Echos werden im B-Bild also in der falschen
A-Linie und in falscher (meist zu niedriger) Tiefe als Überreichweiteartefakt dar-
gestellt. Trotz einer Optimierung der PRF kommt es gelegentlich zu solchen stark
zeitverzögerten Echos aufgrund von Reflexionen hinter schwach dämpfenden Ob-
jekten oder hinter Objekten, deren Schallgeschwindigkeit stark negativ von der
angenommenen Schallgeschwindigkeit (1540 m/s) abweicht. Im ersten Fall gelan-
gen energiereiche Schallwellen in Gebiete unterhalb der eingestellten Bildtiefe.
Im zweiten Fall erreichen die Schallwellen die erwartete Bildtiefe zeitverzögert.
Überreichweiteartefakte können grundsätzlich durch eine Verringerung der PRF
eliminiert werden.
– Neben- und Gitterkeulen: In Abhängigkeit der geometrischen Ausgestaltung
der Sende- und Empfangsapertur kommt es in der Richtcharakteristik von Schall-
wandler-Arrays zu Neben- und Gitterkeulen (side- und gratinglobes, siehe
8 Ultraschall | 271

ϑ
w(χ)
x
W(ϑ)
Hauptkeule
Gitterkeule

Nebenkeule

ϑ
W(ϑ)
Hauptkeule
Gitterkeule

Nebenkeule

Abb. 8.38: Abstrahlverhalten eines Linear-Arrays: Arraygeometrie mit Aperturbelegungsfunktion


(oben), Hauptkeule, Neben- und Gitterkeulen beim Schwenkwinkel = 0° (Mitte), Hauptkeule, Neben-
und Gitterkeulen beim Schwenkwinkel > 0° (unten), rote Linie: Richtcharakteristik des Einzelele-
ments.

󳶳Abb. 8.38). Die Richtcharakteristik einer Apertur ist bei Fresnel- und Fraun-
hofer-Näherung proportional zu ihrer Fourier-Transformierten der Apertur-
belegungsfunktion (Szabo 2004). Bei einem Array entstehen daher gratinglobes
aufgrund der diskreten Verteilung der Einzelelemente und sidelobes aufgrund
der endlichen lateralen Breite der gesamten aktiven Apertur.
Gratinglobes werden vermieden, indem der Abstand zwischen den Einzelelemen-
ten (Pitch) klein gehalten wird. Die Einzelelemente eines Linear-Arrays können
beispielsweise so eng angeordnet werden, dass die entstehenden gratinglobes
(ohne Schwenken des Schallstrahls) außerhalb des Bildfeldes liegen. Soll der
Schallstrahl (wie beim Phased-Array) allerdings geschwenkt werden, so ist der
Pitch weiter zu verringern, da mit der Hauptkeule auch die gratinglobes in den
Bildbereich hineingeschwenkt werden. Sidelobes werden typischerweise durch
eine Amplituden-Gewichtung der Aperturfunktion (Apodisierung) in Form von
beispielsweise einem Hanning-Fenster auf Kosten der lateralen Auflösung unter-
drückt (Szabo 2004).
– Schichtdickenartefakte: Zu Schichtdickenartefakten kommt es aufgrund der
endlichen elevationalen Strahlbreite und der damit verbundenen Schichtdicke
eines Ultraschallbildes: Da sich die gesendeten Ultraschallpulse stets in einem
begrenzten Raumbereich ausbreiten, treffen sie eine Objektgrenze immer auch
272 | Helmut Ermert, Christian Hansen

Objekt elevationale
Schichtdicke 2D-Schnittebene

Schallwandler
(Seitenansicht)
Breite der
Fehldarstellung

Abb. 8.39: Zur Erläuterung des Schichtdickenartefakts.

an elevational verschiedenen Stellen (siehe 󳶳Abb. 8.39). Da sich die zum Schall-
wandler zurückzulegenden Weglängen für die Echos elevational benachbarter
Bereiche unterscheiden, treffen diese Echos kontinuierlich zeitverzögert am
Schallwandler ein. Im B-Bild kommt es daher zu einer zu dicken und unscharfen
Abbildung der Objektgrenze.

Die genannten Artefakte lassen sich anhand ihrer Richtungsabhängigkeit detektie-


ren. Bildet man die Arterie aus 󳶳Abb. 8.1 (b) aus verschiedenen Richtungen ab, so
verschiebt sich z. B. die dorsale Schallverstärkung im B-Bild. Eine hyperechogene Ge-
webestruktur würde hingegen stets an gleicher Stelle relativ zum Blutgefäß abgebil-
det.

8.5.4 Nichtlineare Bildgebung

Die bei der Schallwellenausbreitung auftretenden nichtlinearen Verzerrungen (vgl.


󳶳Kap. 8.3.2) führen dazu, dass im Spektrum der Echosignale nicht nur Frequenzan-
teile im Bereich der Grundfrequenz f0 (Fundamentalfrequenz oder 1. Harmonische),
sondern auch im Bereich ganzzahliger Vielfache dieser Grundfrequenz, also um 2 f0 ,
3 f0 etc., auftreten (Oberwellen oder höhere Harmonische). In einem stark vereinfach-
ten Modell wird zur Beschreibung der Gewebenichtlinearität das Empfangssignal u(t)
über eine Potenzreihe aus dem Sendesignal p(t) und den Faktoren q1 , q2 , . . . genähert:
u(t) = q1 ⋅ p(t) + q2 ⋅ p2 (t) + q3 ⋅ p3 (t) + . . . . (8.70)
Für das Empfangssignal zu einem monofrequenten Sendesignal p(t) = sin(𝜔0 t) mit
Mittenfrequenz f0 = 𝜔0 /2𝜋 gilt dann:
u(t) = q1 ⋅ sin(𝜔0 ⋅ t) + q2 ⋅ sin2 (𝜔0 ⋅ t) + q3 ⋅ sin3 (𝜔0 ⋅ t) + . . . (8.71)
= q1 ⋅ sin(𝜔0 ⋅ t)+
q2 ⋅ (1 + sin(2𝜔0 ⋅ t))+
q3 ⋅ (1 + sin(𝜔0 ⋅ t) + sin(3𝜔0 ⋅ t)) + . . . . (8.72)
8 Ultraschall | 273

Das Auftreten von Harmonischen ist in diesem Modell also darüber zu erklären, dass
quadratische Anteile im Empfangssignal zu Frequenzanteilen bei 2𝜔0 , kubische An-
teile zu Frequenzanteilen bei 3𝜔0 etc. führen. Wie nachfolgend gezeigt wird, kann
eine Auswertung allein der höheren Harmonischen im Rahmen der nativen Ultra-
schallabbildung zu Vorteilen gegenüber der rein fundamentalen Bildgebung führen.
Man spricht in diesem Zusammenhang von Harmonic Imaging.

Harmonic Imaging (nichtlineare Bildgebung): echosonographisches Abbildungsverfahren, bei


dem durch nichtlineares Verhalten des Übertragungsmediums (Gewebe) oder von Objekten (Kon-
trastmittel) erzeugte harmonische Spektralanteile des Sendesignals als Echosignale aufgenom-
men und für die Bildgebung verarbeitet werden.

Aufgrund der begrenzten Bandbreite von Ultraschallwandlern und der Breitbandig-


keit der Sende- und Empfangssignale lässt sich im Empfangsspektrum meist nur die
2. Harmonische um 2f0 nachweisen. Die Bilderzeugung allein aus Signalanteilen mit
Frequenzen um 2f0 wird als 2nd Harmonic Imaging bezeichnet. 󳶳Abb. 8.40 (a) und (c)

0 0
Betragsspektrum A(f) in dB

–10 –10

–20 –20

–30 –30

–40 –40

–50 –50

0 2 4 6 8 0 2 4 6 8
(a) Frequenz ƒ in MHz (b) Frequenz ƒ in MHz

0 0 0
2 2
–20
4 4
Tiefe s(t) in cm

6 6 –40
8 8
–60
10 10
12 12 –80
0 2 4 6 8 0 2 4 6 8
(c) Frequenz ƒ in MHz (d) Frequenz ƒ in MHz dB

Abb. 8.40: Spektren von konventionellen Empfangsechos (a, c) und von Empfangsechos bei Ver-
wendung der Phaseninversionstechnik (b, d). Dargestellt sind die Spektren der gesamten Emp-
fangssignale (a, b) und die Spektren über der Tiefe, die aus einer Fensterung in verschiedenen Tie-
fen resultieren (c, d). Das gezeigte Spektrum stammt von einer In-vivo-Aufnahme der Leber. Die
Aufnahme wurde mit einem Siemens Acuson Antares im THI-Modus (s. u.) unter Verwendung des
Schallwandlers CH4-1 gemacht.
274 | Helmut Ermert, Christian Hansen

1 1
Druck p(t) in MPa

Druck p(t) in MPa


0,5 0,5

0 0

–0,5 –0,5

–1 –1

0 2 4 6 8 0 2 4 6 8
(a) Zeit t in μs (b) Zeit t in μs

Tiefe s(t) in cm Tiefe s(t) in cm


2,45 2,55 2,65 2,45 2,55 2,65
60 6
unA(t), unB(t), un(t ) in a.u.

40
4
un(t), an(t) in a.u.

20
2
0
0
–20
–2
–40
–4
–60
32 33 34 32 33 34
(c) Zeit t in μs (d) Zeit t in μs

Abb. 8.41: Sendepulse (a, b) und Empfangssignale (c, d) bei der THI-Abbildung mittels Phase-
ninversionstechnik: (a) Sendepuls mit 0° Phasenlage; (b) Sendepuls mit 180° Phasenlage (blau:
Sendepuls aus (a)); (c) Empfangssignale unA (t) (blau) und unB (t) (grün) sowie deren Addition un (t)
(schwarz); (d) Summensignal un (t) und seine Einhüllende an (t).

zeigen das Empfangsspektrum (über der Tiefe) eines Empfangssignals zum Sendepuls
mit Mittenfrequenz f0 = 2,25 MHz (vgl. 󳶳Abb. 8.41 (a)). Während der Pegel der 2. Har-
monischen deutlich unter dem der 1. Harmonischen liegt, überlappen die signaltra-
genden Frequenzbereiche beider Harmonischen stark. Eine einfache Bandpass-Filte-
rung um 2f0 = 4,5 MHz führt daher entweder dazu, dass nicht alle Frequenzanteile der
1. Harmonischen ausgeblendet werden oder dass die 2. Harmonische nicht vollstän-
dig erfasst wird. Auch muss eine solche Filterung tiefenabhängig durchgeführt wer-
den, da es aufgrund der frequenz- und tiefenabhängigen Dämpfung (vgl. 󳶳Kap. 8.3.1)
typischerweise zu einer Verminderung der Bandbreite in der Tiefe und damit zu ei-
ner scheinbaren Verschiebung des Spektrums zu niedrigeren Frequenzen kommt (vgl.
󳶳Abb. 8.40 (c)).
8 Ultraschall | 275

Eine effiziente Technik, Signalanteile der 1. Harmonischen im Rahmen des 2nd


Harmonic Imaging zu unterdrücken, ist die Phaseninversionstechnik (auch Pulsin-
versionstechnik) [Chapman et al. 1997, Hope Simpson et al. 1999]. Bei dieser Technik,
die bereits für viele kommerziell erhältliche Ultraschallgeräte verfügbar ist, wird der
Puls-Echo-Betrieb zu jedem Schallstrahl nacheinander mit zwei Sendepulsen ausge-
führt, deren Phasenlagen um 180° gegeneinander verschoben sind (phasenkodierte
Pulssequenz). Die PRF ändert sich hierbei nicht. Für jeden Schallstrahl liegen somit
zwei Empfangsechos unA (t) und unB (t) vor. Vor der Hüllkurvendetektion werden diese
hochfrequenten Empfangsechos addiert, um die Beiträge der Grundfrequenz f0 und
aller ggf. empfangenen, ungeradzahligen Vielfachen (3f0 , 5f0 etc.) zu unterdrücken:

un (t) = unA (t) + unB (t) (8.73)

Da bei der Phaseninversionstechnik ein Ultraschallframe aus den addierten Emp-


fangsechos besteht, wird die Framerate ffr entsprechend halbiert (Die Framerate
[Bildwiederholrate] bezieht sich auch bei Verwendung der Phaseninversionstechnik
auf die dargestellten Ultraschallbilder). 󳶳Abb. 8.41 zeigt zwei zueinander phasenin-
vertierte Sendepulse (a und b). Zusätzlich zeigt 󳶳Abb. 8.41 die Empfangsechos unA (t)
und unB (t) (c) sowie das resultierende Echo un (t) und seine Einhüllende an (t) (d).
Die gezeigten Empfangssignale stammen von einer In-vivo-Aufnahme der Leber
(󳶳Abb. 8.42). Das aus dem Echosignal un (t) berechnete Spektrum ist dem Spektrum
nur eines Empfangssignals unA (t) in 󳶳Abb. 8.40 gegenübergestellt. Man sieht deutlich,
wie fast sämtliche Frequenzanteile um f0 unterdrückt werden und nur Frequenzan-
teile um 2f0 verbleiben. Die Bandbreite Δf um diese 2. Harmonische ist größer als die
Bandbreite der 1. Harmonischen allein.

Phase Inversion (dt. Phasenumkehr): Konzept zur Erzeugung und Aussendung einer Sequenz von
Sendesignalen für die nichtlineare Abbildung, bei der das zweite Sendesignal durch Phasenum-
kehr aus dem zuerst ausgesandten Sendesignal gewonnen wird.

Für das Tissue Harmonic Imaging (THI) ergeben sich bei Verwendung der Phasenin-
versionstechnik folgende Vorteile gegenüber der herkömmlichen B-Bildgebung:
– Axiale Auflösung: Aufgrund einer größeren nutzbaren Signalbandbreite, die
nach der Addition der Echosignale unA (t) und unB (t) um die 2. Harmonische
vorliegt, verbessert sich die axiale Auflösung.
– Laterale Auflösung: Die Empfangssignale weisen die doppelte Mittenfrequenz
auf wie die Sendesignale. Außerdem unterscheiden sich die Richtcharakteristiken
im Sende- und Empfangsfall aufgrund der verschiedenen Mittenfrequenzen. Die
Lage von Side- und Gratinglobes (vgl. 󳶳Kap. 8.5.3) variiert daher für beide Fälle.
Beide Effekte führen gemeinsam zu einer Verbesserung der lateralen Auflösung.
– Elevationale Auflösung: Auch die elevationale Auflösung wird verbessert. Die
Gründe entsprechen denen, die für die laterale Auflösung aufgezählt wurden.
276 | Helmut Ermert, Christian Hansen

– Abbildung von Ultraschallkontrastmitteln: Es besteht die Möglichkeit, die


Phaseninversionstechnik zur Abbildung von Ultraschallkontrastmitteln einzu-
setzen. Diese Anwendung wird in 󳶳Kapitel 8.7.3 ausführlich beschrieben.

Nachteilig wirken sich bei der THI-Abbildung folgende Eigenschaften aus:


– Signal-Rausch-Verhältnis: Aufgrund der geringen Signalamplituden der 2. Har-
monischen (vgl. 󳶳Abb. 8.41 (d)) kommt es zu einer Verminderung des Signal-
Rausch-Verhältnisses (SNR) (vgl. 󳶳Abb. 8.40).
– Tiefenabhängige Ausprägung der 2. Harmonischen: Die nichtlinearen Verzer-
rungen der Schallwellen bilden sich während ihrer Ausbreitung im Gewebe aus.
Es können daher erst ab einer gewissen Tiefe auswertbare Echosignale empfan-
gen werden. Die Stärke der nichtlinearen Verzerrungen hängt überdies von der
Leistungsdichte ab, die lokal aufgrund der Fokussierung und Dämpfung variiert.
Dies führt ebenfalls zu einer Tiefenabhängigkeit.
– Tiefenabhängigkeit beim Empfang: Die gestreuten Anteile der 2. Harmoni-
schen erfahren aufgrund ihrer höheren Frequenzen eine stärkere Dämpfung als
die fundamentalen Frequenzanteile. Dies vermindert die maximal darstellbare
Bildtiefe im Vergleich zur herkömmlichen B-Bildgebung.

Die genannten Eigenschaften des THI sind in 󳶳Abb. 8.42 zu sehen. Hier wird ein kon-
ventionelles B-Bild einem THI-Bild gegenübergestellt. Beide Bilder wurden aus dem-
selben THI-Datensatz berechnet, der bei der Abbildung einer Leber gewonnen wurde.

Tissue Harmonic Imaging (THI; dt. Gewebebildgebung mit höheren Harmonischen): nichtlineare
Abbildung (siehe Harmonic Imaging), die auf der nichtlinearen Wirkung des Übertragungsmedi-
ums (z. B. des biologischen Gewebes) basiert.

5 0
–10

–20
10
z in cm

–30

–40
15
–50

–60
–10 0 10 –10 0 10
x in cm x in cm dB
(a) (b)

Abb. 8.42: B-Bild (a) und THI-Bild (b) der Leber. Beide Bilder wurden aus demselben Datensatz be-
rechnet. Die Aufnahme wurde mit einem Siemens Acuson Antares im THI-Modus unter Verwendung
einer HF-Daten-Schnittstelle und mit dem Schallwandler CH4-1 gemacht.
8 Ultraschall | 277

Die Konzepte der Signalverarbeitung bei der nichtlinearen Abbildung variieren bei
den verschiedenen Geräteherstellern ebenso wie die Bezeichnungen. Bei den Verfah-
ren, die auf der Basis der Nichtlinearität des Gewebes arbeiten, hat sich die Bezeich-
nung „Tissue Harmonic Imaging“ (THI) international allgemein durchgesetzt, auch
wenn es neben dem Verfahren der Pulsinversion, welches die oben beschriebenen Un-
symmetrien bezüglich positiver und negativer Echosignalanteile nutzt, andere Verfah-
ren gibt, bei denen die Reaktion des Gewebes auf unterschiedliche Signalleistungspe-
gel (power modulation) ausgenutzt werden [Cobbold 2007, Jiang et al. 1998].

8.5.5 Prinzipien der dreidimensionalen Ultraschallabbildung

Die konventionelle Sonographie bildet Objekte im zweidimensionalen Schnittbildver-


fahren ab. Mit zunehmender Rechenleistung und der damit verbundenen Möglichkeit
zur schnellen Verarbeitung großer Datenmengen sind zunehmend aber auch Verfah-
ren in den Fokus der Entwicklung und Anwendung gerückt, die eine dreidimensionale
Abbildung von Objekten ermöglichen. Hierdurch können Objekte vollständig über ih-
re Ausdehnung in alle drei Raumrichtungen abgebildet werden. Grundlage der zurzeit
eingesetzten 3D-Verfahren ist allerdings stets die oben vorgestellte zweidimensionale
Schnittbildgebung.
Um einen dreidimensionalen Ultraschalldatensatz aufzunehmen, werden üb-
licherweise mehrere 2D-Ultraschallframes in nebeneinander liegenden Bildebenen
aufgenommen und anschließend zueinander in ein geometrisch korrektes Verhält-
nis gesetzt. 󳶳Abb. 8.43 zeigt schematisch zwei mögliche Aufnahmetechniken. In
󳶳Abb. 8.43 (a) wird der Schallwandler in elevationaler Richtung verschoben, wo-
bei nacheinander die parallelen Bildebenen A, B, C usw. abgebildet werden. In
󳶳Abb. 8.43 (b) werden die elevational benachbarten Bildebenen A, B, C usw. durch
Schwenken der Bildebene abgebildet. In beiden Fällen kann der Volumendatensatz
anschließend aus den aufgenommenen Ultraschallframes durch eine dreidimensio-
nale Interpolation vollständig gefüllt werden, so dass alle Voxel dieses Datensatzes
Informationen tragen. Hierbei ist darauf zu achten, dass die Abtastung durch die
Bildebenen in elevationaler Richtung dicht genug erfolgt und das Abtasttheorem
erfüllt bleibt.
Grundsätzlich können die Verfahren zur Erfassung eines Volumendatensatzes be-
züglich folgender Eigenschaften unterteilt werden:
– Scanpfad: Wie 󳶳Abb. 8.43 zeigt, können Aufnahmeverfahren anhand des Scan-
pfades unterschieden werden. Es existiert die Möglichkeit der translatorischen
Verschiebung der Bildebene, ihres Schwenkens oder einer Kombination aus bei-
dem.
– Automatisierungsgrad: Es kann unterschieden werden, ob die Bildebene frei-
händig oder automatisiert bewegt wird. Im ersten Fall ist der Schallwandler ma-
278 | Helmut Ermert, Christian Hansen

A
F

E B
D C
(a) C B A (b)

Abb. 8.43: Schematische Darstellung zweier Verfahren zur Aufnahme eines Ultraschallvolumenda-
tensatzes. (a) Verschiebung des Schallwandlers. (b) Schwenken der Bildebene.

nuell zu verfahren bzw. zu verkippen. Im zweiten Fall sind mechanische oder elek-
tronische Hilfsmittel zur gesteuerten Wandlerbewegung nötig.
– Art der automatisierten Bewegung: Wird die Bildebene gemäß dem vorherigen
Punkt automatisiert bewegt, so kann zwischen einer mechanischen Bewegung
des gesamten Schallwandler-Arrays und dem elevationalen Schwenken der Bild-
ebene mittels eines elektronischen Beamforming unterschieden werden.
– Art der Registrierung: Um die aufgenommenen Ultraschallframes in eine geo-
metrisch korrekte Beziehung zueinander zu bringen (󳶳Registrierung), existieren
verschiedene Möglichkeiten. Bei der automatisierten Bewegung bietet es sich an,
die Position und Orientierung des Arrays bzw. die Abstrahlwinkel der Ultraschall-
pulse zu jedem Frame zu speichern. Bei Freihandverfahren können einerseits Po-
sitionserfassungssysteme eingesetzt werden, um die Position und Orientierung
des Arrays jeweils zu ermitteln. Andererseits können aber auch bildbasiert (bei-
spielsweise über Korrelationsverfahren) die Informationen der aufgenommenen
Ultraschallframes in gegenseitige Beziehung gesetzt werden.

Ohne dass der Einsatz zusätzlicher experimenteller Aufbauten erforderlich ist, un-
terstützen klinische Ultraschallgeräte häufig sowohl Freihandverfahren als auch au-
tomatisierte Verfahren zur Aufnahme von 3D-Datensätzen. Während die Freihand-
verfahren nur die Installation zusätzlicher Software auf den Ultraschallgeräten er-
fordern, werden für die automatisierte Aufnahme spezielle Schallwandler benötigt.
Derzeit sind zwei Arten von Schallwandlern kommerziell erhältlich, die beide die Bild-
ebene gemäß 󳶳Abb. 8.43 (b) automatisch schwenken: Zum einen existieren Wandler,
die ein 1D-Curved-Array in einem größeren Gehäuse mechanisch um eine feste Achse
drehen (󳶳Abb. 8.45). Zum anderen existieren 2D-Phased-Arrays, sogenannte Matrix-
Wandler [Dausch et al. 2008], welche die Bildebene über ein elektronisches Beam-
8 Ultraschall | 279

geschwenktes 2D-Array
1D-Array

e
n n lev
Sca (m ale atio n
elevationaler ler isch) ec r S - Sca
ra ha ca ler isch)
Scan late ktron nis n ra
late ktron
(mechanisch) (ele ch
) (ele

(a) (b)

Abb. 8.44: Arrays für die 3D-Abbildung: mechanisch geschwenktes 1D-Array (a), 2D-Array (b).

forming in elevationaler Richtung schwenken (󳶳Abb. 8.44). Bildbeispiele für beide


Versionen sind in 󳶳Abb. 8.46 zu finden.

8.6 Doppler-Verfahren
8.6.1 Der Doppler-Effekt

Ein Vorteil bei der Anwendung von Ultraschall in der medizinischen Diagnostik be-
steht darin, dass sich Bewegungen mit relativ geringem technischem Aufwand durch
die Nutzung des Doppler-Effektes messen und auch visualisieren lassen. Dieses ist
insbesondere für die Messung und Darstellung von fließendem Blut von Interesse. Der
Doppler-Effekt wurde von dem österreichischen Physiker C. A. Doppler [Gill 1965]
beschrieben und besteht darin, dass sich bei der Wellenausbreitung zwischen Sen-
dern und Empfängern die Frequenzen bzw. Spektren der Empfangssignale gegenüber
denen der Sendesignale verändern, wenn sich Sender und/oder Empfänger in der
Sende- bzw. Empfangsphase relativ zueinander bewegen. Falls sich infolge der Rela-
tivbewegung zwischen Sender und Empfänger der Übertragungsweg verkürzt, erfolgt
beim Empfangssignal eine spektrale Verschiebung zu höheren Frequenzen hin, bei
einer Verlängerung der Wegstrecke gibt es eine Verschiebung zu niedrigeren Frequen-
zen.

Doppler-Effekt: Verschiebung von Frequenzen bzw. Spektren von Signalen während der wellen-
förmigen Ausbreitung infolge der Bewegung des Senders und/oder des Empfängers und/oder ei-
nes im Wellenfeld befindlichen Streuobjektes.
280 | Helmut Ermert, Christian Hansen

Abb. 8.45: Schall-


kopf mit mecha-
nisch schwenkendem
Curved-Array: Ge-
samtansicht (a),
(a) (b) Innenansicht (b).

(a)

Abb. 8.46: 3D-


Ultraschall-Abbil-
dungen: Pränataldia-
gnostik, mechanisch
schwenkendes 1D-
Array (a), Kardiologie,
2 D-Array (b). (Mit
freundlicher Geneh-
migung des MedAr-
chivs der Siemens
(b) AG).
8 Ultraschall | 281

Ähnlich wie bei Radarverfahren gibt es beim diagnostischen Ultraschall die Beson-
derheit, dass Sender und Empfänger identisch und stationär sind und dass hier der
Doppler-Effekt dadurch hervorgerufen wird, dass durch die Bewegung eines reflek-
tierenden bzw. rückstreuenden Objektes während der Wechselwirkung mit dem Sig-
nal die aus Hinweg (Sender – Objekt) und Rückweg (Objekt – Empfänger) bestehende
Gesamtstrecke verändert, d. h. verkürzt oder verlängert, wird. Diese Situation wird im
Folgenden anhand der 󳶳Abb. 8.47 erläutert.
Das Sendesignal und das Empfangssignal sollen hier ganz allgemein, unabhängig
von ihrer physikalischen Natur, durch die Zeitfunktionen fS (t) bzw. fE (t) beschrieben
werden. Für das Empfangssignal lässt sich der Ausdruck

fE (t) = A ⋅ fS (t − 𝜏) (8.74)

angeben, in dem A ein Amplitudenfaktor und 𝜏 die Verzögerung ist, die das Echosignal
gegenüber dem Sendesignal wegen des Laufweges 2z0 (Hin- und Rückweg zwischen
Wandler und Streuer) erfährt. Dabei soll näherungsweise angenommen werden, dass
die Amplitude der Rückstreuung frequenz- und entfernungsunabhängig ist. Falls sich
das Streuobjekt bewegt, trägt näherungsweise nur die z-Komponente der Geschwin-
digkeit vz zur Entfernungsänderung bei. Der Abstand Wandler – Streuer ändert sich
gemäß
z = z0 + vz t , (8.75)
und die Verzögerung 𝜏 wird zu einer Zeitfunktion entsprechend
2 2v
𝜏(t) = (z + vz t) = 𝜏0 + z t , (8.76)
c0 0 c0
in der c die frequenzunabhängige Ausbreitungsgeschwindigkeit und z0 ein Anfangs-
wert für den Abstand Wandler – Streuer ist, der zu einem zeitunabhängigem Anteil 𝜏0
der Laufzeitverzögerung führt. Für das Echosignal ergibt nun sich der Ausdruck

fE (t) = A ⋅ fS (b ⋅ t − 𝜏0 ) (8.77)

mit
2vz
b = (1 − ). (8.78)
c0

Sendesignal ν→
ƒS(t) νX
ϑ
Schallwandler
νZ
Objekt
ƒE(t) Echosignal

0 z0 z

Abb. 8.47: Zur Erläuterung des Doppler-Effektes bei bewegtem Streuziel.


282 | Helmut Ermert, Christian Hansen

Es lässt sich erkennen, dass beim Echosignal die Zeitachse gegenüber dem Sende-
signal durch einen Faktor b gestaucht oder gestreckt wird, je nachdem, ob sich das
Streuobjekt zum Wandler hin bewegt (vz < 0, b > 1, „Rückwärtsbewegung“) oder vom
Wandler entfernt (vz > 0, b < 1, „Vorwärtsbewegung“). Während der Faktor b eine
spektrale Veränderung des Echosignals beschreibt, haben die Anfangswerte z0 und
𝜏0 keinen Einfluss auf diese Veränderung und sollen im Folgenden unberücksichtigt
bleiben.
Für ein monofrequentes Signal

fS (t) = cos(𝜔0 t) = cos(2𝜋f0 t) (8.79)

erhält man nun mit


fE (t) = A ⋅ fS (b ⋅ t) (8.80)
das Echosignal
fE (t) = A ⋅ cos(𝜔0 − 𝜔D )t , (8.81)
in dem die spektrale Veränderung („Doppler-Verschiebung“) durch den Ausdruck
2vz 2vz
𝜔D = 𝜔 bzw. fD = f (8.82)
c0 0 c0 0

gegeben ist. Die Doppler-Frequenz fD liegt bei den vorliegenden Gegebenheiten


(Flussgeschwindigkeiten in den Blutgefäßen, Schallgeschwindigkeit im Gewebe und
im Blut, übliche Sendefrequenzen f0 ) in einem Frequenzbereich, der bei einer akus-
tischen Wiedergabe im Bereich des menschlichen Hörvermögens liegt. Von dieser
nützlichen Option wird in den Doppler-Systemen Gebrauch gemacht. Darauf wird
weiter unten noch eingegangen.
Bei der Anwendung von Ultraschall-Doppler-Verfahren in der Medizin kommt es
nur in seltenen Fällen vor, dass der Blutfluss exakt in der Richtung der Schallwellen-
ausbreitung erfolgt. Eine typische Anordnung, bei der die Richtung der Schallwellen-
ausbreitung und die Richtung des Blutflusses nicht gleich sind, ist in 󳶳Abb. 8.48 dar-
gestellt.

Schallwandler

Kontaktgel
Hautoberfläche

ϑ
Blutgefäß ν→
Abb. 8.48: Typische Anordnung bei der Dopp-
ler-Sonographie.
8 Ultraschall | 283

In einer solchen Anordnung muss berücksichtigt werden, dass der Doppler-


Effekt, wie bereits oben erläutert, nur durch die Richtungskomponente des Ge-
schwindigkeitsvektors bewirkt wird, die parallel zur Schallausbreitungsrichtung ist.
Um die Geschwindigkeit aus der Doppler-Messung bestimmen zu können, muss der
Neigungswinkel 𝜗 bekannt sein. Die Doppler-Verschiebung ergibt sich damit aus
󵄨 󵄨
2 󵄨󵄨v⃗󵄨󵄨
fD = sign {vz } 󵄨 󵄨 ⋅ f0 ⋅ cos 𝜗 , (8.83)
c
während sich der Betrag der Flussgeschwindigkeit aus

󵄨󵄨 ⃗󵄨󵄨 c0 󵄨󵄨󵄨󵄨 fD 󵄨󵄨󵄨󵄨


󵄨󵄨v󵄨󵄨 = 󵄨 󵄨. (8.84)
2 cos 𝜗 󵄨󵄨󵄨 f0 󵄨󵄨󵄨

berechnen und die Richtung der z-Komponente des Geschwindigkeitsvektors aus dem
Vorzeichen von fD ableiten lässt.
Die Geschwindigkeitskomponente senkrecht zur Wellenausbreitungsrichtung
wird bei Anwendung von Doppler-Radar-Verfahren im Luftverkehr „Blindgeschwin-
digkeit“ genannt. Dieser Ausdruck beschreibt das Phänomen, dass ein Flugkörper im
Radarbild nicht sichtbar ist, wenn er sich zum Beispiel auf einer Kreisbahn um die Po-
sition des Radarsystems bewegt und damit seine Entfernung zum Radarsystem nicht
verändert. Der Einfluss einer lateralen Geschwindigkeitskomponente ist aber nur
näherungsweise verschwindend klein. Da beim Ultraschall in der Regel mit fokussie-
renden Wandlern gearbeitet wird, die relativ stark gebündelte Schallwellen erzeugen,
bewirkt das laterale Durchqueren eines Schallstrahls durch ein Streuobjekt eine Va-
riation der Amplitude des Rückstreusignals. Diese Art der Amplitudenmodulation
führt auch zu einer Beeinflussung des Spektrums des Echosignals, was wiederum die
Genauigkeit der Geschwindigkeitsbestimmung reduzieren kann. Andererseits bietet
eine genaue Auswertung dieses Phänomens auch die Möglichkeit, Informationen
über die laterale Bewegung des Objektes zu gewinnen.
Bei der Anwendung von Ultraschall-Doppler-Verfahren zur Messung der Ge-
schwindigkeit von fließendem Blut muss natürlich auch beachtet werden, dass es sich
hier nicht, wie bisher oben angenommen, um jeweils einzelne Streuobjekte handelt,
die sich durch eine bestimmte Geschwindigkeit und eine bestimmte Geschwindig-
keitsrichtung auszeichnen, sondern durch eine strömende Flüssigkeit, die sich aus
einem Gemenge von Partikeln zusammensetzt, die in unterschiedlicher Weise zur
Rückstreuung von Schallsignalen beitragen.
Beim Blut handelt es sich um eine Suspension aus zellularen und fluiden Bestand-
teilen. Letztere machen beim Menschen etwa 55 % des Blutvolumens aus, bestehen
zu 90 % aus Wasser und werden als Blutplasma bezeichnet. Die restlichen 45 % be-
stehen zu ca. 95 % aus roten Blutkörperchen (Erythrozyten), zu 0,13 % aus weißen
Blutkörperchen (Leukozyten) und zu 4,87 % aus Blutplättchen (Thrombozyten). In
󳶳Tab. 8.6 sind die Größen und die Volumenanteile der zellulären Bestandteile des Blu-
tes zusammengestellt.
284 | Helmut Ermert, Christian Hansen

Tab. 8.6: Dichte und Größe der Blutkörperchen im menschlichen Blut.

Zelluläre Bestandteile Mittlere Anzahl in 106 /ml Mittlerer Durchmesser in μm


Erythrozyten 4800...5400 8,4
Leukozyten ∼ 7,4 ∼ 7 . . . 20
Thrombozyten ∼ 280 2...5

Das akustische Streuverhalten von Blut im Ultraschallbereich ist ausführlich un-


tersucht worden [Shung 2006, Xu 1997]. Die Erythrozyten tragen im Wesentlichen zum
akustischen Rückstreuverhalten des Blutes bei, wie auch die Werte in 󳶳Tab. 8.6 zei-
gen. Trotz ihrer hohen Konzentration im Blut sind die Echopegel, die durch die ro-
ten Blutkörperchen erzeugt werden, relativ klein und liegen ca. 30. . . 50 dB unterhalb
der Echopegel aus den stationären Anteilen des biologischen Gewebes. Entsprechend
empfindlich muss die Empfangselektronik der Doppler-Systeme ausgelegt werden.
Es ist aber zu beachten, dass die Flussgeschwindigkeiten innerhalb eines Gefäß-
querschnitts räumlich nicht konstant sind. Zum Beispiel sind die Geschwindigkeiten
bei einem laminaren Flusszustandes innerhalb eines Gefäßquerschnittes nach einem
parabolischen Profil verteilt. Bei turbulenten Strömungen sind die Geschwindigkeits-
verteilungen wesentlich komplexer. In Anbetracht der Tatsache, dass der Blutfluss au-
ßerdem durch die Druckveränderungen, die durch die periodische Pumpfunktion des
Herzen erzeugt werden, zeitlich verändert wird, stellen sich die Messung und die Dar-
stellung des Blutflusses als komplexes räumlich-zeitliches Messproblem dar.

8.6.2 CW-Doppler-Verfahren

Doppler-Sonographie: Methode zur Bestimmung der Geschwindigkeit von fließendem Blut (oder
auch der Bewegung von Gewebe) mithilfe eines Ultraschallsystems. Die Methode basiert auf dem
Doppler-Effekt (benannt nach Christian Doppler).

Continuous Wave (CW; dt. Dauerstrich): Betriebsart mit kontinuierlichen Wellenformen (z. B. Si-
nuswellen).

Das sogenannte CW-Doppler-Verfahren (continuous wave, CW) ist das älteste und
technisch einfachste Doppler-Verfahren der Ultraschalldiagnostik. Es wird sowohl
perkutan in einer der 󳶳Abb. 8.48 entsprechenden Anordnung als auch intravaskulär
mittels kleiner Sonden angewandt, wobei im letzteren Fall bei einer im Gefäß inner-
halb der Blutströmung positionierten Sonde die Winkelkorrektur entfällt. Im stark
vereinfachten Fall einer zeitlich und räumlich konstanten Blutströmung entsteht ein
Echospektrum gemäß 󳶳Abb. 8.49 (a), das sich aus einer spektral unveränderten Li-
nie, die den Anteil der Festziele repräsentiert, und einer spektral verschobenen Linie,
8 Ultraschall | 285

die dem Echo aus dem fließenden Blut zuzuordnen ist, zusammensetzt. Im realen
Fall nimmt das Echospektrum eher eine Verteilung nach 󳶳Abb. 8.49 (b) an, die da-
durch gekennzeichnet ist, dass die Spektrallinien verbreitert sind. Die Verbreiterung
in der Umgebung von ± 𝜔0 lässt sich damit erklären, dass einige Gewebebereiche,
insbesondere die Gefäßwände, Bewegungen durchführen, die vom Doppler-System
erfasst werden. Die Verbreiterung der Linie ± (𝜔0 − 𝜔D ) hängt ursächlich mit der
räumlich inhomogen verteilten Fließgeschwindigkeit des Blutes in dem erfassten
󵄨 󵄨
Gefäß zusammen. Die Spektralanteile bei |𝜔| > 󵄨󵄨󵄨𝜔0 󵄨󵄨󵄨 deuten auf Blutfluss in umge-
kehrter Richtung hin. Dieser Anteil kann z. B. von anderen Gefäßen stammen, die
bei der Doppler-Messung mit erfasst werden. Es gibt aber auch Gefäßstrukturen, in
deren Querschnitten sich Bereiche befinden, in denen zu gleicher Zeit Blutfluss mit
entgegengesetzten Flussrichtungen auftritt.

Nichtdirektionale Signalverarbeitung
Die einfachste Form der Auswertung der Echosignale besteht in einer Signalverarbei-
tung, bei der die verschiedenen Flussrichtungen nicht unterschieden werden. Ein sol-
ches nichtdirektionales Verfahren lässt sich mit einer Schaltung nach 󳶳Abb. 8.50 rea-
lisieren, in der das Echosignal mittels eines als Multiplikator wirkenden Mischers mit
einem monofrequenten Signal gemischt wird, das dieselbe Frequenz 𝜔0 besitzt wie
das Sendesignal.
Die Signalverarbeitung sei hier der Anschaulichkeit wegen an einem einfachen
Beispiel erläutert, bei dem nur ein Geschwindigkeitswert auftritt. Es sei

fS (t) = A ⋅ cos 𝜔0 t (8.85)

ΩFEΩ
ΩFEΩ

ωD

–ω₀ ω₀ ω –ω₀ ω₀ ω
(a) (b)

Abb. 8.49: Echo-Spektren beim CW-Doppler: Idealisierter Fall (a), realer Fall (b).

ƒE(t) ƒM(t) ƒD(t)


BP

Abb. 8.50: Abwärtsmischung des Echosignals


cos(ω₀t) bei der nichtdirektionalen Signalverarbeitung.
286 | Helmut Ermert, Christian Hansen

f0 /MHz 1 10 100
vz Tab. 8.7: Einige typische Zahlenbeispiele für die
cm/s
Doppler-Verschiebung fD gemäß 󳶳 Gl. (8.82).
1 13,3 133 1 333 Hz
3,5 46,6 466 4 655 Hz
5 656 665 6 650 Hz
10 133 1 333 13 333 Hz

das Sendesignal, das bei einer Flussgeschwindigkeit vz vom bewegten Ziel ein Echo-
signal
fE (t) = B ⋅ cos b𝜔0 t (8.86)
mit b gemäß 󳶳Gl. (8.78) hervorruft. (Echos von nicht-bewegten Zielen sollen hier nicht
betrachtet werden.) A und B seien beliebige Amplitudenfaktoren, c sei die Schallge-
schwindigkeit. Die Multiplikation führt zu einem Signal

fM (t) = fE (t) ⋅ cos 𝜔0 t = B ⋅ cos (b𝜔0 t) ⋅ cos 𝜔0 t (8.87)

am Ausgang des Mischers, das sich gemäß


B
fM (t) = [cos (𝜔0 (1 − b) t) + cos (𝜔0 (1 + b) t)] (8.88)
2
aus zwei Frequenzanteilen zusammensetzt, von denen der höherfrequente Anteil
durch die nachfolgende Bandpassfilterung unterdrückt wird. Am Ausgang des Sys-
tems wird das Signal
B B 2𝜔 v B
fD (t) = ⋅ cos [𝜔0 (1 − b) t] = ⋅ cos 0 z t = cos 𝜔D t (8.89)
2 2 c0 2

erzeugt, dessen Frequenz 𝜔D = 2𝜋fD bei den üblichen Ultraschallfrequenzen und den
vorkommenden Flussgeschwindigkeiten im Bereich des menschlichen Hörvermögens
liegt.
In 󳶳Tab. 8.7 sind einige Werte der möglichen Doppler-Frequenzen zusammenge-
stellt, die veranschaulichen, dass die erzeugten Signale hörbar gemacht werden kön-
nen. Diese akustische Information ist für geübte Anwender des Verfahrens außeror-
dentlich nützlich.

ΩFMΩ

–2ω₀ 2ω₀ ω

Abb. 8.51: Ausgangssignal des Mischers.


8 Ultraschall | 287

In 󳶳Abb. 8.51 wird gezeigt, wie sich die Bandpassfilterung auf ein typisches Dopp-
ler-Signal auswirkt. Der Bandpass, dessen Frequenzgang durch die gestrichelte Linie
gekennzeichnet ist, ist so dimensioniert, dass alle hochfrequenten Signalanteile und
solche niederfrequente Anteile, die auf sehr geringe Geschwindigkeiten (Bewegung
der Gefäßwände im Herzzyklus) zurückzuführen sind, unterdrückt werden („Wandfil-
ter“). Es ist auch zu erkennen, dass im abwärtsgemischten Signal die Flussanteile mit
entgegengesetzten Richtungen (vorwärts/rückwärts) nicht mehr unterscheidbar sind.

Direktionale Signalverarbeitung
Das Ziel einer Unterscheidbarkeit der Flussrichtungen kann mit einer direktionalen
Signalverarbeitung erreicht werden. Das klassische Konzept besteht in einer zweika-
naligen Verarbeitung nach dem Prinzip der Quadraturdemodulation. Ein Blockschalt-
bild ist in 󳶳Abb. 8.52 dargestellt.

Quadraturdemodulation: zweikanalige Demodulation eines Signals durch Abwärtsmischung mit


zueinander orthogonalen Mischersignalen (Sinus/Kosinus).

Die Funktion dieses Verfahrens soll anhand eines Echosignalspektrums erläutert wer-
den, wie es in 󳶳Abb. 8.53 dargestellt ist. Es setzt sich aus Signalanteilen zusammen,
die durch vorwärts (V) und rückwärts (R) fließendes Blut hervorgerufen werden. Au-

ƒC1(t) ƒC2(t) ƒC3(t) +


BP τH ƒV(t)
+

ƒE(t) cos(ω₀t)
sin(ω₀t)

ƒS1(t) ƒS2(t) +
BP H ƒR(t)
ƒS3(t) –

Abb. 8.52: Direktionale Signalverarbeitung beim CW-Doppler: Quadraturdemodulation.

FE(w)

W W

R V V R

–ω₀ – ωD –ω₀ –ω₀ + ωD 0 ω₀ – ωD ω₀ ω₀ + ωD

Abb. 8.53: Echosignalspektrum bei Flussanteilen in Vorwärts- und Rückwärtsrichtung.


288 | Helmut Ermert, Christian Hansen

Durchlass-
Charakteristik

Abb. 8.54: Bandpass-Charakteristik des Wand-


–ω₀ –ωD 0 ωD ω₀ filters.

ßerdem sind Anteile hoher Amplitude enthalten, die von stationären und sehr lang-
sam bewegten Gewebebereichen, vorwiegend von den Gefäßwänden (W), stammen.
Das Spektrum FE (𝜔) des Echosignals fE (t) lässt sich durch folgenden Ausdruck
beschreiben:
FE (𝜔) = +V(𝜔 − 𝜔0 + 𝜔D ) + W(𝜔 − 𝜔0 ) + R(𝜔 − 𝜔0 − 𝜔D )
+ V(𝜔 + 𝜔0 − 𝜔D ) + W(𝜔 + 𝜔0 ) + R(𝜔 + 𝜔0 + 𝜔D ) (8.90)
Im oberen Signalzweig ergibt die Multiplikation mit dem Signal cos(𝜔0 t) in der Zeit-
bereichsdarstellung
1
fC1 (t) = fE ⋅ [ej𝜔0 t + e−j𝜔0 t ] (8.91)
2
und im Spektralbereich eine Faltung gemäß

FC1 (𝜔) ∼ FE (𝜔) ∗ [𝛿(𝜔 − 𝜔0 ) + 𝛿(𝜔 + 𝜔0 )] , (8.92)

wobei Amplitudenfaktoren weggelassen wurden. Die Faltungsoperationen bewirken


eine Spektralverschiebung der einzelnen Anteile gemäß
FC1 (𝜔) = +V(𝜔 + 𝜔D ) + W(𝜔) + R(𝜔 − 𝜔D )
+ V(𝜔 − 𝜔D ) + W(𝜔) + R(𝜔 + 𝜔D )
+ V(𝜔 − 2𝜔0 + 𝜔D ) + W(𝜔 − 2𝜔0 ) + R(𝜔 − 2𝜔0 − 𝜔D )
+ V(𝜔 + 2𝜔0 − 𝜔D ) + W(𝜔 + 2𝜔0 ) + R(𝜔 + 2𝜔0 + 𝜔D ) (8.93)
Der Bandpass in 󳶳Abb. 8.54 mit seiner Wandfilterfunktion unterdrückt die hochfre-
quenten und die sehr niederfrequenten Anteile, so dass am Ausgang des Bandpasses
das Signal FC2 (𝜔) entsteht, dessen Spektrum nach einer Verzögerung 𝜏H , die aus Sym-
metriegründen erforderlich ist, um die Verzögerung bei der Hilbert-Transformation
in dem anderen Signalzweig zu kompensieren, nicht verändert wird.

Wandfilter: Hochpass zur Unterdrückung der durch statisches Gewebe und durch sehr langsam
bewegte Objekte erzeugten Signale.

Damit gilt

FC3 (𝜔) ∼ FC2 (𝜔) ∼ [V(𝜔 + 𝜔D ) + R(𝜔 − 𝜔D ) + V(𝜔 − 𝜔D ) + R(𝜔 + 𝜔D )] . (8.94)

Die Multiplikation mit sin(𝜔0 t) im unteren Signalzweig ergibt im Zeitbereich den Aus-
druck
1
fS1 (t) = fE (t) ⋅ sin(𝜔0 t) = fE (t) ⋅ [e+j𝜔0 t − e−j𝜔0 t ] (8.95)
2j
8 Ultraschall | 289

FR(w) FV(w)

R R V V

–ωD 0 +ωD ω –ωD 0 +ωD ω

Abb. 8.55: Getrennte Spektren der Doppler-Signale für die Flussanteile in Vorwärtsrichtung und in
Rückwärtsrichtung.

und führt im Frequenzbereich zu einer ähnlichen Spektralverschiebung wie im oberen


Signalzweig und nach Bandpassfilterung zu einem Signal

FS2 (𝜔) ∼ [V(𝜔 + 𝜔D ) + R(𝜔 − 𝜔D ) − V(𝜔 − 𝜔D ) − R(𝜔 + 𝜔D )] , (8.96)

auf das noch eine Hilbert-Transformation angewandt wird, deren Wirkung im


Spektralbereich durch Multiplikationen gemäß

{−j für 𝜔 < 0


HH (𝜔) = { (8.97)
+j für 𝜔 > 0
{
beschrieben werden kann. Damit entsteht nun das Signal

FS3 (𝜔) = FS2 (𝜔) ⋅ HH (𝜔) ∼ [−V(𝜔 + 𝜔D ) + R(𝜔 − 𝜔D ) − V(𝜔 − 𝜔D ) + R(𝜔 + 𝜔D )] , (8.98)

das mit dem entsprechenden Signal des oberen Signalzweiges in der Weise kombiniert
werden kann, dass sich gemäß

FR (𝜔) ∼ (FC3 (𝜔) − FS3 (𝜔)) ∼ [R(𝜔 − 𝜔D ) + R(𝜔 + 𝜔D )] (8.99)


FV (𝜔) ∼ (FC3 (𝜔) + FS3 (𝜔)) ∼ [V(𝜔 − 𝜔D ) + V(𝜔 + 𝜔D )] (8.100)

die Anteile des vorwärts und des rückwärts gerichteten Flusses trennen lassen.
In 󳶳Abb. 8.55 sind die Spektren der beiden Ausgangssignale fV (t) und fR (t) darge-
stellt.
Die Bestimmung der diagnostisch interessanten Flussinformation aus den Sig-
nalen fD (t) bei nichtdirektionaler Verarbeitung bzw. fV (t) und fR (t) bei direktionaler
Verarbeitung kann nun auf verschiedene Weise erfolgen:
1. Berechnung des zeitlichen Verlaufs des Mittelwertes der Doppler-Verschiebung
nach Berechnung des Kurzzeitspektrums des Doppler-Signals innerhalb eines
Zeitfensters T mittels schneller Fourier-Transformation (FFT) gemäß
t+T/2
∫ 𝜔|FDT (𝜔, t)|2 d𝜔
t−T/2
𝜔(t) = (8.101)
t+T/2
∫ |FDT (𝜔, t)|2 d𝜔
t−T/2
290 | Helmut Ermert, Christian Hansen

ƒD(t)

t
T

FFT
FDT (ω,t)

ω
–(t)
ω

Abb. 8.56: Kurzzeit-FFT zur Bestimmung eines zeitabhängigen Mittelwertes der Flussgeschwindig-
keit innerhalb eines Zeitfensters T.

Der in 󳶳Abb. 8.56 dargestellte Zeitverlauf dieses Mittelwertes während vollständi-


ger Herzzyklen ist von diagnostischem Interesse.
2. Näherungsweise Berechnung des zeitlichen Verlaufs des Mittelwertes der Dopp-
ler-Verschiebung unter Nutzung der Autokorrelationsfunktion des Doppler-
Signals:
t+T/2

rsD sD T (𝜏, t) = ∫ sD (t󸀠 )sD (t󸀠 + 𝜏)dt󸀠 (8.102)


t−T/2

Darin ist
sD (t) = fD (t) + jH {fD (t)} (8.103)
das Doppler-Signal in komplexer, analytischer Form, das aus dem Messsignal durch
Anwendung der Hilbert-Transformation gewonnen werden kann. Es kann gezeigt
werden, dass sich damit der Mittelwert der Doppler-Verschiebung näherungsweise
aus der zeitlichen Ableitung der Phase der Autokorrelationsfunktion
d 󵄨
𝜔(t) ≈ arg rsD sD T (𝜏, t)󵄨󵄨󵄨󵄨𝜏=0 (8.104)
d𝜏
bestimmen lässt. Da sich diese Berechnung gegenüber der in 1. dargestellten Methode
sehr schnell durchführen lässt, wird sie auch bei dem weiter unten zu behandelnden
„Color-Flow“-Verfahren benutzt, das simultan zur B-Bild-Abbildung eine Echtzeit-Ab-
bildung von Flusszuständen in Schnittbildern erlaubt [Kasai et al. 1985].
Die Wiedergabe der Doppler-Information kann akustisch oder graphisch vorge-
nommen werden:
– akustische Wiedergabe durch Lautsprecher oder Kopfhörer (ggf. zweikanalig bei
direktionaler Verarbeitung)
– visuelle, grauwertkodierte Darstellung des zeitlichen Verlaufs der mittels schnel-
ler Fourier-Transformation (󳶳FFT) gewonnenen Kurzzeitspektren des Doppler-
Signals gemäß 󳶳Abb. 8.57.
8 Ultraschall | 291

ω
FE(ω)

t
(a) (b)

Abb. 8.57: Grauwertkodierte Darstellung der Kurzzeit-FFT: schematisch (a), aufgenommenes Spek-
trum aus einem Gefäß (b).

Während die Flusszustände in normalen Gefäßen abseits von Verzweigungen im Ru-


hezustand weitgehend laminar sind, tritt an natürlichen Gefäßverzweigungen und an
pathologischen Verengungen der Gefäße turbulente Strömung auf. Die Erhöhung der
Vielfalt der Flussgeschwindigkeitsanteile führt zu einer signifikanten Verbreiterung
der Doppler-Spektren, was anhand der Kurzzeit-Spektren erkannt werden kann.

8.6.3 PW-Doppler-Verfahren

Beim CW-Doppler lassen sich mit der direktionalen Methode zwar Flüsse mit entge-
gengesetzten Richtungen unterscheiden, es gibt allerdings keine Informationen über
die Entfernungen, aus denen die Doppler-Signale stammen. Die Forderung nach
gleichzeitiger Gewinnung von Flussinformation und Entfernungsinformation führt
zu einem gewissen Konflikt. Für die Entfernungsinformation (axiale Auflösung) wird
die Bandbreite benötigt (siehe 󳶳Gl. (8.65)), die durch Signale mit kurzer Dauer (Pulse,
siehe 󳶳Gl. (8.63)) realisiert werden kann. Für die Gewinnung von Bewegungsinforma-
tion aus dem Dopplereffekt werden aber Signale mit großer Dauer benötigt, wie weiter
unten gezeigt wird (siehe 󳶳Gl. (8.112)). Die beim CW- Doppler verwendeten monofre-
quenten Signale verfügen über eine große Dauer, ihre Bandbreite ist aber theoretisch
gleich Null. Mit dem Puls-Doppler-Verfahren (auch Pulsed-Wave-Doppler bzw.
PW-Doppler) wird dieses Problem durch Anwendung einer Pulssequenz gelöst, die
sowohl über eine genügend große Bandbreite als auch über eine genügend große
Signaldauer verfügt.

Pulsed Wave (PW; dt. Pulswelle): Betriebsart mit gepulsten Wellenformen.

Ein typisches Sendesignal, wie es beim PW-Doppler-Verfahren benutzt wird, ist in


󳶳Abb. 8.58 dargestellt.
Das Signal lässt sich als Pulsfolge interpretieren, die dadurch entsteht, dass aus
einem CW-Signal mittels einer Rechteckfunktion Teilstücke bestimmter Länge mit
zueinander definiertem zeitlichem Abstand herausgeschnitten werden. Wenn TB die
Pulslänge, TA der zeitliche Abstand der Pulse und N die Gesamtzahl der gesendeten
292 | Helmut Ermert, Christian Hansen

TB

TA

Abb. 8.58: Sendesignal beim Puls-Doppler-Verfahren.

Verzögerungs-
Generator
glied

Sample&Hold-
Filter Duplexer Schallwandler
Glied

Signalausgang Demodulator Verstärker

Abb. 8.59: Einfaches Blockschaltbild eines Puls-Doppler-Systems.

Pulse ist, stellt sich das Sendesignal wie folgt dar:


N
t − nTA
fS (t) = cos(𝜔0 t) ⋅ u1 (t) mit u1 (t) = ∑ rect ( ) (8.105)
n=1 TB /2

Ein einfaches Blockschaltbild für ein Puls-Doppler-System, mit dem die Flussinfor-
mation durch Wahl bestimmter Verzögerungszeiten aus definierten Objekttiefen ge-
wonnen werden kann, ist in 󳶳Abb. 8.59 dargestellt.
Wird nun zur Auswertung der empfangenen Echosignale eines homogenen Strö-
mungszustandes z. B. die Signalverarbeitung gemäß 󳶳Abb. 8.52 angewandt, so erhält
man demodulierte Signale der Form
N
t − t0 − nTA
fD (t) = cos(𝜔D t + 𝜑0 ) ⋅ ∑ rect ( ), (8.106)
n=1 TB /2

die das mit einer Rechteckfunktion abgetastete kontinuierliche Doppler-Signal des


CW-Doppler-Verfahren darstellen. Wie die 󳶳Abb. 8.60 veranschaulicht, müssen der
Pulsabstand TA und die Periodendauer des Doppler-Signals TD = 1/fD in einer be-
stimmten Beziehung zueinander stehen, damit das Doppler-Signal korrekt abgetastet
und die Flussgeschwindigkeit eindeutig bestimmt werden können.
Dazu ist die Abtastvorschrift
1 T
TA < = D (8.107)
2fD 2
8 Ultraschall | 293

u₁(t)

CW

PW

TB t

ƒD(t) TA

CW
cos(2πƒD t + φ₀)
PW

TB t

TA
t₀

Abb. 8.60: Vergleich der Doppler-Signale des CW-Verfahrens (gestrichelt) und des PW-Doppler-
Verfahrens: Einhüllende des Sendesignals (oben), demoduliertes Doppler-Signal (unten).

2,5 MHz
3,5 MHz
4
5,0 MHz
7,5 MHz
ΩVzΩmax in m/s

0
0 2 4 6 8 10
zmax/m

Abb. 8.61: Wertebereiche gemäß 󳶳 Gl. (8.110) bei einer Schallgeschwindigkeit von c0 = 1500 m/s.

zu erfüllen. Die maximale Flussgeschwindigkeit, die eindeutig gemessen werden


kann, beträgt damit
󵄨󵄨 󵄨󵄨 c0
󵄨󵄨vz 󵄨󵄨max < (8.108)
4f0 TA
Es gibt eine andere Vorschrift, die zur eindeutigen Entfernungsbestimmung der Dopp-
ler-Echos erfüllt werden muss. Der zeitliche Abstand der Sendepulse muss wie beim
A-Scan- und beim B-Scan-Verfahren größer sein als die längste Signallaufzeit für Hin-
294 | Helmut Ermert, Christian Hansen

und Rückweg zwischen Schallwandler und Zielobjekt, d. h. es muss gelten:


2zmax
TA > . (8.109)
c0
Aus diesen beiden Vorschriften resultiert eine Beziehung zwischen der eindeutig
messbaren maximalen Geschwindigkeit und dem maximalen Entfernungsbereich:

󵄨󵄨 󵄨󵄨 c2
󵄨󵄨vz 󵄨󵄨max ⋅ zmax < 0 (8.110)
8f0
In 󳶳Abb. 8.61 sind für einige Ultraschallfrequenzen die Zusammenhänge aus
󳶳Gl. (8.110) graphisch dargestellt.

Auflösungseigenschaften
Informationen über die räumliche Auflösung der Doppler-Informationen können
aus einer Betrachtung der Ambiguity-Funktion des Puls-Doppler-Konzepts abgelei-
tet werden. Während sich die Ortsauflösung bei der Entfernungsbestimmung der
Doppler-Echos aus der Pulsbreite gemäß
c0
𝛿z = ⋅ TB (8.111)
2
ergibt, kann für die Genauigkeit der Geschwindigkeitsmessung ein Ausdruck für die
Geschwindigkeitsauflösung angegeben werden
c0 2,4
𝛿v = , (8.112)
4f0 N ⋅ TA
der aussagt, dass neben der Schallgeschwindigkeit und der Sendefrequenz die zeitli-
che Dauer des Sendesignals N⋅TA einen wesentlichen Einfluss auf die Messgenauigkeit
hat [Jensen 1996, Shung 2006, Xu 1995].

8.6.4 TS-Verfahren

Alternativ zur spektralen Analyse von Doppler-Signalen kann eine Geschwindigkeits-


messung auch im Zeitbereich erfolgen. Bei diesem Verfahren, das in der Literatur mit
„TS-Verfahren“ bezeichnet wird (Time Shift, TS), wird die Zeitverschiebung ausgewer-
tet, die bei aufeinanderfolgenden Echos eines bewegten Zieles auftritt. Für dieses Ver-
fahren gibt es andere Grenzen bezüglich der maximal messbaren Geschwindigkeiten.
Diese Grenzen sind im Wesentlichen durch die zeitliche Auflösung bei der Abtastung
und Verarbeitung der Echosignale bestimmt. Außerdem hat die frequenzabhängige
Dämpfung des biologischen Gewebes, die die Doppler-Spektren verfälschen kann,
hier einen geringen Einfluss. Für weitere Details sei hier auf die Literatur verwiesen
[Jensen 1996, Shung 2006].
8 Ultraschall | 295

Time Shift (TS; dt. Zeitverschiebung): Verfahren, bei dem alternativ zu den Doppler-Verfahren die
Blutflussinformation aus dem Vergleich zeitverschobener Echosignale gewonnen wird.

8.6.5 Bildgebende Verfahren

Color-Flow-Konzept
In 󳶳Abb. 8.62 werden die verschiedenen Doppler-Verfahren hinsichtlich der geome-
trischen Orte verglichen, aus denen jeweils Flussinformationen gewonnen und verar-
beitet werden.
Während die Flussinformation beim CW-Doppler lediglich eine durch die Wand-
lercharakteristik geprägte laterale Auflösung, aber keinerlei Tiefenauflösung besitzt,
kann beim PW-Doppler ein bestimmtes räumliches Zielgebiet vorgegeben werden,
innerhalb dessen die Doppler-Information (Spektren, Mittelwerte) ausgewertet wer-
den kann. Ziel der bildgebenden Verfahren ist, simultan zur morphologischen B-Bild-
Darstellung des interessierenden Organbereiches eine ortsaufgelöste Flussinformati-
on in Echtzeit zur Verfügung zu stellen („Duplex-Betrieb“). Dabei gibt es zwei Pro-
bleme. Zum einen kann innerhalb eines Bildpunktes nicht die gesamte Information
über einen Flusszustand dargestellt werden. Deshalb wird hier üblicherweise der Mit-
telwert der Flussgeschwindigkeit benutzt und in farbkodierter Weise dargestellt. Das
zweite Problem liegt in den Anforderungen an die Geschwindigkeit der Signalverar-

Messfenster

CW-Doppler PW-Doppler „Farb-Doppler”

Abb. 8.62: Vergleich von CW-Doppler, PW-Doppler und bildgebendem Doppler („Farb-Doppler“).
296 | Helmut Ermert, Christian Hansen

Geschwindigkeit
(Farbsättigung)

ts
är
rw
vo

ng
h tu
Ric

ts
är
ckw

Abb. 8.63: Farbkodierung beim Farb-Doppler.

Abb. 8.64: Beispiel einer „Momentaufnahme“ aus einer Farb-Doppler-Bildsequenz (rechts) als
Ergänzung zum grauwertkodierten B-Bild (links): Gefäßverzweigung mit Ablagerung in einem Blut-
gefäß („Plaque“) und Flussanteilen in verschiedenen Richtungen. (Mit freundlicher Genehmigung
des MedArchivs der Siemens AG).

beitung. Erst nachdem man geeignete Näherungsverfahren zur schnellen Berechnung


der Geschwindigkeit gefunden und darauf aufbauend schnelle Algorithmen und Pro-
zessoren entwickelt hatte, wurde die Bildgebung innerhalb der Ultraschall-Doppler-
Technik möglich [Kasai et al. 1985]. Das Verfahren basiert auf dem oben dargestell-
ten Berechnungskonzept. Es wird zweikanalig für die Flussrichtungen „vorwärts“ und
„rückwärts“ durchgeführt. Das Konzept der Farbkodierung ist in 󳶳Abb. 8.63 beschrie-
ben.
8 Ultraschall | 297

Abb. 8.65: Beispiel einer „Momentaufnahme“ aus einer Farb- Doppler-Bildsequenz in Ergänzung
zum grauwertkodierten B-Bild: Leber mit Teilen ihrer Gefäßarchitektur, dazu die Darstellung des
PW-Doppler-Signals in einem speziellen Zielgebiet (mit freundlicher Genehmigung des MedArchivs
der Siemens AG).

Color Flow Imaging (dt. „Farbdoppler“): farbkodierte Dopplersonographie. Farbkodierte, ortsauf-


gelöste, quantitative Echtzeit-Darstellung des Blutflusses (Richtung, mittlere Geschwindigkeit) in
Gefäßen durch Nutzung des Doppler-Effektes und Auswertung von Amplitude und Phase der Echo-
signale.

Zwei Bildbeispiele mit Farb-Doppler-Aufnahmen sind in den Abbildungen 󳶳Abb. 8.64


und 󳶳Abb. 8.65 dargestellt.

Power-Doppler-Konzept
Ein besonderes Merkmal der Farb-Doppler-Technik besteht darin, dass sich die Fluss-
information aus kleinen Gefäßen wegen der Begrenztheit der Doppler-Signalpegel
und wegen der geringen Flussgeschwindigkeiten nicht darstellen lassen. Aus diesem
Grunde reißt in den Bildern die Farbinformation aus den Gefäßen hin zu kleinen Ge-
fäßdurchmessern ab. Eine Verbesserung lässt sich mit dem Power-Flow-Verfahren er-
reichen, das auf die Richtungsinformationen des Blutflusses verzichtet und eine um
einiges vollständigere Darstellung von Perfusionszuständen des Gewebes und von Ge-
fäßarchitekturen unter Verzicht auf quantitative Flussinformationen gestattet. Darge-
stellt wird das Leistungsdichtespektrum der Doppler-Signale, das sich aus
+∞
󵄨 󵄨2
∫ 󵄨󵄨󵄨FD (𝜔)󵄨󵄨󵄨 d𝜔 (8.113)
−∞
298 | Helmut Ermert, Christian Hansen

Abb. 8.66: Zum Vergleich: Farb-Doppler (links) und Power-Doppler (rechts).

Wandfilter Wandfilter
Blutfluss
Blutfluss
Rauschen Rauschen

ƒD ƒD

Abb. 8.67: Power-Doppler: Leistungsdichtespektren bei verschiedenen mittleren Flussgeschwin-


digkeiten.

bestimmen lässt. 󳶳Abb. 8.66 zeigt die beiden Modalitäten anhand einer Darstellung
des Flusses in zwei benachbarten Gefäßen mit entgegengesetzter Flussrichtung.

Power Mode (dt. Leistungsmodus): farbkodierte, ortsaufgelöste, qualitative Echtzeit-Darstellung


von Blutflusszuständen in Gefäßen und von Perfusionszuständen im Gewebe durch Nutzung des
Doppler-Effektes und Auswertung der Echo-Signalleistung.

In 󳶳Abb. 8.67 werden zwei Leistungsdichtespektren verglichen. Bei einer großen


mittleren Flussgeschwindigkeit (links) liegt das Spektrum außerhalb des Wandfilter-
spektrums. Bei kleinen Flussgeschwindigkeiten (rechts), bei denen z. B. der Mittelwert
innerhalb des Wandfilterspektrums liegt, liegen wesentliche Anteile des Leistungs-
dichtespektrums (blaue Fläche in 󳶳Abb. 8.67) außerhalb des Wandfilterspektrums.
Diese Anteile können beim Power-Doppler erfasst werden und zur Flussdarstellung
beitragen. Beim Farb-Doppler, das die mittlere Flussgeschwindigkeit darstellt, würde
die Flussinformation vom Wandfilter unterdrückt.
Ein weiteres Beispiel für die Anwendung des Power-Doppler-Verfahrens ist in
󳶳Abb. 8.68 zu finden, das die komplette Gefäßarchitektur (Geometrie der räumlichen
Verzweigung von Blutgefäßen) einer Niere zeigt.
8 Ultraschall | 299

Abb. 8.68: Power-Flow-Darstellung: Beispiel (Gefäßarchitektur einer Niere). (Mit freundlicher Ge-
nehmigung des MedArchivs der Siemens AG).

Die Vorzüge des Power Mode gegenüber dem Farb-Doppler sind:


– besseres Rauschverhalten (u. a. wegen der Möglichkeit einer stärkeren Mittelwert-
bildung)
– geringere Abhängigkeit vom Winkel zwischen Flussrichtung und Richtung des
Schallstrahls
– Das Abtastproblem zur eindeutigen Bestimmung von Flussgeschwindigkeit und
Flussrichtung besteht nicht.

Damit lassen sich mit der Power-Mode-Technik Gefäßarchitekturen empfindlicher er-


fassen und im Sinne einer Ultraschall-Angiographie vollständiger darstellen, wobei
auch Flussanteile, die nahezu senkrecht zur Schallstrahlrichtung orientiert sind, in
stärkerem Maße mit erfasst werden als beim Farb-Doppler-Verfahren.

8.7 Spezielle Modalitäten


8.7.1 Spatial Compounding

Die Bildqualität konventioneller Ultraschallbilder ist stark von der unidirektionalen


Aufnahmetechnik des Puls-Echo-Betriebs gekennzeichnet. Die hiermit verbundenen
Artefakte und Probleme der Bilddarstellung können teilweise gelöst werden, indem
das zu untersuchende Objekt nicht nur aus einer Richtung, sondern aus einer Viel-
zahl verschiedener Blickrichtungen (Aspektwinkel) in einer Schnittebene aufgenom-
300 | Helmut Ermert, Christian Hansen

men wird und die Empfangsdaten der Einzelbilder ortsrichtig miteinander kombiniert
werden. Legt man den beim medizinischen Ultraschall üblichen Puls-Echo-Betrieb
und die konventionelle Bilderzeugung durch mehrere fokussierte Strahllinien zugrun-
de, so können die aus unterschiedlichen Richtungen empfangenen Echolinien auch
Grundlage einer multidirektionalen Bildgebung sein. Anders als im unidirektionalen
Fall werden sich diese Linien im Bildbereich allerdings schneiden, so dass einem Pi-
xel des Bildbereiches mehrere Werte zugeordnet sind. Eine Kombination dieser Werte
kann dadurch erfolgen, dass sie inkohärent (nach Hüllkurvendetektion der Echolini-
en) addiert werden. Man spricht in diesem Fall von Spatial Compounding. Das Prinzip
des Spatial Compoundings wurde bereits in wissenschaftlichen Untersuchungen aus
den 1970er- und 1980er-Jahren beschrieben. In jener Zeit wurden viele Arbeiten zum
Spatial Compounding veröffentlicht, welche bei verschiedener Anwendung das Poten-
tial zur Verbesserung der Bildqualität grundsätzlich wie folgt beschreiben [Burkhardt
1978, Einighammer 1985, Ermert et al. 1986, Hiller et al. 1982, Jago 1994, Röhrlein et al,
1987, Shankar et al, 1994, Trahey et al. 1986]:
– Rausch-Reduktion: Speckle und elektronisches Rauschen werden durch die Mul-
tidirektionalität reduziert, wenn das in den einzelnen Ultraschallbildern vorhan-
dene Rauschen nicht miteinander korreliert ist. Die Speckle-Formation eines Ul-
traschallbildes hängt von der Konfiguration der Streuer relativ zur Schallwellen-
ausbreitung ab, so dass das Speckle-Muster sich bei Beschallung aus unterschied-
lichen Richtungen ändert. Je größer der Unterschied in den Aspektwinkeln ist,
desto geringer ist die Korrelation des Speckle-Musters. Ist das Speckle-Muster der
aufgenommenen Einzelbilder unkorreliert, so reduziert sich bei W aufgenomme-
nen Einzelbildern das in 󳶳Gl. (8.69) definierte SNR um den Faktor √W.
– Isotrope Auflösung: Während beim konventionellen Ultraschallbild die Auflö-
sungen in axialer und lateraler Richtung stark differieren, kann die Multidirek-
tionalität des Spatial Compoundings abhängig von der Anzahl und der Verteilung
der Aspektwinkel dazu führen, dass die Auflösung isotroper wird.
– Artefaktunterdrückung: Bildartefakte, deren Auftreten von der Einfallsrichtung
des Ultraschalls abhängen, werden reduziert.
– Vollständige Darstellung: Spiegelnd reflektierende Strukturen, die nur ab-
schnittsweise in den einzelnen Ultraschallbildern als echogene Linien erschei-
nen, werden beim Spatial Compounding zusammenhängend dargestellt.
– Reduzierung tiefenabhängiger Intensitätsverteilungen: Durch die Abbildung
eines Objektes aus verschiedenen Richtungen liegen dieselben Objektstrukturen
in den Einzelbildern in unterschiedlichen Tiefen. Bei der Überlagerung der Ein-
zelbilder wird die tiefenabhängige Dämpfung der konventionellen Ultraschallab-
bildung somit kompensiert.

Compounding (dt. Zusammensetzung): Abbildung einer einzelnen Querschnittsebene eines Ob-


jektes durch Kombination mehrerer aus verschiedenen Aspektwinkeln aufgenommener Schnitt-
bilder.
8 Ultraschall | 301

Technisch kann ein Spatial Compounding durch elektronische Strahlschwenkung oder


durch manuelle oder mechanische Bewegung des Schallwandlers realisiert werden
(siehe 󳶳Abb. 8.69 und 󳶳Abb. 8.71). Die Anzahl von Aspektwinkeln und deren Aus-
richtung zueinander kann variieren. Grundsätzlich können zwei Fälle unterschieden
werden:
– Limited Angle Spatial Compounding (LASC): Erfolgt die koplanare Aufnahme
eines Objektes unter Aspektwinkeln, die nur in einem begrenzten Raumbereich
[Röhrlein et al. 1985, Opretzka et al. 2011] verteilt liegen, so kann dies als Li-
mited Angle Spatial Compounding (LASC) bezeichnet werden. Verbesserungen
der Bildqualität sind zwar vorhanden, die beschriebenen Vorteile des Spatial
Compoundings entwickeln sich aber aufgrund des limitierten Winkelbereichs nur
unvollständig [Treece et al. 2007]. Zwar kann das Speckle-Rauschen reduziert
werden, allerdings wird die Richtungsabhängigkeit der Ultraschallabbildung
nur teilweise kompensiert: Artefakte werden nicht vollständig unterdrückt, die
Tiefenabhängigkeit bleibt erhalten, echogene, linienhafte Objekte werden nur
begrenzt zusammenhängend dargestellt und die Auflösung bleibt anisotrop.
Kommerziell vertriebene Ultraschallgeräte verfügen meist über die Möglichkeit,
ein solches LASC durch elektronisches Strahlschwenken in Echtzeit zu realisie-
ren [Berson et al. 1981, Hofer 2002]. Beispiele sind die Produkte SonoCT der Fir-
ma Philips und SieClear der Firma Siemens, die für einige Ultraschallgeräte als
optionale Softwarefeatures erhältlich sind. 󳶳Abb. 8.70 zeigt beispielhaft ein kon-
ventionelles Ultraschallbild der Schilddrüse (a) und ein Ultraschallbild, das mit-
tels LASC erzeugt wurde (b). Positiv fällt im LASC-Bild vor allem die geschlossene
Darstellung von Grenzschichten auf (Pfeile). Auch ist die Darstellung homogener
Gewebebereiche von Speckle-Rauschen befreit (Kreis). Im konventionellen B-Bild
täuscht die granulare Speckle-Musterung hingegen eine Abbildung feiner Struk-
turen vor, die tatsächlich im Gewebe nicht existieren.

(a) (b)

Abb. 8.69: (a) Linearer B-Scan, Compounding durch elektronisches Schwenken des Bildfeldes,
(b) Compounding durch mechanische Translation eines Wandlers mit sektorförmigem Bildfeld.
302 | Helmut Ermert, Christian Hansen

(a) (b) (c)

Abb. 8.70: Beispiele für ein Limited Angle Spatial Compunding (LASC) mit konventionellen Ultra-
schallgeräten. (a) Konventionelles B-Bild der Schilddrüse, (b) LASC-Ultraschallbild gleicher Schnit-
tebene. Man erkennt eine Speckle-Reduktion (Kreis) und die zusammenhängende Darstellung von
echogenen Faszien (Pfeile). Randschatten werden nicht vollständig unterdrückt (Kreuze). Die Ul-
traschallbilder wurden mit einem Siemens Acuson Antares und dem Linear-Array VF10-5 mit einer
Mittenfrequenz von 7,5 MHz und unter Verwendung des Features SieClear aufgenommen. (c) Pan-
oramabild derselben Schilddrüse in ähnlicher Schnittebene. Das Ultraschallbild wurde mit einem
Siemens Acuson Antares und dem Linear-Array VF10-5 mit einer Mittenfrequenz von 7,5 MHz und
unter Verwendung des Features SieScape aufgenommen.

12

14

16

Objekt
18

20

(a) (b) cm –6 –4 –2 0 2 4

Abb. 8.71: 360°-Echo-Tomographie: Full Angle Spatial Compounding (FASC): Scan-Konzept (a), In-
vivo-Aufnahme einer gesunden weiblichen Brust, 72 Aspektwinkel, THI-Modus, Mittenfrequenz
2,5 MHz (b).

Zusätzlich zu der beschriebenen Art des LASC wird bei kommerziellen Ultraschall-
geräten häufig die Möglichkeit geboten, den Schallwandler während des Betriebs
in der Schnittebene lateral zu verschieben und zu verkippen, um durch die Kombi-
nation mehrerer benachbarter Einzelbilder ein Panoramabild zu generieren [Ho-
fer 2002]. Ein Beispiel für eine solche Panoramabildgebung ist das Produkt SieS-
cape der Firma Siemens, das als optionales Softwarefeature für einige Ultraschall-
geräte erhältlich ist. 󳶳Abb. 8.70 (c) zeigt ein Beispiel hierzu. Die Kombination von
zusammengehörigen Bildbereichen erfolgt hierbei ohne Positionserfassung des
8 Ultraschall | 303

Schallwandlers rein bildbasiert (z. B. mittels zweidimensionaler Korrelationsver-


fahren). Objektbereiche, die mehrfach aus unterschiedlichen Winkeln aufgenom-
men werden, können dann ebenfalls durch ein LASC kombiniert werden.
– Full Angle Spatial Compounding (FASC): Anders als beim LASC kann die kopla-
nare Abbildung eines Objektes auch unter Aspektwinkeln erfolgen, die vollstän-
dig um das Objekt verteilt liegen. Diese Möglichkeit ist bei Körperteilen oder Or-
ganen von Interesse, die einen Aspektwinkelbereich von 360° erlauben (z. B. bei
der weiblichen Brust). In diesem Fall spricht man von Full Angle Spatial Compoun-
ding (FASC). Arbeiten allgemeiner Art finden sich hierzu beispielsweise in [Hiller
et al. 1982, Hoskins et al. 2006]. Arbeiten mit spezieller Ausrichtung auch auf die
Mammadiagnostik finden sich in [Duric et al. 2007, Jago 1994]. Ein Beispiel ist in
󳶳Abb. 8.71 dargestellt [Hansen 2009, Hollenhorst et al. 2010].

Limited Angle Spatial Compounding (LASC; dt. Zusammensetzung über einen begrenzten Raum-
winkelbereich): Compounding über einen begrenzten Aspektwinkelbereich (< 360°).

Full Angle Spatial Compounding (FASC; dt. Zusammensetzung über den gesamten Raumwinkel-
bereich): Compounding über einen Aspektwinkelbereich von 360°.

8.7.2 Elastographie

Unter Elastographie versteht man die ortsaufgelöste Bestimmung und Abbildung


elastischer Gewebeparameter. Elastographie lässt sich prinzipiell unter Nutzung
verschiedener Bildgebungsmodalitäten (Ultraschall, Magnetresonanztomographie,
optische Kohärenztomographie) betreiben, ist aber mit Ultraschall am einfachsten
handhabbar und am weitesten entwickelt. Ultraschall-Elastographie ist zwar seit
1991 bekannt [Ophir et al. 1991], konnte jedoch aufgrund der fehlenden Echtzeit-
fähigkeit nicht in angemessener Form am Patienten eingesetzt werden. Ende der
1990er-Jahre wurde eine neue Technik entwickelt [Pesavento et al. 1999], mit der die
Elastographie in Echtzeit betrieben werden kann. Die Elastographie ist mittlerweile
in den Ultraschallgeräten diverser Hersteller als spezielle Modalität verfügbar.

Elastographie: Qualitative oder quantitative Darstellung mechanischer Gewebeeigenschaften


(z. B. weich/hart bzw. Schermodul) in medizinischen Bildern (z. B. mittels Ultraschall, MRT oder
OCT).

Ein wichtiges Anwendungsgebiet der Elastographie ist die Tumordiagnostik. Da sich


maligne Tumoren oft aus mechanisch härterem Gewebe zusammensetzen, kann die
Diagnostik durch die Abbildung der elastischen Eigenschaften des Gewebes zusätz-
lich zum konventionellen Ultraschall sicherer gemacht werden. Bei der einfachsten
Version der Elastographie werden kleine Gewebeverschiebungen aus aufeinander
304 | Helmut Ermert, Christian Hansen

Kompression

hart weich hart weich

Abb. 8.72: Das Konzept der Elastographie: unterschiedliche Verformung nach Kompression unter-
schiedlich harter Areale.

folgenden Ultraschalldatensätzen berechnet, die unter verschiedenen Gewebekom-


pressionen aufgenommen werden. Harte Gewebebereiche werden unter Kompression
nicht so stark verformt wie weiche Gewebebereiche. Der numerische Vergleich der
Echosignalsequenzen erlaubt die Berechnung der lokalen Dehnung oder Kompres-
sion des Gewebes. Das Maß muss klein sein, um Bedingungen für eine erfolgreiche
Kreuzkorrelation der Echosignalsequenzen zu sichern, es liegt unter 1 % und ist da-
mit auch unbelastend. Im einfachsten Fall wird bei dieser Art der Elastographie, mit
der sogenannte Dehnungsbilder in Echtzeit generiert werden, die Kompression des
Gewebes manuell vom untersuchenden Arzt unter Nutzung des Ultraschallwandlers
herbeigeführt. 󳶳Abb. 8.72 veranschaulicht den Vorgang der Kompression.
Der einfachste Ansatz zur Darstellung elastischer Gewebeeigenschaften besteht
in der Ermittlung der lokalen Dehnung aus A-Scan-Sequenzen gemäß 󳶳Abb. 8.73.
Das in 󳶳Abb. 8.74 dargestellte Experiment erläutert die Prozedur der Dehnungs-
bildgebung.
Ein wichtiger Anwendungsbereich der Elastographie ist die Früherkennung des
Prostatakarzinoms [Pesavento et al. 2000, Sommerfeld et al. 2003, König et al. 2005,
Eggert et al. 2008]. Die üblichen Diagnoseverfahren (digitaler Tastbefund, transrek-
taler Ultraschall, PSA-Wert-Analyse) sind relativ unsicher. Die Diagnose des Prosta-
takarzinoms unter Anwendung von Echtzeitelastographie mittels Ultraschall bietet
die Möglichkeit, Tumore sicherer und früher zu diagnostizieren. In 󳶳Abb. 8.75 wird ein
Beispiel aus einer klinischen Studie gezeigt [Sommerfeld et al. 2003]. Neben den üb-
lichen, mit Rektalsonden gewonnenen Ultraschallbildern („B-Bilder“) wurden Elas-
togramme (Dehnungsbilder) berechnet und dargestellt. In 󳶳Abb. 8.75 ist erkennbar,
dass der Tumor, der im Querschnittsbild unten links lokalisiert ist, in der Elastogra-
phie wesentlich besser erkannt werden kann als im B-Bild.
8 Ultraschall | 305

Tiefe z

A-Scan
unkomprimiert

ΔI = c · τ(z₁) ΔI = c · τ(z₂)

A-Scan
komprimiert

Phasen-Nullstellen-
Suche

Verschiebung
Abb. 8.73: Bestim-
mung der lokalen
Differentiation
Dehnung aus den
A-Scan-Signalen vor
Dehnung und nach der Kom-
pression.

Wandler
F hart

0,3 cm
1 cm Agar-
Agar

1,5 cm Schaumstoff

7 cm (b) weich
(a) 4 cm (c)

Abb. 8.74: Elastographie. (a) Experiment: Mit dem Ultraschallwandler wird ein Objekt komprimiert,
das ein kreiszylindrisches Areal mit größerer Härte enthält. (b) B-Bild des Objektes, das Areal ist
nicht sichtbar, weil sich die Echogenität nach Kompression nicht geändert hat. (c) Dehnungsbild.

Abb. 8.75: B-Bild (links), Elastogramm (Mitte) und Histologie (rechts) einer Prostata mit Karzinom
(PCa).
306 | Helmut Ermert, Christian Hansen

Weitere Anwendungsbereiche der Elastographie sind die Diagnostik anderer


innerer Organe (z. B. Leber), die Mammadiagnostik [Hiltawsky et al. 2001], die Ge-
fäßdiagnostik (intravaskulärer Ultraschall [Perrey et al. 2002], Altersbestimmung von
Thromben [Geier et al. 2005]), die Dermatologie [Vogt et al. 2005] und das Thermo-
therapiemonitoring mit Ultraschall [Siebers et al. 2003].
Neben der oben beschriebenen Elastographie in Form der Dehnungsbildgebung
gibt es noch weitere Versionen, zum Beispiel die Elastographie mittels Gewebeverfor-
mungen, die durch im Gewebe akustisch erzeugte Strahlungsdrücke (Acoustic Radia-
tion Force Impulse Imaging, ARFI) entstehen [Nightingale et al. 2002], die Scherwelle-
nelastographie [Bercoff et al. 2004] und die quantitative, rekonstruktive Elastographie
[Khaled et al. 2006].

Acoustic Radiation Force Impulse Imaging (ARFI-Imaging): spezielle Version der Elastographie,
bei der die Gewebedeformation durch akustisch induzierte Strahlungsdrücke hervorgerufen wird.

8.7.3 Kontrastmittelgestützte Abbildung

Mithilfe von Ultraschallkontrastmitteln ist es möglich, eine Funktionsdiagnostik


zu realisieren, mit der sowohl die Darstellung von größeren Gefäßstrukturen (Angio-
graphie) als auch die Abbildung der Gewebedurchblutung über das Kapillarsystem
(Perfusionsabbildung) gelingt.
Die zur bildgebenden Ultraschalldiagnostik üblicherweise eingesetzten 󳶳Kon-
trastmittel bestehen aus gasgefüllten, hüllenstabilisierten Mikrobläschen mit Durch-
messern im Bereich von 1 bis 10 μm [Albrecht et al. 2004, Goldberg et al. 2001, Lindner
2004, Postema et al. 2006]. Sie werden innerhalb einer Trägerflüssigkeit (meist ei-
ne physiologische Kochsalzlösung) intravenös appliziert, stören die Hämodynamik
nicht und passieren als lungengängiges Kontrastmittel das gesamte Kapillarbett
des Menschen weitgehend unbeschadet. Die Halbwertszeit der Mikrobläschen ist
begrenzt und abhängig vom Gas und der Hülle der Bläschen, ihrer Größe und den
Umgebungsbedingungen. Im Blutkreislauf beträgt ihre Lebensdauer aufgrund me-
chanischer Beanspruchung durch das Herz-Kreislauf-System und Diffusion ca. 10 bis
20 Minuten. Das Gas (z. B. Luft oder Octafluorpropan) und die Hülle der Bläschen
(z. B. Galaktose oder Albumin) werden nach ihrer Zerstörung problemlos vom Körper
absorbiert.
Bei der Ultraschallabbildung von Kontrastmitteln kommt es zu diversen Interak-
tionen zwischen der Ultraschallwelle und den Mikrobläschen, so dass sich die Emp-
fangsechos (und damit auch die Ultraschallbilder) eines mit Kontrastmittel angerei-
cherten Gewebes von jenem ohne Kontrastmittel (native Abbildung) unterscheiden.
Hierbei ist zu beachten, dass der Durchmesser der Mikrobläschen in aller Regel kleiner
als die Wellenlänge der medizinisch genutzten Ultraschallsignale ist und die Bläschen
8 Ultraschall | 307

somit eine Streuung der Schallpulse verursachen. Folgende physikalische Phänome-


ne sind zu beobachten [Bouakaz et al. 2005, Goldberg et al. 2001, Rychak et al. 2007]:
– Bewegung durch Strahlungsdruck: Mikrobläschen, die sich frei in einer Flüs-
sigkeit bewegen, werden vom einfallenden Ultraschall in axiale Richtung bewegt.
Dies kann dazu führen, dass sich Mikrobläschen an Gefäßwänden ansammeln.
– Lineare Streuung: Die Mikrobläschen führen im Schallfeld eine Radialschwin-
gung aus. Die Bläschen verhalten sich somit selbst wie Schallquellen, die ihre
Energie aus dem anregenden Schallsignal beziehen. Der Streuquerschnitt eines
solchen sphärischen, gasgefüllten Streuers, dessen Radius wesentlich kleiner ist
als die Wellenlänge des anregenden Signals, ist in einer Flüssigkeit aufgrund der
deutlich größeren Kompressibilität des Gases im Vergleich zur Umgebung beson-
ders groß.
– Nichtlineare Oszillation: In Abhängigkeit von der Anregungsamplitude ist die
Oszillation der Mikrobläschen nichtlinear: Während für äußerst geringe Sende-
leistungen die Radialschwingung noch linear verläuft, tritt mit zunehmendem
Schalldruck ein nichtlineares Schwingverhalten in den Vordergrund und es
kommt zu einer asymmetrischen Schwankung des Bläschendurchmessers. Die
Kompression der Mikrobläschen gegen den Druck des eingeschlossenen Gases
fällt hierbei geringer aus als ihre Expansion. Schon für Anregungsamplituden
mit einem mechanischen Index (󳶳Gl. (8.19)) MI < 0,1 ist dieses nichtlineare Ver-
halten zu beobachten. Solche Anregungsamplituden können im Gewebe bereits
mit Sendeleistungen von 1 % der maximal bei Ultraschallgeräten anwählbaren
Sendeleistung erzielt werden.
Die nichtlineare Oszillation der Mikrobläschen führt dazu, dass das empfangene
Echosignal neben Frequenzanteilen um die Sendefrequenz f0 auch bei den Har-
monischen 2f0 , 3f0 etc. Frequenzanteile enthält.
– Zerstörung: Wird die Sendeleistung weiter erhöht, so kommt es zur Zerstörung
der Mikrobläschen. Hierbei können verschiedene Szenarien einzeln oder in Kom-
bination auftreten:
– Die Hülle eines Mikrobläschens kann vollständig zerstört werden, so dass nur
eine oder mehrere hüllenlose und kurzlebige Gasbläschen zurückbleiben.
– Das Mikrobläschen kann in mehrere kleinere Bläschen mit Hülle zerfallen.
– Das zerstörte Bläschen kann sich mit Fragmenten anderer zerstörter Bläschen
zusammenschließen (Coalescence).

Welche Effekte bei der Zerstörung tatsächlich auftreten und wie viele Bläschen über-
haupt zerstört werden, ist abhängig von den gesamten Randbedingungen der Welle-
Bläschen-Interaktion. In den meisten Fällen kommt es aber bei der Zerstörung der
Bläschen zu kurzzeitigen Emission eines relativ starken akustischen Signals (stimu-
lierte akustische Emission). Weiterhin ist häufig zu beobachten, dass die wandlernah
liegenden Mikrobläschen bei einer Zerstörung viel Schallenergie absorbieren und
somit wandlerferne Bläschen zunächst nicht zerstört werden.
308 | Helmut Ermert, Christian Hansen

Qualitative Kontrastmittelabbildung
Bei der qualitativen Kontrastmittelabbildung wird die zeitvariante, räumliche Vertei-
lung des Kontrastmittels anhand einer Ultraschall-Bildserie bewertet, ohne Kennzah-
len abzuleiten und so die Abbildung zu quantifizieren. Im einfachsten Fall werden rein
visuell die dynamischen Veränderungen in der Kontrastmittelverteilung am Monitor
des Ultraschallgerätes beobachtet. Die folgenden Anwendungen sind möglich:
– Angiographie: Eine Darstellung des Verlaufs von einzelnen Gefäßen (Angiogra-
phie) gelingt in zwei Fällen: Zum einen ist es möglich, Gefäße darzustellen, die
groß genug sind, um vom Ultraschallabbildungssystem aufgelöst zu werden. Zum
anderen kann aber auch der Verlauf von Gefäßen dargestellt werden, die zwar zu
klein sind, um im nativen Ultraschallbild (ohne Kontrastmittel) abgebildet zu wer-
den (< 1. . .3 mm), aber räumlich separiert von anderen Gefäßen verlaufen. Solche
Gefäße sind üblicherweise innerhalb des Speckle-Musters des nativen Ultraschall-
bildes nicht sichtbar, können aber über das starke Echo des Kontrastmittels im
kontrastmittelspezifischen Bild detektiert werden.
– Perfusionsabbildung: Liegen hingegen die feinen Gefäße zu dicht beieinander,
um einzeln dargestellt zu werden, kann nur eine generelle Intensitätszunahme
des rückgestreuten Echos im gesamten Gewebe beobachtet werden. In diesem Fall
kann die Gewebeperfusion (Blutversorgung durch das mikroskopische Kapillar-
system) über die dynamische Intensitätsänderung bei der Kontrastmittelapplika-
tion abgebildet werden.

󳶳Abb. 8.76 zeigt Beispiele einer angiographischen Abbildung und einer Perfusions-
abbildung [Engelhardt et al. 2007]. Die kontrastmittelspezifische Abbildung der Blut-
versorgung des Gewebes kann klinisch genutzt werden, um Gefäßanomalien darzu-
stellen oder eine Hypo-bzw. Hyperperfusion zu beobachten und somit pathologische
Veränderungen im Gewebe zu detektieren. Perfusionsunterschiede zum gesunden Ge-
webe zeigen zum Beispiel ischämische Prozesse wie den Herzinfarkt und den Schlag-
anfall, die über eine Hypoperfusion erkannt werden können. Ein weiteres Beispiel
sind pathologische Gewebeneubildungen (Neoplasien bzw. Tumoren), die sowohl als
hypo- als auch als hyperperfundierte Läsionen zu erkennen sein können [Hohmann
et al. 2003].
Ultraschallkontrastmittel verfügen in ihrer Eigenschaft als Marker (Targeted Imaging)
bei der sonographischen Bildgebung neben der Anwendung zur Darstellung von Blut-
fluss und Perfusion (Durchblutung von Gewebebereichen über kleine Gefäße, auch
Mikrozirkulation) über ein hohes diagnostisches und therapeutisches Anwendungs-
potential [Wei 2011]. Sie sind insbesondere im Zusammenhang mit verschiedenen An-
sätzen der 󳶳Molekularen Bildgebung [Behm et al. 2008, Voigt 2009] und der ultra-
schallgesteuerten, gezielten Medikamentengabe (drug delivery) [Ferrara et al. 2007,
Pitt et al. 2004] von großem Interesse.
8 Ultraschall | 309

(a) (b)

(c) (d)

Abb. 8.76: Beispiele kontrastmittelspezifischer Ultraschallaufnahmen in vivo. Angiographische Dar-


stellung: transkranielle Aufnahme des Circulus Willisii vor Kontrastmittelgabe (a) und danach (b).
Perfusionsabbildung: intraoperative Aufnahme zweier hyperperfundierter Hirntumoren (durchge-
zogene Pfeile) vor Kontrastmittelgabe (c) und danach (d). Gestrichelte Pfeile markieren Gefäße.
Die Ultraschallbilder wurden mit einem Siemens Sonoline Elegra im THI-Modus (vgl. 󳶳 Kap. 8.5.4)
aufgenommen. Die transkraniellen Bilder wurden mit dem Phased Array 2.5PL20 (Mittenfrequenz:
2,5 MHz) aufgenommen, die intraoperativen Bilder mit dem endokavitären Curved Array 6.5EC10
(Mittenfrequenz: 3 MHz).

Semiquantitative Perfusionsabbildung
Das Ziel der semiquantitativen Auswertung von kontrastmittelspezifischen Bildserien
ist es, aus dem zeitlichen Verlauf der Kontrastmittelkonzentration physiologisch aus-
sagekräftige Kennzahlen zu bestimmen. Während angiographische Verfahren meist
nur qualitativ arbeiten, besteht bei der Perfusionsabbildung die Möglichkeit, die Per-
fusionsdynamik zu quantifizieren und voneinander möglichst unabhängige perfusi-
onsbeschreibende Parameter zu extrahieren. Relevante Parameter sind beispielswei-
se die Blutmenge, die sich innerhalb eines betrachteten Gewebebereiches befindet,
und die Perfusionsrate, mit der Blut in den Gewebebereich eindringt. Da die Art der
Quantifizierung intraindividuell zwar den quantitativen Vergleich verschiedener Ge-
webetypen zulässt, aber für verschiedene Patienten interindividuell unterschiedliche
Werte liefert, wird sie häufig als semiquantitativ bezeichnet. Es existieren unterschied-
liche Methoden zur semiquantitativen Perfusionsabbildung: die Bolus-Methode, die
Wiederanreicherungsmethode und die Verarmungsmethode, die in der Literatur nä-
her beschrieben werden [Hansen 2009].
310 | Helmut Ermert, Christian Hansen

Bolus: Intravenöse Schnellinjektion eines Kontrastmittels. So entsteht ein mit Kontrastmittel an-
gereicherter Abschnitt im Blut.

8.7.4 Hochfrequenz-Ultraschall

Die räumliche Auflösung bei der Ultraschallabbildung kann durch eine Erhöhung der
Mittenfrequenz und der Bandbreite der verwendeten Ultraschallsignale gegenüber
den allgemein üblichen Frequenzen beträchtlich gesteigert werden [Foster et al. 2000,
Vogt et al. 2010]. Allerdings verringert sich die Reichweite der Abbildungssysteme we-
gen der mit der Frequenz ansteigenden Dämpfung des Ultraschalls im biologischen
Gewebe (siehe 󳶳Gl. (8.30)) bei hohen Frequenzen erheblich. Hochfrequenz-Ultra-
schall-Systeme sind erforderlich und können vorteilhaft (a) bei „nahen“ Objekten
mit geringer Ausdehnung und (b) bei Objekten mit geringer akustischer Dämpfung
eingesetzt werden. Zur Gruppe (a) gehören die Haut mit ihren pathologischen Verän-
derungen, Gefäßwände bei intravaskulärer Diagnostik sowie Schleimhäute innerer
Organe bei der endoskopischen Anwendung von Ultraschall. Auch Kleintiere und
Organe von Kleintieren (z. B. Mäuse), bei denen im Rahmen präklinischer Forschung
hochfrequenter Ultraschall angewandt wird, gehören zu dieser Kategorie. Zur Grup-
pe (b) gehört das Auge.
In der Dermatologie werden z. B. Ultraschallfrequenzen im Bereich von 20 bis
150 MHz verwendet [Ermert et al. 1997]. Da bei Frequenzen oberhalb von 30 MHz die
Arraytechnologie noch nicht sehr hoch entwickelt ist, werden hier vielfach fokus-
sierende Einzelwandler in mechanisch scannenden Systemen verwendet. Außerdem
können wegen besonderer Anforderungen an die Verarbeitung der hochfrequenten

mm mm
0,0 1,0 0,0 1,0
20 MHz 100 MHz
0,2 0,2
0,8 0,8
0,4 0,4

0,6 0,6
0,6 0,6
0,8 0,8

1,0 0,4 1,0 0,4

1,2 1,2
0,2 0,2
1,4 1,4

1,6 0,0 1,6 0,0


0 2 4 6 8 10 12 mm 0 2 4 6 8 10 12 mm

Abb. 8.77: HF-Ultraschall: Aufnahme eines Hauttumors (malignes Melanom) bei verschiedenen Fre-
quenzen.
8 Ultraschall | 311

Abb. 8.78: Intravaskuläres Querschnittsbild


einer Herzkranzarterie mit Ablagerung (sie-
he Pfeil). Momentaufnahme aus einer IVUS-
Bildsequenz (System Boston Scientific Scimed
Atlantis, 40 MHz).

Signale die universellen Standardgeräte der Ultraschalldiagnostik nicht verwendet


werden. Als dermatologisches Beispiel ist in 󳶳Abb. 8.77 ein malignes Melanom bei 20
und bei 100 MHz dargestellt [Gambichler et al. 2007].
Im Bereich der Ophthalmologie werden Geräte eingesetzt, deren Mittenfrequenz
im Bereich von 20 bis 50 MHz liegt [Pavlin et al. 1995]. Diese Geräte bringen hervor-
ragend aufgelöste Bilder des hinteren (20 MHz) und des vorderen Augenabschnittes
(30. . . 50 MHz) hervor. Bei 100 MHz wurden bisher lediglich Aufnahmen mit Laborsys-
temen hergestellt [Passmann et al. 1996].
In der Endoskopie, die zur Gruppe (a) gehört, wird Objektnähe durch das Ein-
führen des Wandlersystems in Körperhöhlen hergestellt. Hier liegen bei ultraschall-
diagnostischen Systemen die Frequenzen im Bereich von 7 bis 40 MHz. Diesem Be-
reich ist auch die intravaskultäre Ultraschalldiagnostik zuzuordnen. Die heute im
Einsatz befindlichen Ultraschallkatheter, die entweder mit rotierenden Wandlerele-
menten oder mit kleinen Ringarrays arbeiten und laterale Panoramabilder der Ge-
fäßquerschnitte hervorbringen, verwenden Frequenzen im Bereich von 10. . . 40 MHz
[Bom et al. 2000]. Ein Beispiel [Perrey et al. 2002] ist in 󳶳Abb. 8.78 dargestellt.

Intravaskuläre Ultraschallbildgebung („intravaskulärer Ultraschall“, IVUS): Form der sonographi-


schen Bildgebung mittels spezieller Ultraschallkatheter für die Untersuchung von Blutgefäßen.

8.7.5 Sonohistologie

Ziel der Gewebecharakterisierung mit Ultraschall („Sonohistologie“, „virtuelle His-


tologie“) ist die Gewinnung histologischer Informationen auf nicht invasivem Wege
aus Ultraschall-Echosignalen und die Zuordnung daraus abgeleiteter Parameter zu
312 | Helmut Ermert, Christian Hansen

den regulären Ultraschall-Schnittbildern. Dazu werden parallel zur Echtzeit-Bildge-


bung über eine spezielle Schnittstelle die hochfrequenten Ultraschall-Echodaten, aus
denen im Ultraschallgerät die B-Bilder entstehen, erfasst und in einem Rechner se-
parat verarbeitet. Eine Reihe von Signalparametern (Spektralparameter) und Bild-
parameter (Texturparameter) können aus den Hochfrequenzdaten gewonnen und
einem Klassifikationssystem zugeführt werden. Ergebnisse sind u. a. sogenannte Ma-
lignitätskarten, die Schnittbildbereiche markieren, in denen das Gewebe mit hoher
Wahrscheinlichkeit bösartig verändert ist.

Histologische Abbildung: Gewinnung und Darstellung gewebetypischer Merkmale in medizini-


schen Bildern.

In 󳶳Abb. 8.79 wird ein Beispiel aus einer klinischen Studie gezeigt, in der die So-
nohistologie [Scheipers et al. 2008] bei der Diagnostik des Prostatakarzinoms er-
probt wurde. Neben den üblichen, mit Rektalsonden gewonnenen Ultraschallbildern
(„B-Bilder“) wurden u. a. Malignitätskarten basierend auf dem Konzept der Sonohis-
tologie berechnet und dargestellt. Die Sonohistologie wurde auch erfolgreich in der
Hals-Nasen-Ohren-Heilkunde [Siebers et al. 2010] und in der Gefäßdiagnostik [Nair et
al. 2001] angewandt.

8.7.6 Weitere Modalitäten

Es soll hier auf weitere Modalitäten der bildgebenden Ultraschalldiagnostik hingewie-


sen werden, die zum größten Teil aber noch nicht Einzug in die medizinische Praxis
gehalten haben und Gegenstand von Forschung und Entwicklung sind.
– Transmissionsultraschall: Die Domäne der diagnostischen Ultraschallbildge-
bung ist die Echo-Sonographie. Es gibt aber auch einige Anwendungen, bei de-
nen die Transmission des Ultraschalls durch biologisches Gewebe genutzt wird.
Dazu zählen die Ultraschall-Transmissions-Tomographie, die eine Rekonstrukti-
on der Dämpfung und der Schallgeschwindigkeit in biologischem Gewebe gestat-
tet und häufig mit der Echo-CT kombiniert wird [Hansen 2009], die Messung der
Ultraschalldämpfung im Knochen zur Osteoporose-Diagnostik [Bauer et al. 1997,
Laugier et al. 2000, Barkmann et al. 2007] sowie quasioptische Abbildungssyste-

PCa

Abb. 8.79: B-Bild (links), Sono-Histologie (Mitte) und Histologie (rechts) einer Prostata mit Karzi-
nom.
8 Ultraschall | 313

me („Ultraschall-Kamera“) zur akustischen „Durchleuchtung“ von Körperteilen,


Organen und Kleinkindern [Ermert et al. 2000].
– Multimodale Konzepte (󳶳Multimodale Bildgebung): Die Kombination ver-
schiedener Bildgebungsverfahren ist vorteilhaft, wenn sich die gewonnenen
diagnostischen Informationen in Richtung einer sichereren Diagnostik ergänzen.
Im engeren Sinne können die Kombination der B-Bild-Technik mit der Doppler-
Bildgebung oder mit der Elastographie als multimodal bezeichnet werden. Im
weiteren Sinne wird Multimodalität aber allgemein als Kombination verschiede-
ner Bildgebungsarten wie z. B. Ultraschall und Röntgenbildgebung, MRT oder
optoakustischer Verfahren [Niederhauser et al. 2005] verstanden.
– Hybride Verfahren sind Verfahren, bei denen verschiedene Konzepte nicht nur
einfach kombiniert werden, sondern bei denen eine Wechselwirkung zwischen
verschiedenen Wellen, Strahlen, Kräften und Feldern genutzt wird. Dazu zählt im
engeren Sinne die Ultraschall-Elastographie, da hier die Wechselwirkung des Ul-
traschalls mit mechanischen Verformungsvorgängen genutzt wird. Im weiteren
Sinne gehören die photo-akustische Bildgebung und die akusto-optische Bildge-
bung in diese Kategorie, weil hier Wechselwirkungen von Schall und Licht für die
Bildgebung genutzt werden [Wang 2003, Xu et al. 2006].

Hybride Abbildung: Abbildung, bei der mehrere unterschiedliche Strahlungs- oder Wellenarten,
die auch in Wechselwirkung miteinander stehen können, genutzt werden (z. B. photo-akustische
Bildgebung).

8.8 Physikalische Effekte, biologische Wirkungen, Grenzwerte


8.8.1 Physikalische Effekte

Beim Ultraschall handelt es sich um mechanische Wellen, die das biologische Gewe-
be wegen der auftretenden Absorption thermisch und wegen der lokalen und transi-
enten Druckschwankungen und Bewegungsvorgänge mechanisch belasten können.
Aus diesem Grunde sind diese beiden Belastungsarten zu unterscheiden und auf mög-
liche schädigende Einwirkungen auf das Gewebe zu untersuchen. Bei der Definition
von Betriebsparametern, welche die thermische und mechanische Belastung des bio-
logischen Gewebes beschreiben, sind neben den Ultraschallfrequenzen die Kenngrö-
ßen des Pulsbetriebs und des Scanbetriebs sowie der Fokussierungsgrad der Schall-
wandler zu beachten.
Zur Bewertung möglicher Gefährdungen [Duck 2008, ter Haar 2010] ist neben
einem Kennwert für die Schallintensitäten, aus denen sich Erwärmungseffekte im
Gewebe ableiten lassen, auch ein Kennwert, der für mechanische Wirkungen, ins-
besondere Kavitationsbildung, verantwortlich ist, definiert worden. Zur Abschätzung
314 | Helmut Ermert, Christian Hansen

thermischer Wirkungen dient der zeitlich gemittelte räumliche Spitzenwert (spatial


peak temporal average) der Leistungsdichte SSPTA . [Begriff 3.62 in IEC 62127-1, 2007].
Zur Abschätzung möglicher mechanischer Schädigungen auf das biologische Gewebe
dient der mechanische Index MI gemäß 󳶳Gl. (8.19), in den der Spitzenwert der nega-
tiven Druckamplituden p̂ neg und die Ultraschallfrequenz eingehen.
In einer Studie [Henderson et al. 1995] wurden die Betriebswerte typischer Ultra-
schallgeräte ermittelt und zusammengestellt (siehe 󳶳Tab. 8.8).
Bei den mechanischen Effekten, die ein Gefährdungspotential bilden, ist es insbe-
sondere das Auftreten von Kavitation [Kuttruff 1988, Leighton 1998], das zu Gewebe-
schäden und Blutungen führen kann. Man unterscheidet zwei Arten von Kavitation:
– Weiche Kavitation: In fluiden Medien können Gase in gelöster Form vorhanden
sein. Bei einer transienten Druckverminderung entstehen Gasblasen, wie sie z. B.
durch den Druckverlust beim Öffnen einer Mineralwasserflasche entstehen.
– Harte Kavitation: tritt in völlig entgasten und gereinigten Flüssigkeiten auf. Da
die Siedetemperatur von Flüssigkeiten druckabhängig ist, können bei der transi-
enten Druckabnahme in den Sogphasen eines Ultraschallwellenfeldes Verdamp-
fungseffekte auftreten, es entstehen Dampfblasen, die in den Druckphasen wie-
der implodieren. Begleiterscheinungen sind hohe Drücke mit Schallemission (bis
100 MPa), hohe Temperaturen (bis 1000°C), zusätzliche Absorption sowie Sono-
lumineszenz und sonochemische Reaktionen.

Der Pegel für das Auftreten von Kavitation ist frequenzabhängig. Die Schwellwerte für
das Auftreten von Kavitation wachsen mit steigender Frequenz, steigendem statischen
Druck und mit dem Grad der Viskosität eines fluiden Mediums, sie sinken mit steigen-
dem Gasgehalt und steigender Temperatur. Für Wasser gibt es Abschätzungen zum
Schwellwert für das Auftreten von Kavitation [Kuttruff 1988], siehe 󳶳Abb. 8.80.
Im biologischen Gewebe tritt Kavitation bevorzugt an Grenzschichten zwischen
Materialien unterschiedlicher Konsistenz auf, insbesondere an Grenzschichten zwi-
schen gasgefüllten Arealen und Weichgewebe. Ein Schwellwert lässt sich wegen der
Komplexität der Gewebestrukturen und ihrer Grenzbereiche nicht angeben.

Tab. 8.8: Betriebsdaten von Ultraschallgeräten in verschiedenen Betriebsarten.

Betriebsart Negative Druckamplitude ISPTA (Maximalwert) Akustische Gesamt-


p (Spitzenwert) in MPa in mW/cm2 leistung Ptot in mW
(T)M-Modus 0,45 ... 5,54 11,2 ... 430 1 ... 68
B-Modus 0,45 ... 5,54 0,3 ... 991 0,3 ... 285
Puls-Doppler 0,67 ... 5,32 173 ... 9080 10 ... 440
Farb-Doppler 0,46 ... 4,25 21 ... 2050 15 ... 440
8 Ultraschall | 315

10⁸
negativer Druck in Pa

10⁷

10⁶

10⁵

10⁴
10³ 10⁴ 10⁵ 10⁶ 10⁷ Abb. 8.80: Schwellwerte für das Auftreten von
Frequenz in Hz Kavitation in Wasser.

Kavitation: Bildung von stabilen oder transienten Hohlräumen in fluiden Medien durch die Einwir-
kung akustischer Wellenfelder.

8.8.2 Biologische Wirkungen

Bei den Untersuchungen über mögliche biologische Wirkungen und Schädigungen


durch die Einwirkung von Ultraschall sind folgende Möglichkeiten berücksichtigt wor-
den: Verbrennungen, thermische Nekrosen, physiologische Irritationen, Zerstörung
von Zellgewebe, Zerstörung kleiner Organe (Embryos), Schädigung des Erbgutes, Mu-
tagenese, Karzinogenese und Teratogenese (siehe unten), wobei neben den mögli-
chen, bekannten Ursachen (Wärmebildung und Kavitation) auch noch unbekannte
Ursachen nicht ausgeschlossen werden können. Für die Schädigung durch Ultraschall
gilt prinzipiell:
– „Schwellencharakter“, d. h., unterhalb bestimmter Schwellen (abhängig von Am-
plitude, Dauer etc.) treten keine Schädigungen auf.
– keine Integrationseffekte wie bei ionisierenden Strahlen.

Mögliche Schädigungsarten sind:


– Mutagenese (Erzeugung von Mutationen, z. B. in Keimzellen) entsteht normaler-
weise spontan oder aber durch ionisierende Strahlung oder durch Chemikalien.
Die Ursachen von Karzinogenese (Erzeugung von Krebs) sind vielfältig. Nach
jahrzehntelangen, intensiven Untersuchungen im Bereich des diagnostischen
Ultraschalls bei verschiedenen Intensitäten gibt es keine Hinweise auf Muta-
tionen im Gewebe (Säugetiere) und auf die Bildung von Malignomen (bösartige
Geschwülste).
316 | Helmut Ermert, Christian Hansen

– Mit Teratogenese bezeichnet man das Auftreten von Zellteilungshemmung, die


z. B. zur Erzeugung von Missbildungen bei Embryos führen kann. Bei Hyperther-
mie (Übererwärmung) ist Teratogenese prinzipiell möglich. Bei Erwärmungen auf
Temperaturen von < 38,5°C besteht kein teratogenes Risiko. Bei Temperaturen
> 41°C ist ein solches Risiko vorhanden, wobei Fieber als ein zusätzlicher Risiko-
faktor angesehen wird.
– Die Möglichkeit der Schädigung des Gewebes in Form thermischer Nekrosen
(Absterben des Gewebes) oder durch Einblutungen infolge Kavitation ist bei the-
rapeutischen Ultraschallpegeln wesentlich größer als bei der Anwendung diagno-
stischer Systeme. Die dauerhafte Schädigung (Nekrosen) wird bei der therapeuti-
schen Anwendung von Ultraschall bewusst herbeigeführt. Die Gefährlichkeit vor-
übergehender Schädigungen wie z. B. Einblutungen ist umstritten, sie wird bei der
therapeutischen Anwendung von Stoßwellen für Zwecke der Lithotripsie (Stein-
zertrümmerung) in Kauf genommen.

8.8.3 Grenzwerte

Für die thermische Wirkung des Ultraschalls wäre es eigentlich sinnvoll, Temperatur-
grenzwerte festzulegen. Da Temperaturerhöhungen aber nicht zuverlässig bestimmt
werden können, werden die Leistungsdichtewerte des Ultraschallwellenfeldes be-
nutzt.
Es gibt eine Aussage der Weltgesundheitsorganisation (WHO) von 1977, wonach
es im unteren Megahertzbereich (< 5 MHz) keine von unabhängigen Stellen bestä-
tigten, signifikanten Effekte in biologischem Gewebe von Säugetieren gibt, das einer
unfokussierten In-vivo-Beschallung von Ultraschall mit Intensitäten unterhalb von
100 mW/cm2 ausgesetzt wird. Darüber hinaus sollen auch bei fokussiertem Ultraschall
mit höheren Intensitäten entsprechende Effekte nicht nachweisbar sein, wenn die Ein-
wirkungsdauer des Ultraschalls zwischen 1 Sekunde und 500 Sekunden liegt und das
Produkt aus Intensität und Einwirkungsdauer kleiner als 50 Ws/cm2 ist [Hill, 1977].
Diese Zusammenhänge sind in 󳶳Abb. 8.81 graphisch dargestellt.
Es gibt eine Empfehlung [US Department of Health and Human Services 2008],
wonach bei Ultraschalluntersuchungen Ultraschallwellen mit Druckamplituden
unterhalb von 1 MPa eingesetzt werden sollen. Die Schallintensität J (räumliche Leis-
tungsdichte) liegt hierbei unter 720 mW/cm2 . Dieser Wert wird in B-Bild-Systemen
nicht erreicht. Er kann aber in Farb-Doppler-Systemen auftreten. Hier wird aller-
dings die Einhaltung des Grenzwertes durch die Steuersoftware der Geräte und eine
geeignete Gestaltung der Bedienungskonsole sichergestellt [AIUM/NEMA 2004].
Nach Aussagen der Strahlenschutzkommission (SSK) der Bundesregierung kön-
nen thermische Schäden bei Patienten ohne Fieber oberhalb einer lokalen Tempe-
raturerhöhung von 2°C über der normalen Körpertemperatur von 37°C nicht ausge-
schlossen werden. Für das embryonale oder fetale Gewebe empfiehlt die SSK einen
8 Ultraschall | 317

100 möglicher Schädigungsbereich

sicherer Bereich:
10 Sz < 100 mW cm–2
oder
Sz/(W cm–2)

Szt < 50 Ws cm–2


1

0,1

0,01
0 10 10² 10³ 10⁴
1h
t/s

Abb. 8.81: Definition sicherer und möglicherweise schädigender Betriebsbereiche von Ultraschall-
geräten (Sz = Intensität, t = Einwirkungsdauer).

niedrigeren Wert. Beim Erwachsenen sind kurzfristige Überwärmungen oftmals harm-


los. Beim Embryo dagegen können sie zu Fehlbildungen wie einem zu kleinem Gehirn
führen [Bundesamt für Strahlenschutz, Salzgitter, http://www.bfs.de.]
Der negative Spitzendruck [Begriff 3.44 in IEC 62127-1 MOD] ist ein Maß für die Ka-
vitationsgefahr, die mit steigender Frequenz sinkt. Üblicherweise werden in der kli-
nischen Anwendung maximale MI-Werte gemäß 󳶳Gl. (8.19) von 1 bis 1,9 toleriert [US
Department of Health and Human Services 2008]. Die Strahlenschutzkommission gibt
als Grenzwerte für die negative Schalldruckamplitude allgemein einen Wert von 5 MPa
und bei gashaltigem Gewebe 1 MPa (Lunge) bzw. 2 MPa (Darm) an. Die Grenzwerte
und ihre experimentelle Überprüfung sind auch in einigen DIN/IEC-Normen festge-
legt [u. a. IEC 60601-2-37 Ed. 1, 2001 und Ed. 2, 2007].

8.8.4 Qualitätsmanagement

Bei der diagnostischen Anwendung von Ultraschall bedarf es eines angemessenen


Qualitätsmanagements, das nicht nur die Geräte, sondern auch das Bedienungsper-
sonal betrifft. Ziele dabei sind die Sicherung der Zuverlässigkeit der Diagnostik und
die Einhaltung von Grenzwerten beim Betrieb der Geräte zum Schutze der Patienten.
Deshalb spielen Ausbildung und Weiterbildung des Bedienpersonals beim Ultra-
schall eine besonders große Rolle. Weiterhin ist die regelmäßige Überprüfung der Ge-
räte im Hinblick auf die Spezifikationen (Empfindlichkeit, Schallleistungen) für eine
sichere Diagnostik ebenso wichtig wie für die Patientensicherheit, wozu Ultraschall-
Gewebephantome (Bildqualität, [Satrapa et al. 2002, 2006]) und Schall-Leistungs-
messeinrichtungen (Sicherheit, [DIN EN 62359, 2011]) nützliche Hilfen bilden.
318 | Helmut Ermert, Christian Hansen

Phantom: auf eine bestimmte Bildgebungsmodalität zugeschnittene technische Nachbildung ei-


nes diagnostischen Objektes (Gewebe, Organ).

In den Bereichen Qualitätssicherung und Weiterbildung engagieren sich besonders


die nationalen und internationalen Fachgesellschaften wie zum Beispiel die Deutsche
Gesellschaft für Ultraschall in der Medizin (DEGUM). Sie stellen besondere Service-
Angebote bereit (http://www.degum.de/Qualitaetssicherung_III_Stufen.60.0.html,
http://www.degum.de/Weiterbildung.61.0.html.)

Quellenverzeichnis
Albrecht T., Blomley M., Bolondi L., Claudon M., Correas J. M., Cosgrove D., et al.: Guidelines for the
use of contrast agents in ultrasound. Ultraschall in Med 2004; 25: 249–256.
Barkmann R., Laugier P., Moser U., Dencks S., Padilla F., Haïat G., Heller M., Glüer C.-C.: A method for
the estimation of femoral bone mineral density from variables of ultrasound transmission
through the human femur. Bone 2007; 40 (1): 37–44.
Bauer D. C., Glüer C. C., Cauley J. A., Vogt T. M., Ensrud K. E., Genant H. K., Black M. D.: Broadband
ultrasound attenuation predicts fractures strongly and independently of densitometry in older
women. A prospective study. Study of Osteoporotic Fractures Research Group. Arch Intern Med
1997; 157 (6): 629–634.
Behm C. Z., Lindner J. R.: Cellular and molecular imaging with targeted contrast ultrasound.
Ultrasound Q 2006; 22 (1): 67–72.
Bercoff J., Tanter M., Fink M.: Supersonic shear imaging: a new technique for soft tissue elasticity
mapping. IEEE Trans Ultrason Ferroelectr Freq Control 2004; 51 (4): 396–409.
Berson M., Roncin A., Pourcelot L.: Compound scanning with an electrically steered beam. Ultrason
Imaging 1981; 3: 303–308.
Bogdahn U., Becker G., Schlachetzki G. (Hrsg.): Echoenhancers and transcranial color duplex
sonography. 4. Aufl. Berlin u. a.: Blackwell Science, 1998.
Bom N., Carlier S. G., van der Steen A. F. W., Lancee C. T.: Intravascular scanners. Ultrasound Med
Biol 2000: 26 (1), S6–S9.
Bouakaz A., Verslius M., de Jong N.: High-speed optical observations of contrast agent destruction.
Ultras Med Biol 2005; 31 (3): 391–399.
Burkhardt C.: Speckle in Ultrasound B-mode Scans. IEEE Trans Sonics Ultrason 1978; 25: 1–6.
Buzug T. M.: Einführung in die Computertomographie. Berlin: Springer, 2004.
Chapman C., Lazenby J.: Ultrasound imaging system employing phase inversion substraction to
enhance the image. US Patent: No. 5.632.2777, 1997.
Chaussy C., Brendel W., Schmiedt E.: Extracorporeally induces destruction of kidney stones by shock
waves. Lancet 1980; 316: 1265–1258.
Dausch D., Castellucci J., Chou D., von Ramm O.: Theory and operation of 2-D array piezoelectric
micromachined ultrasound transducers. IEEE Transactions on Ultrasonics, Ferroelectrics and
Frequency Control 2008; 55: 2484–2492.
Duck F. A.: Physical properties of tissue. London: Academic Press, 1990.
Duck F. A.: Hazards, risks and safety of diagnostic ultrasound. Medical Engineering and Physics
2008: 30: 1338–1348.
8 Ultraschall | 319

Duric N., Littrup P., Poulo L., Babkin A., Pevzner R., Holsapple E., et al.: Detection of breast cancer
with ultrasound tomography: first results with the computerized ultrasound risk evaluation
(CURE) prototype. Med Phys 2007; 34 (2): 773–785.
Duric N., Littrup P., Rama O., Holsapple E. T.: Computerized ultrasound risk evaluation (CURE): first
clinical results. Acoustical Imaging 2007; 28: 177–185.
Dussik K. T.: Über die Möglichkeit hochfrequente mechanische Schwingungen als diagnostische
Hilfsmittel zu verwenden. Z Ges Neurol Psychat 1942; 174: 153–168.
Eggert T., Khaled W., Wenske S., Ermert H., Noldus J.: Impact of elastography in clinical diagnosis of
prostate cancer. A comparison of cancer detection between B-mode sonography and
elastography-guided 10-core biopsies. Urologe 2008; 47 (9): 1212–1217.
Einighammer H. J.: Ultrasonic rotational compound scans of the breast. Diagn Imag Clin Med 1985;
54: 223–228.
Engelhardt M., Hansen C., Eyding J., Wilkening W., Brenke C., Krogias C., et al.: Feasibility of
contrast-enhanced sonography during resection of cerebral tumours – initial results of a
prospective study. Ultrasound Med Biol 2007; 33 (4): 571–575.
Ermert H., Röhrlein G.: Ultrasound reflection-mode computerized tomography for in-vivo imaging of
small organs. Proceedings: IEEE Intern Ultrason Symp 1986; 2: 825–828.
Ermert H., Hiltawsky K. M., Khaled W., Lorenz A., Perrey C., Pesavento A., et al.: Prinicple,
applications and limitations of ultrasound based elastography. Acoustical Imaging 2003; 27:
503–510.
Ermert H., Vogt M., Paßmann C., el Gammal S., Kaspar K., Hoffmann K., Altmeyer P.: High frequency
ultrasound (50–150 MHz) in dermatology. In: Altmeyer P., Hoffmann K., Stücker M. (Hrsg.): Skin
cancer and UV radiation. Berlin, Heidelberg, New York: Springer, 1997: 1023–1051.
Ermert H., Keitmann O., Oppelt R., Granz B., Pesavento A., Vester M., Tillig B., Sander V.: A new
concept for a real-time ultrasound transmission camera. IEEE 2000 Ultrasonics Symposium
Proceedings 2000; 2: 1611–1614.
Ferrara K., Pollard R., Borden M.: Ultrasound microbubble contrast agents: fundamentals and
application to gene and drug delivery. Annu Rev Biomed Eng 2007; 9: 415–447.
Fettweis A.: Elemente nachrichtentechnischer Systeme. 2. Aufl. Stuttgart: BG Teubner, 1996.
Foster F. S., Pavlin C. J., Harasiewicz K. A., Christopher D. A., Turnbull D. H.: Advances in ultrasound
biomicroscopy. Ultrasound Med Biol 2000; 26 (1): 1–27.
Gambichler T., Moussa G., Bahrenberg K., Vogt M., Ermert H., Weyhe D., et al.: Preoperative
ultrasonic assessment of thin melanocytic skin lesions using a 100-MHz ultrasound transducer:
a comparative study. Dermatol Surg 2007; 33 (7): 818–824.
Geier B., Barbera L., Muth-Werthmann D., Siebers S., Ermert H., Philippou S., Mumme A.: Ultrasound
elastography for the age determination of venous thrombi. Evaluation in an animal model of
venous thrombosis. Thromb Haemost 2005; 93 (2): 368–374.
Gill T. P.: The Doppler-effect: An introduction to the theory of the effect. London: Logos-Press, 1965.
Glide C., Duric N., Littrup P.: A novel approach to evaluating breast density utilizing ultrasound
tomography. Med Phys 2007; 34 (2): 744–753.
Goldberg G. G., Raichlen J. S., Forsberg F.: Ultrasound contrast agents: basic principles and clinical
applications. 2. Aufl. London: Martin Dunitz, 2001.
Halliwell M., Curtis S.: Ultrasound breast imaging: a 3-dimensional approach, work-in-process.
Toshiba Medical Systems: Visions 2008; 12: 67–75.
Hansen C., Hollenhorst M., Hüttebräuker N., Wilkening W., Heuser L., Schulte-Altedorneburg G.,
Ermert H.: Ultrasound breast imaging using full angle spatial compounding: in-vivo results.
Proceedings: IEEE Intern Ultrason Symp 2008; 54–57.
Hansen C.: Kontrastmittelspezifische Ultraschall-Computertomographie. Dissertation Ruhr-
Universität Bochum, 2009.
320 | Helmut Ermert, Christian Hansen

Hansen C., Hüttebräuker N., Wilkening W., Ermert H.: A method to expedite data acquisition for
multiple spatial-temporal analyses of tissue perfusion by contrast-enhanced ultrasound. IEEE
Transactions on Ultrasonics, Ferroelectrics and Frequency Control 2009; 56: 507–519.
Henderson J., Willson K., Jago J. R., Whittingham T. A.: A survey of the acoustic outputs of diagnostic
ultrasound equipment in current clinical use. Ultrasound Med Biol 1995; 21 (5): 699–705.
Hill C. R.: Manual on health aspects exposure to non ionizing radiation. Chapter: Ultrasound. WHO
Regional Office for Europe, 1977.
Hiller D., Ermert H.: Tomographic reconstruction of B-scan images. Acoustical Imaging 1982; 10:
347–364.
Hiller D., Ermert H.: Ultrasound computerized tomography using transmission and reflection mode:
application to medical diagnosis. Acoustical Imaging 1982; 12: 553–562.
Hiltawsky K. M.: Analyse und Optimierung von Abbildungseigenschaften der Ultraschall-
Elastographie. Dissertation Ruhr-Universität Bochum, 2005.
Hiltawsky K. M., Krüger M., Starke C., Heuser L., Ermert H., Jensen A.: Freehand ultrasound
elastography of breast lesions: clinical results. Ultrasound in Med & Biol 2001; 27 (11):
1461–1469.
Hofer M.: Sono Grundkurs: Ein Arbeitsbuch für den Einstieg. 4. Aufl. Stuttgart: Georg Thieme Verlag,
2002.
Hohmann J., Albrecht T., Hoffmann C. W., Wolf K. J.: Ultrasonographic detection of focal liver lesions:
increased sensitivity and specificity with microbubble contrast agents. Eur J Radiol 2003; 46
(2): 147–159.
Hollenhorst M., Hansen C., Hüttebräuker N., Schasse A., Heuser L., Ermert H., Schulte-
Altedorneburg G.: Ultrasound computed tomography in breast imaging: first clinical results of a
custom-made scanner. Ultraschall Med 2010; 31 (6): 604–609. Epub 7.7.2010.
Hope Simpson D., Chin C., Burns P.: Pulse inversion Doppler: a new method for detecting nonlinear
echoes from microbubble contrast agents. IEEE Trans Ultrason Ferroelect Freq Contr 1999; 46
(2): 372–382.
Hoskins P. R., Anderson T., Meagher S., MacGillivray T. J., Sharp M., McDicken W. N.: B-mode
compound imaging in mice. Ultrasound Med Biol 2006; 32 (1): 29–32.
Howry D., Bliss W.: Ultrasonic visualization of soft tissue structures of the body. J Lab Clin Med 1952;
40 (4): 579–592.
Jago J.: An automated method for determining the centre of rotation of a mechanically scanned
reflection UCT system. Phys Med Biol 1994; 39: 2367–2371.
Jiang P., Mao Z., Lazenby J. C.: A new tissue harmonic imaging scheme with better fundamental
frequency cancellation and higher signal-to-noise ratio. IEEE International Ultrasonics
Symposium Proceedings 1998; 2: 1589–1594.
Kalender W. A.: Computertomographie: Grundlagen, Gerätetechnologie, Bildqualität, Anwendungen.
2. Aufl. Erlangen: Public Corporate Publishing, 2006.
Kasai C., Namekawa K., Koyano A., Omoto R.: Real-time two-dimensional blood flow imaging using
an autocorrelation technique. IEEE Transactions on Sonics and Ultrasonics 1985; 32: 458–464.
Kennedy J. E., ter Haar G. R., Cranston D.: High intensity focused ultrasound: surgery of the future?
British Journal of Radiology 2003; 76: 590–599.
Khaled W., Reichling S., Bruhns O. T., Ermert H.: Ultrasonic strain imaging and reconstructive
elastography for biological tissue. Ultrasonics 2006; 44: E199–E202.
König K., Scheipers U., Pesavento A., Lorenz A., Ermert H., Senge T.: Initial experiences with
real-time elastography guided biopsies of the prostate. J Urol 2005; 174 (1): 115–117.
Kremkau F. W.: Cancer therapy with ultrasound: a historical review. J Clin Ultrasound 1979; 7:
287–300.
8 Ultraschall | 321

Lang M., Ermert H.: Linear synthetic aperture modes for ultrasonic pulse-echo imaging.
Biomedizinische Technik 1997; 42 (5): 108–115.
Laugier P., Padilla F., Camus E., Chaffai S., Chappard C., Peyrin F., Talmant M., Berger G.: Quantitative
ultrasound for bone status assessment. Ultrasonics Symposium 2000 IEEE; 2 (2): 1341–1350.
Lehmann T., Oberschelp W., Pelikan E., Repges R.: Bildverarbeitung für die Medizin. Berlin: Springer,
1997.
Leighton T. G.: An introduction to acoustic cavitation. In: Duck F. A., Baker A. C., Starritt H. C. (Hrsg.):
Ultrasound in medicine. Bristol: Institute of Physics Publishing, 1998: 199–233.
Lindner J. R.: Microbubbles in medical imaging: current applications and future directions. Nat Rev
Drug Discov 2004; 3 (6): 527–532.
Nair A., Kuban B. D., Obuchowski N., Vince D. G.: Assessing spectral algorithms to predict
atherosclerotic plaque composition with normalized and raw intravascular ultrasound data.
Ultrasound Med Biol 2001; 27 (10): 1319–1331.
Neumann T., Ermert H.: Schlieren visualization of ultrasonic wave fields with high spatial resolution.
Ultrasonics 2006; 44 (Suppl 1): e1561–1566. Epub 15.6.2006.
Niederhauser J. J., Jaeger M., Lemor R., Weber P., Frenz M.: Combined ultrasound and optoacoustic
system for real-time high-contrast vascular imaging in vivo. IEEE Trans Med Imaging 2005; 24
(4): 436–440.
Nightingale K., Soo M. S., Nightingale R., Trahey G.: Acoustic radiation force impulse imaging: in
vivo demonstration of clinical feasibility. Ultrasound Med Biol 2002; 28 (2): 227–235.
Ophir J., Alam S. K., Garra B., Kallel F., Konofagou E., Krouskop T., Varghese T.: Elastography:
ultrasonic estimation and imaging of the elastic properties of tissues. Proc Inst Mech Eng H
1999; 213 (3): 203–233.
Opretzka J., Vogt M., Ermert H.: A high-frequency ultrasound imaging system combining
limited-angle spatial compounding and model-based synthetic aperture focusing. IEEE Trans
Ultrason Ferroelectr Freq Control 2011; 58 (7): 1355–1365.
Paßmann C., Ermert H.: A 100 MHz ultrasound imaging system for dermatologic and ophthalmologic
diagnostics. IEEE Trans Ultras Ferr Freq Contr 1996; 43 (4): 545–552.
Pavlin C. J., Foster F. S.: Ultrasound biomicroscopy of the eye. New York: Springer, 1995.
Perrey C., Neumann T., Bojara W., Holt S., Ermert H.: Real time intravascular ultrasound elastography
with rotating single element transducers. IEEE Ultrasonics Symposium Proceedings 2002; 2:
1913–1916.
Pesavento A., Lorenz A., Ermert H.: System for real-time elastography. Electronics Letters 1999; 35
(11): 941–942.
Pesavento A., Lorenz A., Siebers S., Ermert H.: New real-time strain imaging concepts using
diagnostic ultrasound. Phys Med Biol 2000; 45: 1423–1435.
Pitt W. G., Husseini G. A., Staples B. J.: Ultrasonic drug delivery – a general review. Expert Opin Drug
Deliv 2004; 1 (1): 37–56.
Postema M., Schmitz G.: Bubble dynamics involved in ultrasonic imaging. Expert Rev Mol Diagn
2006; 6 (3): 493–502.
Randal J.: High Intensity focused ultrasound makes its debut. Nat Cancer Inst 2002; 94: 962–964.
Rao N., Mehra S.: Medical ultrasound imaging using pulse compression. Electronics Letters 1993;
29: 649–651.
Röhrlein G., Ermert H.: Limited angle reflection mode computerized tomography. Acoustical Imaging
1985; 14: 413–424.
Röhrlein G., Ermert H.: Speckle in ultrasound computerized reflection mode tomography. Acoustical
Imaging 1987; 15: 341–357.
322 | Helmut Ermert, Christian Hansen

Rychak J. J., Graba J., Cheung A. M., Mystry B. S., Lindner J. R., Kerbel R. S., Foster F. S.:
Microultrasound molecular imaging of vascular endothelial growth factor receptor 2 in a mouse
model of tumor angiogenesis. Mol Imaging 2007; 6 (5): 289–296.
Satomura S.: Ultrasonic Doppler method for the inspection of cardiac functions. J Acoust Soc Am
1957; 29: 1181–1185.
Satrapa J., Doblhoff G., Schultz H. J.: Automatisierte Qualitätsprüfung von diagnostischen
Ultraschallgeräten. Ultraschall in Med 2002; 23: 123–128.
Satrapa J., Schultz H.-J., Doblhoff G.: Automatisierte Qualitätskontrolle von
Ultraschall-B-Mode-Scanner in Kliniken und Praxen mithilfe von gewebeäquivalentem
3D-Zystenphantom.Ultraschall in Med 2006; 27: 262–272.
Scheipers U., König K., Sommerfeld H. J., Garcia-Schürmann M., Senge T., Ermert H.: Sonohistology
– ultrasonic tissue characterization for prostate cancer diagnostics. Cancer Biomark 2008; 4
(4–5): 227–250.
Schmitz G., Ermert H., Senge T.: Tissue-characterization of the prostate using radio frequency
ultrasonic signals. IEEE Trans Ultrason Ferroelectr Freq Control 1999; 46 (1): 126–138.
Shankar P. M., Newhouse V. L.: Specificity and sensitivity of lesion detection by spatial compounding
of B-mode images. Proceedings: IEEE Intern Ultrason Symp 1984; 2: 739–742.
Shipley J. A., Duck F. A., Goddard D. A., Hillman M. R., Halliwell M., Jones M. G., Thomas B. T.:
Automated quantitative volumetric breast ultrasound data-acqusition system. Ultrasound Med
Biol 2005; 31 (7): 905–917.
Siebers S., Zenk J., Bozzato A., Klintworth N., Iro H., Ermert H.: Computer aided diagnosis of parotid
gland lesions using ultrasonic multi-feature tissue characterization. Ultrasound Med Biol 2010;
36 (9): 1525–1534.
Siebers S., Scheipers U., Welp C., Werner J., Ermert H.: Ultrasound based methods for monitoring of
thermal therapies. In: Arnold W (Hrsg.): Acoustical Imaging, Vol. 27. New York: Kluwer
Academic/Plenum Publisher, 2003: 643–650.
Sobotta J.: Atlas der Anatomie des Menschen. 21. Aufl. München: Elsevier (Urban & Fischer), 2002.
Sommerfeld H. J., Garcia-Schurmann J. M., Schewe J., Kuhne K., Cubick F., Berges RR., et al.: Prostate
cancer diagnosis using ultrasound elastography. Introduction of a novel technique and first
clinical results. Urologe A 2003; 42 (7): 941–945.
ter Haar G., Duck F. A. (Hrsg.): The safe use of ultrasound in medical diagnosis. London: British
Institute of Radiology, 2000.
ter Haar G.: Ultrasound bioeffects and safety. Proc Inst Mech Eng H 2010; 224 (2): 363–373.
Trahey G. E., Smith S., Ramm O.: Speckle pattern correlation with lateral aperture translation:
experimental results and implications for spatial compounding. IEEE Trans Ultrason Ferroelect
Freq Contr 1986; 33 (3): 257–264.
Treece G. M., Gee A. H., Prager R. W.: Ultrasound compounding with automatic attenuation
compensation using paired angle scans. Ultrasound Med Biol 2007; 33 (4): 630–642.
Vogt M., Ermert H.: Development and evaluation of a high-frequency ultrasound-based system for in
vivo strain imaging of the skin. IEEE Trans Ultrason Ferroelectr Freq Control 2005; 52 (3):
375–385.
Vogt M., Opretzka J., Perrey C., Ermert H.: Ultrasonic microscanning. Proceedings of the Institution
of Mechanical Engineers Part H – Journal of Engineering In Medicine 2010; 224 (H2): 225–240.
Voigt J. U.: Ultrasound molecular imaging. Methods 2009; 48 (2): 92–97. Epub 24.3.2009.
Wagner R. F., Smith S. W., Sandrik J. M., Lopez H.: Statistics of speckle in ultrasound B-scans. IEEE
Trans Sonics Ultrason 1983; 30 (3): 156–163.
Wang L. V.: Ultrasound-mediated biophotonic imaging: a review of acousto-optical tomography and
photo-acoustic tomography. Dis Markers 2003–2004; 19 (2–3): 123–138.
Wei K.: Future applications of contrast ultrasound. J Cardiovasc Ultrasound 2011; 19 (3): 107–114.
8 Ultraschall | 323

Wilbert D. M., Reichenberger H., Noske E., Hohenfellner R.: New generation shock wave lithotripsy.
The Journal of Urology 1987; 138: 563–565.
Wilbert D. M.: A comparative study of extracorporeal shock wave generation. BJU International 2002;
90: 507–511.
Wild J. J.: The use of ultrasonic pulses for the measurement of biologic tissues and the detection of
tissue density changes. Surgery 1950; 27 (2): 183–188.
Wöhrle N. K., Hellerhoff K., Notohamiprodjo M., Reiser M. F., Clevert D. A.: Automated breast volume
scanner (ABVS): a new approach for breast imaging. Radiologe 2010; 50 (11): 973–981.
Xu M. W., Lihong V.: Photoacoustic imaging in biomedicine. Review of Scientific Instruments 2006;
77 (4): 041101–041122.
Xu S., Ermert H.: Modelle zur Beschreibung der Ultraschallstreuung in Blut. Biomedizinische Technik
1997; 42 (5): 123–131.
Xu S.: Zweidimensional Abbildungsverfahren zur quantitativen Rekonstruktion der
Blutströmungsgeschwindigkeit mittels Ultraschall-Doppler-Technik in der medizinischen
Diagnostik. Düsseldorf: VDE-Verlag, Reihe 17 (Biotechnik), Nr. 122, 1995.

Weiterführende Literatur
AIUMINEMA UD3: Standard for real-time display of thermal and mechanical acoustic output indices
on diagnostic ultrasound equipment. UD 3-2004 rev. 2. American Institute for Ultrasound in
Medicine I National EIectrical Manufacturers Association, USA, 2004.
Angelsen B. A. J.: Ultrasound imaging. Vol. I. + vol. 2. Trondheim: Emantec AS., 2000/2001.
Azhari H.: Basics of biomedical ultrasound for engineers. Hoboken: John Wiley & Sons, 2010.
Bundesamt für Strahlenschutz, Salzgitter.
http://www.bfs.de/de/ion/medizin/diagnostik/alternative_schnittbildverfahren/sono.html.
Zugriff: 1.4.2010.
Cobbold R. S. C.: Foundations of biomedical ultrasound. Oxford: Oxford University Press, 2007.
DIN EN 61161: 2011–11 Ultraschall – Leistungsmessung – Schallfeldkraft-Waagen und Anforderungen
an ihre Funktionseigenschaften (IEC 87/483/CDV: 2011); Deutsche Fassung FprEN 61161: 2011.
DIN EN 62359: 2011–11 Ultraschall – Charakterisierung von Feldern – Prüfverfahren für die
Ermittlung des thermischen und des mechanischen Indexes bezogen auf medizinische
Ultraschalldiagnostikfelder (IEC 62359: 2010 + Cor.: 2011); Deutsche Fassung EN 62359: 2011.
Dössel O.: Bildgebende Verfahren in der Medizin: Von Technik zur Anwendung. Berlin: Springer,
1999.
Empfehlungen zur Patientensicherheit bei Anwendungen der Ultraschalldiagnostik in der Medizin
(Empfehlung der Strahlenschutzkommission einschließlich wissenschaftlicher Begründung).
Berichte der Strahlenschutzkommission 1998; Heft 14.
Empfehlungen zur Patientensicherheit bei Anwendungen der Ultraschalldiagnostik in der Medizin
(Empfehlung der Strahlenschutzkommission, Verabschiedet auf der 150. Sitzung der SSK am
11./12.12.1997). Veröffentlicht im BAnz Nr. 145a vom 7.8.1998.
European Communities: Council Directive 931421 EEC of 14 June 1993 concerning medical devices.
Official Journal of the European Communities 1993; 169: 12.7.1993.
Haerten R., Mück M.: Doppler- und Farbdoppler-Sonographie. Erlangen: Siemens, 1992.
Hamilton M. F., Blackstock D. T.: Nonlinear acoustics. San Diego: Academic Press, 1998.
Hill C. R., Bamber J. C., ter Haar G. R.: Physical principles of medical ultrasonics. 2. Aufl. Chichester:
John Wiley, 2004.
324 | Helmut Ermert, Christian Hansen

Hoskins P., Martin K., Thrush A. (Hrsg.): Diagnostic ultrasound – physics and equipment. Cambridge:
Cambridge University Press, 2010.
IEC 60601-2-37, Medical electrical equipment – Part 2-37: Particular requirements for the basic
safely and essential performance of ultrasonic medical diagnostic and monitoring equipment,
EN 60601-2–37.
IEC 61157, Standard means for the reporting of the acoustic output of medical diagnostic ultrasonic
equipment, EN 61157, 2007.
IEC 61161, Ultrasonics – Power measurement – Radiation force balances and performance
requirements, EN 61 161, 2007.
IEC 61828, Ultrasonics – Focusing transducers – Definitions and measurement methods for the
transmitted fields, EN 61828, 2001.
IEC 62127-1, Ultrasonics – Hydrophones – Part 1: Measurement and characterization of medical
ultrasonic fields up to 40 MHz, EN 62127-1, 2007.
IEC 62127-2, Ultrasonics – Hydrophones – Part 2: Calibration of hydrophones to be used in
ultrasonic fields up to 40 MHz, EN 62127-2, 2007.
IEC 62127-3, Ultrasonics – Hydrophones – Part 3: Properties of hydrophones for ultrasonic fields up
to 40 MHz, EN 62127-3, 2007.
IEC 62306, Ultrasonics – Field characterization – Test objects for determining temperature elevation
in medical diagnostic ultrasonic fields. Geneva: International Electrotechnical Commission,
2005.
IEC 62359, Ultrasonics – Field characterization – Test methods for the determination of thermal and
mechanical indices related to medical diagnostic ultrasonic fields. Geneva: International
Electrotechnical Commission, 2005.
Jensen J. A.: Estimation of blood velocities using ultrasound. A signal processing approach.
Cambridge: Cambridge University Press, 1996.
Kremkau F. W.: Sonography principles and instruments. St. Louis: Elsevier Saunders, 2011.
Krestel E. (Hrsg.): Bildgebende Systeme für die medizinische Diagnostik. Berlin: Siemens AG, 1988.
Kuttruff H.: Physik und Technik des Ultraschalls. Stuttgart: S. Hirzel Verlag, 1988.
Lerch R., Sessler G., Wolf D.: Technische Akustik. Berin: Springer-Verlag, 2009.
Macovski A.: Medical imaging systems. Englewood Cliffs: Prentice-Hall, 1983.
Meyer E., Neumann E. G.: Physikalische und Technische Akustik. 3. Aufl. Braunschweig: Vieweg,
1979.
Millner R. (Hrsg.): Ultraschalltechnik. Weinheim: Physik Verlag, 1987.
Morneburg H. (Hrsg.): Bildgebende Systeme für die medizinische Diagnostik. Erlangen: Publicis
MCD Verlag, 1995.
Oppelt A. (Hrsg.): Imaging systems for medical diagnostics. Erlangen: Publicis Corp. Publ., 2005.
Pierce A. D.: Acoustics: an introduction to its physical principles and applications. New York:
Acoustical Society of America, 1989.
Shung K. K., Smith M. B., Tsui B.: Principles of medical imaging. San Diego: Academic Press, 1992.
Shung K. K: Diagnostic ultrasound, imaging and blood flow measurements. Boca Raton: Taylor &
Francis Group, 2006.
Sicherheitsaspekte der Sonographie/Sachverständigenanhörung der Strahlenschutzkommission,
2./3. März 1995). Veröffentlichungen der Strahlenschutzkommission 1998; Band 35.
Stenzel H., Brosze O.: Leitfaden zur Berechnung von Schallvorgängen. Berlin: Springer, 1958.
Suslick K. S. (Hrsg.): Ultrasound – its chemical, physical, and biological effects. New York: VCH
Publishers, 1988.
Sutilov V. A.: Physik des Ultraschalls – Grundlagen. Wien: Springer, 1984.
Szabo T. L.: Diagnostic ultrasound imaging – inside out. Amsterdam: Elsevier Inc, 2004.
8 Ultraschall | 325

US Department of Health and Human Services, Food and Drug Administration, Center for Devices
and Radiological Health: Guidance for Industry and FDA Staff: Information for Manufacturers
Seeking Marketing Clearance of Diagnostic Ultrasound Systems and Transducers. Silver Spring,
2008. www.fda.gov, document ucm070911.pdf. Zugriff: 1.4.2010.
Webb S. (Hrsg.): The physics of medical imaging. Bristol: IOP Publishing Ltd, 1988.
Wells P. N. T.: Biomedical ultrasonics. London: Academic Press, 1977.
Wells P. N. T. (Hrsg.): Special issue on ultrasonic imaging and therapy. Journal of Engineering in
Medicine 2010; 224 (H2): 127–391.
326 | Helmut Ermert, Christian Hansen

Testfragen
1. Welche Art von Schallwellen kann sich in einem idealen fluiden Medium ausbreiten (nur Longi-
tudinalwellen, nur Scherwellen, beide?)?
2. In welchem der genannten Frequenzbereiche (20...1000 kHz, 1...100 MHz, 0,1...1 GHz) wird der
diagnostische Ultraschall betrieben?
3. In welchem der genannten Bereiche (1...50 μm, 50...1000 μm, 10...100 mm) liegen die Wellen-
längen des diagnostischen Ultraschalls?
4. Bei welcher der genannten biologischen Gewebearten (Fett, Muskel, Blut, Knochen) ist die Aus-
breitung des diagnostischen Ultraschalls stark eingeschränkt und was ist der Grund dafür?
5. Für eines der genannten Organe (Herz, Leber, Lunge, Niere) ist die Ultraschalldiagnostik nicht
gut geeignet. Welches ist dieses Organ und was ist der Grund dafür?
6. Warum benutzt man zur Ankopplung eines Schallwandlers an die Haut ein Ankopplungsmittel
(„Ultraschallgel“)?
7. Was ist der Unterschied zwischen der Schallschnelle und der Schallgeschwindigkeit?
8. Mit welchen beiden Schallfeldgrößen lässt sich die von einer Schallwelle transportierte Leistung
beschreiben?
9. Aus welchen Materialeigenschaften lässt sich die Schallgeschwindigkeit (für homogene ebene
Wellen) berechnen?
10. Aus welcher Beziehung zwischen den Schallfeldgrößen einer homogenen ebenen Welle resul-
tiert der akustische Wellenwiderstand?
11. Aus welchen Materialeigenschaften lässt sich der akustische Wellenwiderstand (für homogene
ebene Wellen) berechnen?
12. Wie lässt sich bei der Schallwellenausbreitung der Unterschied zwischen Absorption und Dämp-
fung beschreiben?
13. Was versteht man unter dem piezoelektrischen Effekt?
14. Mit welcher physikalischen Größe wird der „direkte“ piezoelektrische Effekt beschreiben?
15. Mit welcher physikalischen Größe wird der „reziproke“ piezoelektrische Effekt beschrieben?
16. Welche piezoelektrischen Materialien sind für die Anwendung in Ultraschallwandlern von Inter-
esse?
17. Welchem der genannten technischen Systeme (Radar-Anlage, Röntgengerät, Photoapparat) ent-
spricht das Funktionsprinzip eines Ultraschallgerätes am ehesten?
18. Welche Betriebsparameter (Signal: Frequenz, Wellenlänge, Amplitude, Dauer; Schallwandler:
Apertur, Bandbreite; Medium: Schallgeschwindigkeit, Wellenwiderstand) bestimmen bei der B-
Bild-Technik die axiale Auflösung und welche Betriebsparameter bestimmen die laterale Auflö-
sung?
19. Für welche Ultraschall-Bildgebungsmodalität lässt sich das nichtlineare Verhalten des biologi-
schen Gewebes nutzen?
20. Was sind die Vorteile des „Harmonic Imaging“ gegenüber der klassischen B-Bild-Technik?
21. Welchen Einfluss haben bei der Nutzung des Doppler-Effektes in der Ultraschalldiagnostik die
Geschwindigkeit des Blutflusses und die Geschwindigkeit der Wellenausbreitung (Schallge-
schwindigkeit) auf die Frequenzverschiebung der Echosignale?
22. Welche Betriebsparameter (Signal: Frequenz, Wellenlänge, Amplitude, Dauer; Schallwandler:
Apertur, Bandbreite; Medium: Schallgeschwindigkeit, Wellenwiderstand) bestimmen bei der
Puls-Doppler-Technik die Doppler-Auflösung (Genauigkeit der Geschwindigkeitsmessung)?
23. Warum lassen sich bei Anwendung der Puls-Doppler-Technik bei größeren Entfernungen zwi-
schen Blutgefäß und Schallwandler größere Flussgeschwindigkeiten nicht messen?
24. Welcher Grenzwert muss zur Vermeidung thermischer Schäden im Gewebe beachtet werden?
25. Welcher Grenzwert muss zur Vermeidung mechanischer Schäden im Gewebe beachtet werden?
Tobias Schaeffter
9 Magnetische Resonanztomographie

9.1 Einleitung | 328


9.2 Kernmagnetische Resonanz | 329
9.3 Ortsauflösung | 351
9.4 Sequenzen und Bildkontrast | 362
9.5 Artefakte | 381
9.6 Aufbau eines MR-Tomographen | 385
9.7 Signal-Rausch-Verhältnis | 390
9.8 Sicherheitsaspekte | 391
9.9 Klinische Anwendungen | 395

Zusammenfassung: 1973 hätte kein Mensch ahnen können, dass aus einer „unbedeu-
tenden“ Entdeckung¹ von Paul Lauterbur eines der wichtigsten abbildenden Verfah-
ren der Medizin werden könnte. Die MRT ist ein nichtinvasives Verfahren zur Charak-
terisierung der Anatomie, der Physiologie und des Stoffwechsels. Aufgrund ihres her-
vorragenden Weichteilkontrastes ohne Verwendung von ionisierender Strahlung ist
sie eine Methode der Wahl für viele klinische Anwendungen. In diesem Kapitel wer-
den zunächst die physikalischen Grundlagen der MRT beschrieben, danach werden
der Aufbau eines MR-Tomographen sowie ausgewählte Messverfahren und deren An-
wendungen besprochen.

Abstract: In 1973 nobody could imagine that an “insignificant“ invention² of Paul


Lauterbur would become one of the most important imaging modalities in medical
applications. Magnetic resonance imaging (MRI) is a non-invasive technique that
allows the characterization of morphology, physiology, and metabolism in-vivo. It
provides superior soft tissue contrast without the use of ionizing radiation and has
consequently become the method of choice in many clinical applications. This chapter
describes the basic principles and the instrumentation of MRI. In addition, selected
MR-sequences and their clinical applications are discussed.

1 Kommentar eines Gutachters zur ersten von Paul Lauterbur bei Nature eingereichten Publikation,
der zur Ablehnung des Beitrags führte.
2 A referee’s comment on Paul Lauterbur’s first submission to Nature that led to the rejection of the
publication.
328 | Tobias Schaeffter

9.1 Einleitung
Die ersten Experimente zum Nachweis der kernmagnetischen Resonanz (engl. Nuclear
Magnetic Resonance, NMR) wurden bereits im Jahre 1937 von Isidor Rabi und Mitar-
beitern durchgeführt. Dabei konnten sie Resonanzen von Atomkernen in einem Mo-
lekülstrahl (Moleküle in der Gasphase) nachweisen und die magnetischen Momente
der Kerne sehr präzise bestimmen. Im Jahre 1946 entdeckten unabhängig voneinan-
der zwei Arbeitsgruppen um F. Bloch an der Stanford Universität und E. Purcell an
der Harvard University die kernmagnetische Resonanz in kondensierter Materie, d. h.
im Festkörper und in Flüssigkeiten. Dabei führte Bloch seine Experimente mit Wasser
durch, während Purcell den NMR-Effekt im festen Paraffin nachwies. Für diese Arbei-
ten wurden F. Bloch und E. Purcell 1952 gemeinsam mit dem Nobelpreis für Physik
ausgezeichnet. Anfang der 1950er-Jahre konnte durch W. Procter bzw. W. Dickin-
son gezeigt werden, dass die Resonanzfrequenz nicht nur vom Kern selbst, sondern
auch von seiner chemischen Umgebung abhängig ist. Mit dieser Entdeckung war die
NMR-Spektroskopie geboren, welche den Nachweis von Molekülen in einer Probe er-
möglicht. In den 1960er-Jahren entwickelte die Arbeitsgruppe um R. Ernst die ge-
pulste NMR-Anregung in Kombination mit der Fourier-Transformationsanalyse, die
eine empfindliche Strukturaufklärung von Molekülen ermöglicht. Für diese Entwick-
lung erhielt R. Ernst 1991 den Nobelpreis in Chemie. Anfang der 1970er-Jahre wurde
durch R. Damadian nachgewiesen, dass sich die NMR-Relaxation von Tumorgewebe
von gesunden Gewebeproben unterscheidet. Mit dieser Entdeckung wurde die Basis
für die kernmagnetische Resonanz als medizinisches Diagnoseverfahren gelegt. 1973
zeigte P. Lauterbur, dass die Verwendung eines ortsabhängigen Magnetfeldes eine
räumliche Zuordnung der NMR-Signale erlaubt, die zur Bildgebung (engl. Magnetic
Resonance Imaging, MRI) genutzt werden kann. Die technischen Entwicklungen der
folgenden Jahre machten die NMR-Bildgebung zu einem wichtigen medizinischen Dia-
gnoseverfahren. Insbesondere die Arbeiten der Arbeitsgruppe um P. Mansfield zur
schnellen NMR-Bildgebung führten zu einer verbreiteten Anwendung. 2003 erhielten
P. Lauterbur und P. Mansfield gemeinsam den Nobelpreis für Medizin. Im Allge-
meinen wird in der medizinischen Anwendung der Magnetresonanz (MR) ein tomo-
graphisches Verfahren verwendet. Diese tomographische Bildgebung bietet neben der
Darstellung der Anatomie mit hervorragendem Weichteilkontrast auch die Möglich-
keit zur Messung einer Vielzahl anderer diagnostischer Parameter, wie Blutfluss, Per-
fusion, Diffusion oder Blutoxygenierung. Daher ist die MR-Tomographie in den letz-
ten Jahrzehnten zu einem der wichtigsten bildgebenden Verfahren in der klinischen
Praxis und biomedizinischen Forschung geworden. Im Folgenden sollen zunächst die
physikalischen Grundlagen der kernmagnetischen Resonanz und der Ortsauflösung
beschrieben werden.
9 Magnetische Resonanztomographie | 329

Kernmagnetische Resonanz: physikalischer Effekt, der die Grundlage für die Magnetresonanzto-
mographie bildet. Dabei treten Atomkerne mit einem Kernspin in Wechselwirkung mit einem mag-
netischen Wechselfeld.

9.2 Kernmagnetische Resonanz


Wie der Begriff kernmagnetische Resonanz (NMR) andeutet, müssen drei Vorausset-
zungen vorliegen, um diesen physikalischen Effekt zu messen: Kerne, Magnetfelder
und Resonanz. Um das Phänomen der kernmagnetischen Resonanz zu verstehen,
muss man zunächst das zu messende Objekt betrachten. Jedes biologische oder
physikalische Objekt besteht aus unterschiedlichen Molekülen, die sich aus Atomen
zusammensetzen, die wiederum aus einem Kern und Elektronen bestehen (󳶳Abb. 9.1).
Jeder Atomkern enthält positiv geladene Protonen und meistens auch Neutronen, die
elektrisch neutral sind. Die Anzahl der Protonen wird als Kernladungszahl bezeichnet
und dient als Ordnungszahl für die betreffende Atomsorte. Die Masse der Protonen
und Neutronen (1,67 ⋅ 10−27 kg) bestimmen zusammen die Atommasse, da die Masse
der Elektronen an der Gesamtmasse nur einen verschwindend kleinen Anteil hat.
Jeder Atomkern ist von einer Elektronenhülle umgeben. Im Normalfall enthält diese
Hülle genau so viele (negativ geladene) Elektronen, wie im zugehörigen Kern Proto-
nen vorhanden sind. Daher befindet sich das Atom im elektrisch neutralen Zustand,
da die einander entgegengesetzten elektrischen Ladungen von Proton und Elektron
gleich groß (1,6 ⋅ 10−19 As) sind. Zur genauen Beschreibung der Atome muss auf die
Quantenmechanik zurückgegriffen werden. Für die unterschiedlichen energetischen
Zustände werden verschiedene Quantenzahlen definiert, die im Folgenden verwendet
werden, ohne die Theorie im Einzelnen zu erläutern.

9.2.1 Kernspin und magnetisches Moment

Der kernmagnetische Effekt beruht auf einer quantenmechanischen Eigenschaft des


Kernes: Alle Atomkerne (lat. Nucleus) mit ungerader Ordnungszahl oder atomarer

Abb. 9.1: Atommodell, das aus einem Kern mit Protonen und
Neutronen und einer Hülle mit Elektronen besteht.
330 | Tobias Schaeffter

→󳨀
Masse besitzen einen Eigendrehimpuls J , der auch Kernspin genannt wird. Der Ei-
gendrehimpuls kann nur diskrete Werte annehmen („gequantelt“) und wird durch
die Spinquantenzahl I bestimmt:

J = ℏ√I(I + 1) (9.1)

wobei ℏ das Plancksche Wirkungsquantum (h/2𝜋 = 1,05510−34 Ws2 ) ist. Die Spin-
quantenzahl hängt von der Ordnungs- und Massenzahl ab und kann nur ganzzahlige
oder halbzahlige Werte annehmen:
1 3 5
I = 0, , 1, , 2, , 3, . . . (9.2)
2 2 2
Bei Kernen mit einer ungeraden Massenzahl nimmt die Spinquantenzahl den Wert
I = 1/2 an. Zum Beispiel besteht der Kern des Wasserstoffatoms nur aus einem Proton
und besitzt daher einen Kernspin, der durch die Spinquantenzahl I = 1/2 bestimmt
wird. Andere typische Atome mit einem Kernspin sind Kohlenstoff (13 C), Fluor (19 F)
oder Phosphor (31 P). Es ist zu beachten, dass nur das seltene Kohlenstoffisotop 13 C
einen Kernspin aufweist, während das häufig vorkommende Isotop 12 C (gerade Ord-
nungszahl) keines besitzt. Alle genannten Kerne 1 H, 13 C, 19 F, 31 P haben eine ungerade
Massenzahl und damit eine Spinquantenzahl von I = 1/2. Diese Kerne werden auch
als Spin-1/2-Systeme bezeichnet und stellen den Großteil der Kerne für die biomedi-
zinische Anwendung dar. Der Einfachheit halber beschränken wir uns im Folgenden
auf diese Spin-1/2-Systeme. Der Betrag des Kernspins ist dabei durch

󵄨󵄨 󵄨󵄨⃗ 1 1 3
󵄨󵄨J 󵄨󵄨 = ℏ√ ( + 1) = ℏ√ (9.3)
󵄨󵄨 2 2 4

gegeben. Aufgrund quantenmechanischer Gesetze ist mit dem Kernspin ein magneti-
sches Moment verbunden. Kernspin und magnetisches Moment zeigen immer in die
gleiche Richtung:
→󳨀 →
󳨀
𝜇 =𝛾⋅ J (9.4)

wobei die Proportionalitätskonstante 𝛾 als gyromagnetisches Verhältnis bezeichnet


wird und oft auch in der normierten Form
𝛾

𝛾= (9.5)
2𝜋
verwendet wird. Das gyromagnetische Verhältnis ist charakteristisch für jeden Kern
und eine physikalische Konstante (󳶳Tab. 9.1). Die Atomkerne unterscheiden sich auch
in ihrer natürlichen Häufigkeit. Im Gewebe tritt Wasserstoff in Wasser und Fettverbin-
dungen mit einer sehr hohen Konzentration auf, während die Konzentration von Was-
serstoff (1 H) und Phosphor (31 P) in Stoffwechselprodukten und Proteinen sehr gering
ist (< 10 mMol). Auf der anderen Seite ist die natürliche Häufigkeit von Kohlenstoff
(13 C) vernachlässigbar. Daher müssen Moleküle spezifisch mit 13 C markiert werden.
9 Magnetische Resonanztomographie | 331

Tab. 9.1: Natürliche Häufigkeit verschiedener Kerne mit Kernspin und gyromagnetisches Verhältnis.

Kern Natürliche Häufigkeit (%) Gyromagnetisches Verhältnis —


𝛾 in MHz/T
1
Wasserstoff H 99,9 42,58
Kohlenstoff 13 C 1,1 10,71
Fluor 19 F 100 40,05
Phosphor 31 P 100 17,24

J, μ μ

Abb. 9.2: Ein Kernspin mit positiver Ladung


+ führt zu einem magnetischen Moment, wel-
ches als kleiner magnetischer Dipol interpre-
tiert werden kann.

Dieses Markieren („Label“) erlaubt den gezielten Nachweis der markierten Moleküle
(„Tracer“) oder deren Stoffwechselprodukte im Körper.
Obwohl der Kernspin und das dazugehörende magnetische Moment eine quan-
tenmechanische Eigenschaft des Kernes ist, können beide Größen durch die Betrach-
tungsweise der klassischen Mechanik veranschaulicht werden. Dabei führt der Eigen-
drehimpuls zur Rotation des Kerns. Da der Kern eine oder mehrere verteilte positive
Ladungen trägt, führt die Rotation der Ladungen zu einem Kreisstrom, welcher wie-
derum ein lokales Magnetfeld erzeugt (󳶳Abb. 9.2).
Der Betrag des magnetischen Momentes hat aufgrund von 󳶳Gl. (9.3) und
󳶳Gl. (9.4) einen festen diskreten Wert und nimmt für ein Spin-1/2-System folgenden
Wert an
󵄨󵄨 󵄨󵄨 3
󵄨󵄨𝜇⃗󵄨󵄨 = 𝛾ℏ√ (9.6)
4
Unter normalen Bedingungen sind die individuellen magnetischen Momente aller
Atome im Messobjekt wegen der thermischen Bewegung willkürlich ausgerichtet, so
dass außerhalb der Probe keine Magnetisierung messbar ist. Um eine makroskopi-
sche Magnetisierung im Objekt zu erzeugen, wird ein externes statisches Magnetfeld
benötigt (dieses Magnetfeld ist die zweite Voraussetzung zum Nachweis der kern-
magnetischen Resonanz) (󳶳Abb. 9.3). Nach einer Konvention legt das externe stati-
sche Magnetfeld die Richtung des Koordinatensystems fest, d. h., das externe Feld
mit der Stärke B0 zeigt in z-Richtung:³

B⃗ 0 = B0 ⋅ e⃗z (9.7)

3 In diesem Kapitel wird die magnetische Induktion B durchgängig „Magnetfeld“ genannt.


332 | Tobias Schaeffter

magnetisches Feld magnetisches Feld


5 ‧ 10–5 Tesla in medizinischer Anwendung
0,5 bis 3 Tesla

Abb. 9.3: Stärke des externen magnetischen Feldes im Vergleich zum Erdmagnetfeld.

Statische Magnetfeldstärke: Kenngröße in der Magnetresonanztomographie, die wesentlich die


Messempfindlichkeit der kernmagnetischen Resonanz bestimmt.

Streng genommen ist das magnetische Moment 𝜇 eine quantenmechanische Eigen-


schaft und anschauliche Beschreibungen als mikroskopischer Magnet sind daher
unvollständig. Trotzdem wird in vielen Lehrbüchern eine semiklassische Beschrei-
bung des Verhaltens des magnetischen Momentes vorgenommen, die hier angedeutet
werden soll. Eine exakte Beschreibung als Lösung der Schrödinger-Gleichung findet
man beispielsweise in Kap. 5 des Lehrbuches von [Haacke 1991]. In der Quantenme-
chanik werden messbare Größen durch den Erwartungswert einer quantenmecha-
nischen Größe beschrieben, welcher im Folgenden durch zwei eckige Klammern
„⟨ ⟩“ notiert wird. Wegen des quantenmechanischen Zeeman-Effekts kann der Er-
wartungswert des magnetischen Momentes eines Spin-1/2-Systems nur zwei diskrete
Orientierungen einnehmen, d. h., für die z-Komponente gilt:

⟨𝜇z ⟩ = mI 𝛾ℏ (9.8)

Dabei ist mI die Magnetquantenzahl, die für ein Spin-1/2-System die beiden Werte
±1/2 annimmt. Dadurch, dass sich der Erwartungswert der z-Komponente und der Be-
trag des magnetischen Momentes unterscheiden, muss sich der Erwartungswert des
magnetischen Momentes unter einem Winkel zum externen Magnetfeld ausrichten.
Für ein Spin-1/2-System ergibt sich:

⟨𝜇z ⟩ ±1 1
cos 𝛩 = = 2 =± ; (9.9)
⟨𝜇⟩ √4
3 √ 3
9 Magnetische Resonanztomographie | 333

B₀ B₀
ω₀
μ T

Abb. 9.4: Der Erwartungswert des magneti-


schen Momentes kann in einem externen mag-
netischen Feld nur zwei Zustände annehmen.
μ
54,7° Es stellt sich dabei wegen des Zeemann-Effekts
ein fester Winkel mit dem äußeren Feld ein.

Daher kann der Erwartungswert des magnetischen Momentes nur zwei Einstellwinkel
von 𝛩 = ±54.7° zum externen Magnetfeld einnehmen, d. h. entweder entlang oder ent-
gegengesetzt zum externen Magnetfeld (󳶳Abb. 9.4). In der semiklassischen Beschrei-
bung wirkt wegen des Winkels ein Drehmoment T⃗ auf die Erwartungswerte des Mo-
ments, welches sich durch das Kreuzprodukt beschreiben lässt:
T⃗ = ⟨𝜇⟩⃗ × B⃗ 0 (9.10)
Das Drehmoment zeigt aus der Zeichnungsebene heraus und führt zu einer Dreh-
bewegung des Erwartungswertes des magnetischen Momentes um das externe Mag-
netfeld. Diese Drehbewegung wird auch als Präzession bezeichnet. Nach dem Dreh-
impulserhaltungssatz ist das Drehmoment gleich der zeitlichen Ableitung des Ei-
gendrehimpulses:
dJ ⃗
= T⃗ = ⟨𝜇⟩⃗ × B⃗ 0 (9.11)
dt
Der Eigendrehimpuls kann nach 󳶳Gl. (9.4) durch das magnetische Moment ersetzt
werden, so dass sich folgende Bewegungsgleichung ergibt:
d ⟨𝜇⟩⃗
= 𝛾 ⋅ ⟨𝜇⟩⃗ × B⃗ 0 (9.12)
dt
Da das externe Magnetfeld per Definition nur eine z-Komponente aufweist, ergibt sich
nach dem Kreuzprodukt für die einzelnen Komponenten des Erwartungswertes des
magnetischen Momentes:
d ⟨𝜇x ⟩
= 𝛾 ⋅ B0 ⋅ ⟨𝜇y ⟩
dt
d ⟨𝜇y ⟩
= 𝛾 ⋅ B0 ⋅ ⟨𝜇x ⟩
dt
d ⟨𝜇z ⟩
=0 (9.13)
dt
Durch weiteres zeitliches Ableiten der ersten zwei Gleichungen und gegenseitigem
Einsetzen ergibt sich eine gekoppelte Differentialgleichung zweiter Ordnung:
d2 ⟨𝜇x ⟩ 2
= − (𝛾 ⋅ B0 ) ⋅ ⟨𝜇x ⟩
dt2
d2 ⟨𝜇y ⟩ 2
= − (𝛾 ⋅ B0 ) ⋅ ⟨𝜇y ⟩ (9.14)
dt2
334 | Tobias Schaeffter

Zur Vereinfachung wird die Abkürzung

𝜔0 = 𝛾 ⋅ B0 (9.15)

eingeführt. Die Lösung der Differentialgleichungen beschreibt eine Rotationsbewe-


gung (Präzession) des Erwartungswertes des magnetischen Moments um das externe
Magnetfeld

⟨𝜇x (t)⟩ = ⟨𝜇x (0)⟩ ⋅ cos(𝜔0 t) + ⟨𝜇y (0)⟩ ⋅ sin(𝜔0 t)


⟨𝜇y (t)⟩ = − ⟨𝜇x (0)⟩ ⋅ cos(𝜔0 t) + ⟨𝜇y (0)⟩ ⋅ sin(𝜔0 t)
⟨𝜇z (t)⟩ = ⟨𝜇z (0)⟩ (9.16)

mit der Winkelgeschwindigkeit 𝜔0 , die auch Larmor-Frequenz genannt wird und


proportional zur Stärke des externen Magnetfeldes ist (siehe 󳶳Gl. (9.15)). Es ist zu be-
achten, dass das magnetische Moment im mathematisch negativen Sinn (d. h. im Uhr-
zeigersinn) rotiert.

Larmor-Frequenz: charakteristische Frequenz der Präzessionsbewegung der Spins in der Mag-


netresonanztomographie. Diese ist proportional zur Magnetfeldstärke.

Eine weitere Möglichkeit, die Larmor-Frequenz herzuleiten, erfolgt über die Beschrei-
bung der potentiellen Energie des magnetischen Momentes im externen Magnetfeld.
Wegen des Zeeman-Effektes ergeben sich dabei zwei verschiedene Energiezustände:
(9.8) 1
E = − ⟨𝜇⟩⃗ ⋅ B⃗ 0 = − ⟨𝜇z ⟩ ⋅ B0 = ± 𝛾 ⋅ ℏ ⋅ B0 (9.17)
2
Daher ergibt sich für den Erwartungswert des magnetischen Momentes entlang des
externen Magnetfeldes ein energetisch günstiger Energiezustand:
1
E↑ = − 𝛾 ⋅ ℏ ⋅ B0 (9.18a)
2
und für den Erwartungswert des magnetischen Momentes entgegengesetzt des exter-
nen Magnetfeldes ein energetisch höherer Zustand (󳶳Abb. 9.5):
1
E↓ = 𝛾 ⋅ ℏ ⋅ B 0 (9.18b)
2
Die Energiedifferenz der beiden Zustände bestimmt die charakteristische Fre-
quenz, mit der Übergänge zwischen diesen Energiezuständen erreicht werden kön-
nen, und entspricht dem Wert aus 󳶳Gl. (9.15):
!
𝛥E = E↓ − E↑ = 𝛾 ⋅ ℏ ⋅ B0 = ℏ ⋅ 𝜔0 ⇒ 𝜔0 = 𝛾 ⋅ B0 (9.19)
9 Magnetische Resonanztomographie | 335

E E

N↓
–½
I=
ΔE = —
h γ B₀
I=
+½ N↑

B=0 B = B₀ N

Abb. 9.5: Energieniveauschema der Kernspins im Magnetfeld. Dabei entstehen zwei unterschied-
liche Energieniveaus. Die Besetzung der beiden Niveaus wird durch die Boltzmann-Verteilung be-
stimmt.

9.2.2 Magnetisierung

Bisher wurde das Verhalten der Erwartungswerte der magnetischen Momente be-
schrieben. Um das kollektive Verhalten aller Momente im Messobjekt zu erfassen,
wird die makroskopische Magnetisierung M⁴ eingeführt. Diese ergibt sich aus der
Vektorsumme aller Erwartungswerte:
N
M⃗ = ∑ ⟨𝜇n⃗ ⟩ (9.20)
n=1

Wie bereits erwähnt, sind bei Fehlen eines externen magnetischen Feldes alle mag-
netischen Momente wegen der thermischen Bewegung willkürlich ausgerichtet. Da-
her mitteln sich die Magnetfelder der Momente im Messobjekt aus, und es ist keine
makroskopische Magnetisierung nach außen sichtbar. Beim Anlegen eines externen
Magnetfeldes ergeben sich für die Erwartungswerte der magnetischen Momente zwei
Einstellmöglichkeiten. Im semiklassischen Bild fangen die einzelnen Erwartungswer-
te der Momente an zu präzedieren. Durch die nichtkohärente Präzessionsbewegung
der verschiedenen Erwartungswerte mitteln sich alle transversalen Komponenten aus
und es verbleibt nur noch eine Magnetisierung entlang des externen Magnetfeldes.
N N N N
M⃗ = ( ∑ ⟨𝜇x ⟩n ) ⋅e⃗x + ( ∑ ⟨𝜇y ⟩n ) ⋅e⃗y + ( ∑ ⟨𝜇z ⟩n ) ⋅ e⃗z = ∑ ⟨𝜇z ⟩n ⋅ e⃗z (9.21)
⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟
n=1 ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟
n=1 n=1 n=1
=0 =0

Die Magnetisierung ergibt sich aufgrund einer unterschiedlichen Besetzung der unter-
schiedlichen Energieniveaus, d. h., das energetisch günstigere Niveau wird mit einer

4 Genau genommen ist die Magnetisierung das magnetische Moment pro Volumen.
336 | Tobias Schaeffter

höheren Wahrscheinlichkeit besetzt. Der Unterschied in der Besetzung der Energieni-


veaus wird dabei durch die Boltzmann-Verteilung bestimmt:
N↑ 𝛥E
= exp (− ) (9.22)
N↓ k⋅T

wobei T die absolute Temperatur, k die Boltzmann-Konstante (1,38 ⋅ 10−23 J/K) und
N = N↑ + N↓ die Anzahl der magnetischen Momente (oder Spins) ist, die entlang und
entgegengesetzt zum externen Magnetfeld ausgerichtet sind. Im Allgemeinen ist die
thermische Energie wesentlich größer als der Energieunterschied aufgrund der Zee-
man-Aufspaltung:
𝛥E 𝛥E 𝛾 ⋅ ℏ ⋅ B0
𝛥E ≪ kT ⇒ exp ( )≈1+( )=1+( ) (9.23)
kT kT kT
Für den Unterschied in der Besetzung ergibt sich mit N = N↑ − N↓ :
N ↑ − N↓ 𝛾 ⋅ ℏ ⋅ B0
≈ (9.24)
N 2kT
Da der Unterschied in der Besetzung zwischen den beiden Energieniveaus sehr ge-
ring ist, ergibt sich ein kleiner Überschuss von Spins auf dem energetisch niedrige-
ren Niveau und damit eine kleine makroskopische Magnetisierung. Beispielsweise er-
gibt sich bei Raumtemperatur (T = 300 K) und einem externen Magnetfeld der Stärke
B0 = 1T ein Unterschied von 3 ⋅ 10−6 , d. h. in einer Million Spins sind drei Spins mehr
entlang des externen Feldes ausgerichtet (󳶳Abb. 9.6).

B₀ = 0 B₀ ≠ 0

M₀ = 0 M₀

Abb. 9.6: Durch Anlegen eines externen statischen Feldes richten sich die individuellen magne-
tischen Momente entlang oder entgegengesetzt zum externen Feld aus. Da sich im Mittel mehr
Momente entlang des Feldes ausrichten, wird eine Magnetisierung entlang des externen Feldes
erzeugt.
9 Magnetische Resonanztomographie | 337

Die Stärke der Magnetisierung ergibt sich damit aus dem Überschuss der Beset-
zungen der Energieniveaus zu:
N
(9.24) 𝛾 ⋅ ℏ ⋅ B0
M⃗ = M0 ⋅ e⃗z = ( ∑ ⟨𝜇z ⟩n ) ⋅ e⃗z = (N↑ − N↓ ) ⟨𝜇z ⟩ ⋅ e⃗z ≈ N ⟨𝜇z ⟩ ⋅ e⃗z
n=1 2kT
2
(𝛾 ⋅ ℏ) ⋅ N ⋅ B0
= e⃗z (9.25)
4kT
Damit hängt die Stärke der Magnetisierung von der Anzahl aller Spins N, der Tem-
peratur T und der Stärke des externen Magnetfeldes B0 ab. Für höhere Feldstärken
entsteht im Messobjekt eine größere Magnetisierung und damit eine höhere Messemp-
findlichkeit. Gängige Feldstärken für medizinische Anwendungen liegen zwischen 1
und 3 Tesla. Bei Forschungssystemen werden aber auch Felder mit 7 Tesla und hö-
her verwendet. Die Anforderungen an das Magnetfeld sind groß, insbesondere an die
räumliche Homogenität und die zeitliche Stabilität.

9.2.3 Anregung und Kernmagnetische Resonanz

Die dritte Bedingung zur Messung der kernmagnetischen Resonanz und des NMR-
Effektes ist die Verwendung eines zeitlich variierendes Magnetfeldes, das in „Reso-
nanz“, d. h. bei der Larmor-Frequenz, eingestrahlt wird. Dieses zeitlich variierende
Magnetfeld B1 (t) wird senkrecht zum statischen Magnetfeld B0 angelegt. Bei einem
statischen Magnetfeld der Stärke B0 = 1, 5 T bzw. 3 T ergeben sich nach 󳶳Gl. (9.15)
charakteristische Resonanzfrequenzen von 63,9 MHz und 127,8 MHz. Da diese im Ra-
diofrequenzbereich (RF) liegen und das zeitlich variierende Feld nur kurzzeitig (d. h.
für ungefähr eine Millisekunde) eingeschaltet wird, nennt man es auch RF-Puls. Die-
ser Puls ergibt sich aus der Amplitudenpulsform B̂ 1 (t), der Trägerfrequenz 𝜔1 und der
Phase 𝜑 zu:
B⃗ 1 (t) = B̂ 1 (t) ⋅ [cos(𝜔1 t + 𝜑) ⋅ e⃗x − sin(𝜔1 t + 𝜑) ⋅ e⃗y ] (9.26)
Für einen rotierenden RF-Puls müssen daher zwei Sendespulen verwendet werden,
die senkrecht zueinander in der transversalen Ebene angeordnet sind (󳶳Abb. 9.7). Die-
se wird als Quadratur-Anordnung bezeichnet. Es ist aber auch möglich, nur eine
Spule zu verwenden, die ein linear polarisiertes RF-Feld aussendet, wobei sich jedes
linear polarisierte Feld mathematisch in zwei entgegengesetzt rotierende Felder zer-
legen lässt. Damit ergibt sich auch für eine einzelne Spule ein rotierender RF-Puls,
allerdings mit kleinerer Amplitude.
Der RF-Puls bewirkt, dass die longitudinale Magnetisierung um einen bestimmten
Winkel aus der Ruhelage herausgekippt wird. Das zeitliche Verhalten der Magnetisie-
rung ergibt sich analog zur Bewegungsgleichung des Erwartungswertes des magne-
tischen Momentes (󳶳Gl. (9.12)) aus dem Drehimpulserhaltungssatz:
dM⃗
= 𝛾 ⋅ M⃗ × B⃗ = 𝛾 ⋅ M⃗ × (B⃗ 0 + B⃗ 1 ) (9.27)
dt
338 | Tobias Schaeffter

z B₀ Resonanz-Bedingung:
ωRF = ω₀
M

B₁-Feld

RF-Coil
RF-Coil

sinus
Abb. 9.7: Zwei Sendespulen erzeugen ein rotie-
cosinus rotierendes RF-Feld B₁ rendes RF-Feld B1 in der Transversalebene.

Zur Vereinfachung wird für den RF-Puls B1 angenommen, dass die initiale Phase 𝜑 = 0
und seine Trägerfrequenz 𝜔1 konstant ist. Darüber hinaus wird zur einfacheren ma-
thematischen Beschreibung das rotierende Koordinatensystem eingeführt. In einem
solchen rotierenden Koordinatensystem bewegt sich die transversale Ebene mit der
Winkelgeschwindigkeit 𝜔, während die z-Achse konstant bleibt, d. h., für die im Uhr-
zeigersinn rotierenden Koordinaten gilt:

e⃗󸀠x = cos(𝜔t) ⋅ e⃗x − sin(𝜔t) ⋅ e⃗y


e⃗󸀠y = sin(𝜔t) ⋅ e⃗x + cos(𝜔t) ⋅ e⃗y
e⃗󸀠z = e⃗z (9.28)

Der Vorteil des rotierenden Koordinatensystems besteht in der Tatsache, dass ein RF-
Puls der Frequenz 𝜔 in einem mit 𝜔-rotierendem System in eine konstante Richtung
zeigt:

B 󸀠 (t) cos(𝜔t) − sin(𝜔t) B1,x (t) (9.26) cos(𝜔t) − sin(𝜔t) B̂ (t) ⋅ cos(𝜔t)
[ 1,x ] = [ ][ ] = [ ] [ 1̂ ]
B1,y󸀠 (t) sin(𝜔t) cos(𝜔t) B1,y (t) sin(𝜔t) cos(𝜔t) −B1 (t) ⋅ sin(𝜔t)
(9.29)
B 󸀠 (t) B̂ (t)
[ 1,x ] = [ 1 ] (9.30)
B1,y󸀠 (t) 0
9 Magnetische Resonanztomographie | 339

Zur Beschreibung der zeitlichen Ableitung in 󳶳Gl. (9.27) werden die zeitlichen Ablei-
tungen des rotierenden Koordinatensystems benötigt:

de⃗󸀠x
= −𝜔 ⋅ sin(𝜔t) ⋅ e⃗x − 𝜔 ⋅ cos(𝜔t) ⋅ e⃗y
dt
de⃗󸀠y
= 𝜔 ⋅ cos(𝜔t) ⋅ e⃗x − 𝜔 ⋅ sin(𝜔t) ⋅ e⃗y
dt
de⃗󸀠z
=0 (9.31)
dt
Da das Koordinatensystem im Uhrzeigersinn rotiert, gilt 𝜔⃗ = −𝜔 ⋅ e⃗z und damit nach
󳶳Gl. (9.27) für das Kreuzprodukt:

𝜔⃗ × e⃗󸀠x = −𝜔 ⋅ (cos(𝜔t) ⋅ e⃗z × e⃗x − sin(𝜔t) ⋅ e⃗z × e⃗y ) = −𝜔 ⋅ sin(𝜔t) ⋅ e⃗x − 𝜔 ⋅ cos(𝜔t) ⋅ e⃗y
𝜔⃗ × e⃗󸀠y = −𝜔 ⋅ (sin(𝜔t) ⋅ e⃗z × e⃗x + cos(𝜔t) ⋅ e⃗z × e⃗y ) = 𝜔 ⋅ cos(𝜔t) ⋅ e⃗x − 𝜔 ⋅ sin(𝜔t) ⋅ e⃗y
𝜔⃗ × e⃗󸀠z = 0
(9.32)

Nach 󳶳Gl. (9.31) und 󳶳Gl. (9.32) gilt daher:

de⃗󸀠x
= 𝜔⃗ × e⃗󸀠x
dt
de⃗󸀠y
= 𝜔⃗ × e⃗󸀠y
dt
de⃗󸀠z
= 𝜔⃗ × e⃗󸀠z (9.33)
dt
Nach der Produktregel gilt damit für die zeitliche Ableitung der Magnetisierung im
rotierenden Koordinatensystem:

dM⃗ dMx󸀠 󸀠 dMy󸀠 󸀠 dMz󸀠 󸀠 de⃗󸀠 de⃗󸀠y de⃗󸀠


=( e⃗x + e⃗ y + e⃗z ) + (Mx󸀠 x + My󸀠 + Mz 󸀠 z )
dt dt dt dt dt dt dt
dM⃗ (9.33) 𝜕M⃗ 󸀠
= + 𝜔⃗ × M⃗ 󸀠 (9.34)
dt 𝜕t
Damit lässt sich für die Bewegungsgleichung der Magnetisierung (󳶳Gl. (9.27)) im
rotierenden Koordinatensystem schreiben:

dM⃗ 𝜕M⃗ 󸀠 (9.27)


= + 𝜔⃗ × M⃗ 󸀠 = 𝛾M⃗ 󸀠 × B󸀠⃗
dt 𝜕t
𝜕M⃗ 󸀠
= 𝛾 (M⃗ 󸀠 × B󸀠⃗ ) − 𝜔⃗ × M⃗ 󸀠 = 𝛾 (M⃗ 󸀠 × B󸀠⃗ ) + M⃗ 󸀠 × 𝜔⃗
𝜕t
𝜕M⃗ 󸀠 𝜔⃗
= 𝛾 (M⃗ 󸀠 × (B󸀠⃗ + )) (9.35)
𝜕t 𝛾
340 | Tobias Schaeffter

z B₀ z

M M Felder im
rotierenden System:
ω
B₀' = B₀ + —
γ

B₁-Feld y y'

x x'
rotierendes RF-Feld B₁ konstantes Feld B₁
im Laborsystem im rotierenden System
(Frequenz ω₀ = γB₀)

Abb. 9.8: Felder im Laborsystem und im rotierenden Koordinatensystem.

z B₀
z

M
M

y y'

x x' B₁-Feld

Laborsystem rotierendes
Koordinatensystem

Abb. 9.9: Wirkung einer RF-Anregung im Laborsystem und im rotierenden Koordinatensystem.

Mit der Definition eines effektiven Magnetfeldes Beff erhält man (󳶳Abb. 9.8)

𝜔⃗
B⃗ eff = B󸀠⃗ +
𝛾
𝜕M⃗ 󸀠
= 𝛾 (M⃗ 󸀠 × B⃗ eff ) (9.36)
𝜕t
Diese Bewegungsgleichung besagt, dass die Magnetisierung im rotierenden Ko-
ordinatensystem ein verändertes effektives Magnetfeld Beff „sieht“. Dies ermöglicht
eine einfachere Beschreibung des Verhaltens des RF-Pulses B1 , wenn ein mit 𝜔⃗ =
−𝛾 ⋅ B0 ⋅ e⃗󸀠z = −𝜔0 ⋅ e⃗󸀠z rotierendes Koordinatensystem verwendet wird (󳶳Abb. 9.9):

𝜔⃗ 𝜔
B⃗ eff = B0 ⋅ e⃗󸀠z + B1 ⋅ e⃗󸀠x + = B0 ⋅ e⃗󸀠z + B1 ⋅ e⃗󸀠x − 0 ⋅ e⃗󸀠z = B1 ⋅ e⃗󸀠x
𝛾 𝛾
𝜕M ⃗ 󸀠
= 𝛾 (M⃗ 󸀠 × B1 ⋅ e⃗󸀠x ) (9.37)
𝜕t
9 Magnetische Resonanztomographie | 341

d. h., die Magnetisierung sieht im mit der Resonanzfrequenz rotierenden Koordina-


tensystem nur das B1 -Feld und für die Komponenten der Magnetisierung gilt nach
󳶳Gl. (9.37):
𝜕Mx󸀠
=0
𝜕t
𝜕My󸀠
= 𝛾 (Mz󸀠 ⋅ B̂ 1 (t))
𝜕t
𝜕My󸀠
= 𝛾 (My󸀠 ⋅ B̂ 1 (t)) (9.38)
𝜕t
Bleibt das B1 -Feld für die Pulsdauer Tp eingeschaltet, so ergibt sich während des
RF-Pulses folgende Lösung mit den Anfangsbedingungen Mx󸀠 (0) = My󸀠 (0) = 0 und
Mz󸀠 (0) = M0 :
Mx󸀠 (t) = 0
My󸀠 (t) = M0 ⋅ sin(𝜔1 t)
Mz󸀠 (t) = M0 ⋅ cos(𝜔1 t) (9.39)
Daher beginnt die Magnetisierung während des RF-Pulses, um dieses Magnetfeld mit
𝜔⃗ = −𝛾⋅B⃗ 1 zu präzedieren. Wie weit die Magnetisierung präzediert, hängt somit von der
Amplitude und der Dauer des RF-Pulses ab, d. h., es ergibt sich ein Winkel zwischen
der Magnetisierung und der z-Achse:
Tp Tp

𝛼 = ∫ 𝜔1 (t)dt = ∫ 𝛾B̂ 1 (t)dt (9.40)


0 0

Dieser wird auch Kippwinkel (engl. flip-angle) genannt. Im Falle eines rechteckför-
migen RF-Pulses ergibt sich 𝛼 = 𝜔1 ⋅ Tp = 𝛾 ⋅ B1 ⋅ Tp . Beispielsweise führt ein RF-Puls mit
B1 = 12 μT und Tp = 0,5 ms Dauer zu einem Kippwinkel von 90°. Im rotierenden Ko-
ordinatensystem wird durch einen solchen RF-Puls (aus der x-Richtung) die gesamte
Magnetisierung M0 in die transversale xy-Ebene (entlang der y-Achse) gekippt. Die-
ser Vorgang wird auch als RF-Anregung bezeichnet. Verwendet man einen kleineren
Kippwinkel, so wird die longitudinale Magnetisierung nur um einen kleineren Win-
kel in die transversale Ebene gekippt (󳶳Abb. 9.10). Neben der Anregung mittels eines
rechteckförmigen RF-Pulses lassen sich auch andere Pulseinhüllende verwenden, um
eine frequenzselektive Anregung zu erreichen.
Nach dem RF-Puls rotiert die transversale Komponente im Labor-Koordinatensys-
tem um das statische Magnetfeld B0 mit der Larmor-Frequenz 𝜔0 . Die Magnetisierung
kippt aber nur, wenn die Frequenz des RF-Pulses mit der Larmor-Frequenz der Kerne
übereinstimmt. Dieses Phänomen wird als kernmagnetische Resonanz⁵ bezeichnet.

5 In vielen medizinischen Anwendungsfeldern wird allerdings ausschließlich der Begriff magnetische


Resonanz (MR) verwendet, da der Begriff Kern (engl. nuclear) zu Fehlinterpretationen mit nuklearme-
dizinischen Verfahren führt.
342 | Tobias Schaeffter

B₀
z

Mz
M
Mz longitudinale Komponente
Mxy transversale Komponente

Mxy
x

Abb. 9.10: Longitudinale und transversale Komponente der Magnetisierung nach einem RF-Puls mit
kleinem Kippwinkel.

Zur Detektion der transversalen Magnetisierung wird diese durch Verwendung ei-
ner Empfangsspule in ein elektrisches Signal gewandelt. Diese Wandlung basiert auf
dem Faradayschen Induktionsgesetz, das den Zusammenhang zwischen induzier-
ter Spannung und dem zeitlich variierenden magnetischen Fluss durch eine Leiter-
schleife beschreibt. Aufgrund der rotierenden Transversalmagnetisierung ändert sich
der magnetische Fluss durch die Empfangsspule und erzeugt in der Spule eine Wech-
selspannung ähnlich wie bei einem Dynamo. Nach dem Reziprozitätstheorem ergibt
sich der magnetische Fluss durch Multiplikation der Magnetisierung mit dem von der
Spule erzeugten magnetischen Feld B1 (r) am Ort r (hervorgerufen von einem Einheits-
strom). Die Wechselspannung ergibt sich dann aus der zeitlichen Ableitung des mag-
netischen Flusses des gesamten Messobjektes:

𝛷(t) = k ∫ B⃗ 1 (r) ⋅ M(r,


⃗ t)dv
V
𝜕𝛷(t) 𝜕
U(t) = − = −k ∫ B⃗ 1 (r) ⋅ M(r,
⃗ t)dv (9.41)
𝜕t 𝜕t
V

(Der Proportionalitätsfaktor k wird im Folgenden wie allgemein üblich weggelassen.)


Die Amplitude der Wechselspannung hängt von der Orientierung und Empfind-
lichkeit der Empfangsspule B1 (r), der zeitlichen Ableitung der Magnetisierung und
von der Larmor-Frequenz ab (󳶳Abb. 9.11). Das bedeutet, dass bei einer höheren Feld-
stärke eine höhere Spannung sowohl aufgrund einer höheren Larmor-Frequenz als
auch wegen der größeren Magnetisierung M0 (󳶳Gl. (9.25)) induziert wird:

U(t) ∼ B20 (9.42)


9 Magnetische Resonanztomographie | 343

B₀ z

RF-Spule RF-Spule
Free Induction
Decay (FID): Das
t induzierte Signal
nimmt nach einer
Zeit ab/zerfällt über
die Zeit
Signal- induzierte
rotierende Mxy detektion rotierender Magnet Spannung

Abb. 9.11: Eine transversale Magnetisierung induziert eine Spannung in der RF-Spule.

Das empfangene Signal wird in einem sogenannten Quadraturdetektor mit der


Frequenz 𝜔0 heruntergemischt (s. 󳶳Kap. 9.6.4). Damit entspricht das Signal hinter dem
Mischer der Magnetisierung im rotierenden Koordinatensystem.

9.2.4 Relaxation

Nachdem die Magnetisierung aus ihrer ursprünglichen longitudinalen Orientierung


gekippt wurde, kehrt sie nach einer gewissen Zeit in ihr thermisches Gleichgewicht M0
zurück. Dieses wird durch zwei unabhängige Relaxationsmechanismen bestimmt
(󳶳Abb. 9.12). Der erste Mechanismus beschreibt die Längsrelaxation, d. h., wie
schnell sich die longitudinale Magnetisierung nach der Anregung erholt. Diese be-
ruht auf der Wechselwirkung der Spins mit der molekularen Umgebung. Da diese
Umgebung unabhängig vom physikalischen Zustand als Gitter bezeichnet wird,
spricht man auch von der Spin-Gitter-Relaxation. Der zweite Mechanismus be-
schreibt den Zerfall der Transversalmagnetisierung. Diese Querrelaxation beruht auf
der Wechselwirkung zwischen den Spins und wird auch Spin-Spin-Relaxation ge-
nannt. Nach Bloch können beide Mechanismen durch exponentielle Anstiegs- bzw.
Abklingkurven mit den Relaxationskonstanten T1 und T2 genähert werden:

dMz M0 − Mz − t
= ⇒ Mz (t) = M0 − (M0 − Mz (0))e T1
dt T1
dMxy Mxy − t
=− ⇒ Mxy (t) = Mxy (0)e T2 (9.43)
dt T2

Relaxation: Mechanismus in der Physik, der die Rückkehr eines angeregten Zustands in seinen
Gleichgewichtszustand beschreibt. Unterschiedliche Gewebearten haben unterschiedliche Kern-
spin-Relaxationszeiten, woraus sich u. a. der Bildkontrast zur Darstellung verschiedener Gewebe-
arten mittels MRT gewinnen lässt.
344 | Tobias Schaeffter

longitudinale Relaxation tranversale Relaxation


Mz nach 90°-Anregung Mxy
M0 M0
T1 –t
–t
T2 Mxy = M0 eT2
Mz = M0 (1 – eT1 )
63 % 95 %
37 % 5%

0 T1 2T1 3T1 0 T2 2T2 3T2

Mz Mxy
Fett
Muskel
Liquor
Liquor

37 %
Fett
Muskel
t t

Abb. 9.12: Längs- und Querrelaxation nach einem 90°-RF-Puls. Unterschiedliche Gewebearten ha-
ben unterschiedliche Relaxationszeiten T1 und T2 .

Für biologisches Gewebe ist diese Näherung gültig, während sie für viele Festkörper
nicht mehr zulässig ist. Insgesamt ist die T1 -Relaxationszeit immer größer oder gleich
T2 . Der Einfluss der Relaxation kann auch in die Bewegungsgleichung (im rotierenden
Koordinatensystem) integriert werden, die als Blochsche Gleichungen bezeichnet
werden:
𝜕M⃗ 󸀠 Mx󸀠 e⃗󸀠x + My󸀠 e⃗󸀠y (Mz󸀠 − M0 ) e⃗󸀠z
= 𝛾 (M⃗ 󸀠 × B󸀠⃗ eff ) − − (9.44)
𝜕t T2 T1
Der Grund für die beiden Relaxationsprozesse liegt in mikroskopisch fluktuieren-
den Feldern [Gadian 1995]. Diese beeinflussen das Verhalten der Magnetisierung in
ähnlicher Weise wie das B0 - bzw. das B1 -Feld. Ähnlich wie bei einem RF-Puls be-
wirken fluktuierende Felder in der xy-Ebene eine Veränderung der longitudinalen
Magnetisierung, falls diese Felder Frequenzkomponenten bei der Resonanzfrequenz
aufweisen. Beispielsweise kann die thermische Bewegung der Moleküle zu fluktuie-
renden Feldern aufgrund benachbarter magnetischer Momente (Dipol-Dipol-Wech-
selwirkung) führen. Dabei hängen die resultierenden Frequenzkomponenten von der
Molekülstruktur (z. B. Größe und Bindungen) und auch von der Temperatur ab. Nur
die Frequenzkomponenten, die mit der Resonanzfrequenz übereinstimmen, sind für
die longitudinale Relaxation verantwortlich. Dadurch hängt die T1 -Relaxationszeit
sowohl vom Gewebetyp als auch von der Feldstärke B0 ab.
Bei der Querrelaxation spielen die fluktuierenden Feldkomponenten entlang der
z-Richtung eine Rolle und werden von benachbarten Spins hervorgerufen. Dies führt
insgesamt zu einer Dephasierung und damit zu einem Zerfall der transversalen Ma-
9 Magnetische Resonanztomographie | 345

gnetisierung. Im Gegensatz zu der longitudinalen Relaxation ist die Querrelaxation


weniger von der Feldstärke abhängig. Zusätzlich zum Zerfall aufgrund der Spin-Spin-
Wechselwirkung kann eine örtliche Inhomogenität des B0 Feldes zu einer weiteren
Dephasierung führen. Diese örtliche Inhomogenität des Magnetfeldes entsteht auf-
grund des Einflusses des Messobjektes auf das Magnetfeld. Insbesondere führen lo-
kale Unterschiede in der Permeabilität zu einer Verzerrung des Magnetfeldes und da-
mit zu lokalen Feldgradienten. Diese Feldgradienten werden vom Objekt selber her-
vorgerufen und werden daher oft als intern bezeichnet. Zur Veranschaulichung des
Einflusses der Feldinhomogenität kann man ein Volumenelement in Bereiche mit un-
terschiedlicher Larmor-Frequenz unterteilen:
I
M⃗ = ∑ m⃗ 𝜔i (9.45)
i=1

Diese Magnetisierungsanteile präzedieren mit unterschiedlicher Frequenz (Iso-


chromaten). Im rotierenden Koordinatensystem nehmen Isochromaten (physika-
lische Größe mit gleicher Frequenz) mit 𝜔i > 𝜔0 eine positive Phase auf, während die
Isochromaten mit 𝜔i < 𝜔0 über die Zeit eine negative Phase aufbauen. Dies führt zu
einer zusätzlichen Dephasierung, so dass eine insgesamt größere Relaxationszeit T∗2
sichtbar ist:
t
− ∗
Mxy (t) = Mxy (0)e T2
1 1 1
= +
T2∗ T2 T 𝛥B0
2 (9.46)

Betrachtet man das Verhalten der Magnetisierungskomponenten nach einem 90° RF-
Puls, so klingt die transversale Magnetisierung exponentiell mit T2∗ ab, was zu einer
abklingenden Wechselspannung in der Empfangsspule führt. Dieses Signal wird auch
als freier Induktionszerfall (engl. Free Induction Decay, FID) bezeichnet. Während
die transversale Magnetisierung mit T2∗ zerfällt (󳶳Abb. 9.13), baut sich die longitudi-
nale Magnetisierung mit der Relaxationszeit T1 auf. Im Allgemeinen ist nach Abklin-
gen der transversalen Komponente die longitudinale Magnetisierung noch nicht beim
Wert des thermischen Gleichgewichts angekommen, da T1 > T2∗ ist.
In 󳶳Tab. 9.2 sind die Relaxationszeiten für unterschiedliche Gewebe und un-
terschiedliche Feldstärken aufgeführt. Sie liegen zwischen 40 und 2000 ms. Man er-
kennt, dass die T1 -Zeiten im Allgemeinen erheblich länger als die T2 -Zeiten sind. Die
T2 -Zeiten von Flüssigkeiten (Blut, CSF) sind länger als bei Gewebe. Während sich die
T1 -Zeiten von 1,5 zu 3 Tesla verlängern, ist bei den T2 -Zeiten kaum eine Feldstärken-
abhängigkeit feststellbar. Es soll darauf hingewiesen werden, dass nach T1 bzw. T2
die Relaxation nicht abgeschlossen ist, sondern die Magnetisierung erst auf Mxy (T2 ) =
37 % zerfallen ist bzw. sich zu Mz (T1 ) = 63 % M0 erholt hat (󳶳Abb. 9.12).
346 | Tobias Schaeffter

y
x

B₀

RF-Spule FID
T₂*

rotierende Mxy Signaldetektion

Abb. 9.13: Der freie Induktionszerfall (FID) zerfällt mit T2∗ aufgrund zusätzlicher Dephasierung.

9.2.5 Kontrastmittel

Die Relaxationszeiten lassen sich durch Gabe von Kontrastmittel verändern. Die-
se bestehen aus paramagnetischen oder ferromagnetischen Materialien. Die Verwen-
dung von paramagnetischen Ionen zur Beeinflussung der Relaxation wurde bereits in
den Anfangsjahren der kernmagnetischen Resonanz beschrieben [Bloch 1946, Bloem-
bergen 1948]. Eines der am häufigsten eingesetzten paramagnetischen Kontrastmittel
ist das Gadolinium-Ion Gd3+ . Wegen der hohen Giftigkeit von freien Gadolinium-Io-
nen werden Chelatkomplexe wie z. B. DTPA (Diethylentriaminpentaessigsäure) und
DOTA (Tetraazacyclododecan-Tetraessigsäure) verwendet, welche das hochreaktive

Tab. 9.2: Relaxationszeiten T1 und T2 für unterschiedliche Gewebe bei 1,5 und 3 Tesla [Stanisz
2005].

1,5 Tesla 3,0 Tesla


Gewebe T1 in ms T2 in ms T1 in ms T2 in ms
Weiße Hirnsubstanz 884 ± 50 72 ± 4 1084 ± 45 69 ± 3
Graue Hirnsubstanz 1124 ± 50 95 ± 8 1820 ±114 99 ± 7
Rückenmark 745 ± 37 74 ± 6 993 ± 47 78 ± 2
Blut 1441 ±120 290 ±30 1932 ± 85 275 ±50
Herzmuskel 1030 ± 34 40 ± 6 1471 ± 31 47 ±11
Leber 576 ± 30 46 ± 6 812 ± 64 42 ± 3
Niere 690 ± 30 55 ± 3 1194 ± 27 56 ± 4
9 Magnetische Resonanztomographie | 347

Ion vor chemischen Reaktionen im Gewebe schützen. Dabei gibt es eine Reihe von
Kontrastmitteln mit unterschiedlichen Chelaten [Rohrer 2005].
Wird nun eine paramagnetische Substanz in den Körper eingebracht, so bewirkt
die thermische Bewegung des Kontrastmittelmoleküls zusätzlich fluktuierende Fel-
der, die zu einer verstärkten Relaxation der Magnetisierung führen. Der Einfluss vom
Kontrastmittel auf die Relaxation wird dabei besser durch die Relaxationsrate, d. h.
die Inverse der Relaxationszeit, beschrieben:
1 1
R1 = R2 =
T1 T2
R1 = R01 + r1 ⋅ C R2 = R02 + r2 ⋅ C (9.47)

Dabei ergibt sich die resultierende Relaxationsrate als Summe der ursprünglichen
Rate des Gewebes R01,2 und dem zusätzlichen Anteil durch das Kontrastmittel, der
durch die sogenannte Relaxivität r1,2 und die Konzentration C gegeben ist. Da pa-
ramagnetische Ionen magnetische Momente tragen, die 1000-mal größer sind als
die der Kernspins, werden relativ geringe Konzentrationen (z. B. 1 mMol) verwendet.
Obwohl die Relaxivität für die beiden Relaxationsprozesse für viele Kontrastmittel
ähnlich ist (z. B. r1,2 = 4 (mMs)−1 ), ist der Einfluss der paramagnetischen Kontrastmit-
tel auf die T1 -Relaxationszeiten im Allgemeinen größer als für T2 . Grund dafür sind
die Unterschiede in den T1 - und T2 -Relaxationszeiten der Gewebe. Für ein Gewebe mit
T1 = 1000 ms und T2 = 100 ms ergibt sich:
1 1
R01 = = 1 s−1 ; R02 = = 10 s−1 ; r1,2 ⋅ C = 4 s−1
T1 T2
R1,2 = R01,2 + r1,2 ⋅ C
R1 = 5s−1 ⇒ T1 = 200 ms
R2 = 14s−1 ⇒ T2 = 71 ms (9.48)

Im Beispiel verändert das Kontrastmittel die T1 -Relaxationszeit des gewählten Gewe-


bes um 500 %, während die T2 -Zeit nur um 30 % reduziert wird.
Neben der Verwendung von Gd-Kontrastmitteln wurden in der Vergangenheit
auch Eisenoxidpartikel verwendet. Diese beeinflussen ebenfalls die T1 -Relaxations-
zeit, aber sie haben einen stärkeren Einfluss auf die T2 - und T2∗ -Relaxation. Dabei
spielt die Größe der Eisenoxidpartikel sowohl für die Relaxation als auch für die
Aufnahme in den verschiedenen Organen (Pharmakokinetik) eine entscheidende
Rolle. In den letzten Jahren wurden die Eisenoxidkontrastmittel mehr oder weniger
vollständig von den Gd-basierten Kontrastmitteln verdrängt und spielen zur Zeit nur
noch in der Forschung eine Rolle.
348 | Tobias Schaeffter

9.2.6 „Inversion Recovery“-Sequenz

Zur Messung beider Relaxationszeiten werden zwei bestimmte zeitliche Abfolgen


(Sequenz) von RF-Pulsen verwendet. Die Messung der T1 -Zeit kann durch eine so-
genannte „Inversion Recovery“-Sequenz erfolgen (󳶳Abb. 9.14). Dabei wird zunächst
die longitudinale Magnetisierung durch einen 180° RF-Puls invertiert, d. h., die ge-
samte Magnetisierung zeigt nach dem RF-Puls in die negative z-Richtung und es
ergibt sich keine transversale Magnetisierung. Während der Inversionszeit TI erholt
sich die longitudinale Magnetisierung nach 󳶳Gl. (9.43) mit der Anfangsbedingung
Mz (0) = −M0 :
T
− TI
Mz (TI ) = M0 (1 − 2e 1 ) (9.49)

Beim Zeitpunkt TI wird zur Detektion ein 90° RF-Puls eingestrahlt, der die zu diesem
Zeitpunkt „erholte“ Magnetisierung Mz (TI ) in die transversale Ebene kippt. Dies führt
zu einem FID-Signal, dessen Amplitude ein Maß für die longitudinale Magnetisierung
zur Zeit TI ist. Durch Wiederholung dieser Sequenz und Variation der Inversionszeit TI
kann die exponentielle Kurve gemessen werden. Es ist zu beachten, dass zwischen
den Experimenten eine Wartezeit eingehalten wird, um eine Erholung der longitudi-
nalen Magnetisierung in das thermische Gleichgewicht (M0 ) für jedes Experiment zu
gewährleisten. In der Praxis reicht eine Wiederholzeit (engl. repetition time)) von ca.
TR = 4T1 aus.

180° 180°

RF
TR
Mz
+M₀
Fett Muskel

–M₀

Abb. 9.14: „Inversion Recovery“-Sequenz.


9 Magnetische Resonanztomographie | 349

9.2.7 Spinecho-Sequenz

Wie im vorhergehenden Abschnitt beschrieben, klingt nach einer Anregung die trans-
𝛥B
versale Magnetisierung aufgrund von Feldinhomogenitäten (vgl. T2 0 in 󳶳Gl. (9.46))
schneller ab. Diese zusätzliche Dephasierung kann durch eine sogenannte Spinecho-
Sequenz zurück gedreht werden (󳶳Abb. 9.15). Dazu wird zunächst ein 90° RF-Puls
eingestrahlt, der die gesamte longitudinale Magnetisierung in die transversale Ebe-
ne kippt. Die transversale Magnetisierung klingt dabei mit der Zeitkonstanten T2∗ ab.
Dabei bewirken die Feldinhomogenitäten eine Aufspaltung der Magnetisierung in
verschiedene Isochromaten. Wie beschrieben laufen einige der Isochromaten schnel-
ler 𝜔i > 𝜔0 , während andere 𝜔i < 𝜔0 langsamer laufen. Nach der Zeit TE /2 haben die
Isochromate unterschiedliche positive oder negative Phasen 𝜑i = 𝜔i TE /2. Nach der Zeit
TE /2 wird nun ein 180° RF-Puls eingestrahlt, der eine Umkehr der Phasenlage bewirkt,
d. h., das Vorzeichen der Phase ändert sich. Nach der Zeit TE kommt es zu einer kom-

180°

Spin-Echo
90°
TE

Dephasierung Rephasierung

Abb. 9.15: Spin-Echo-Sequenz: Nach einer Anregung wird nach TE /2 ein 180° RF-Puls geschaltet, der
eine Refokussierung der Isochromaten bewirkt und zu einem Spinecho zum Zeitpunkt TE führt.

180° 180° 180° 180°

90°

Signal

Abb. 9.16: Multi-Spinecho-Sequenz: Nach einer Anregung wird eine Reihe von 180° RF-Pulsen ge-
schaltet, die eine Reihe von Spinecho-Signalen erzeugen.
350 | Tobias Schaeffter

pletten Rephasierung aller Isochromaten und es entsteht ein sogenanntes Spin-


echo. Die Amplitude des Spinecho-Signals wird dabei durch die Zeitkonstante T2 be-
stimmt. Zur Messung der T2 -Zeitkonstante können weitere 180° -RF-Pulse eingefügt
werden und es entstehen Spinecho-Signale, aus deren Amplitude der exponentielle
Zerfall bestimmt werden kann (󳶳Abb. 9.16).

9.2.8 Chemische Verschiebung

Wie beschrieben, hat jede Atomkern-Art ein bestimmtes gyromagnetisches Verhältnis


(󳶳Tab. 9.1). Damit ergibt sich eine charakteristische, eigene Resonanzfrequenz, an der
sie erkannt werden kann. Neben dem Typ des Atomkerns hängt die Resonanzfrequenz
aber auch von der chemischen Umgebung eines Atomkerns ab. Dabei führt der Ein-
fluss der Bindungselektronen zu einer lokalen minimalen Veränderung des externen
Magnetfeldes am Ort des Atomkernes und dementsprechend zu einer Variation der
Resonanzfrequenz von an sich identischen Atomkernen. Aufgrund dieser Eigenschaft
kann die kernmagnetische Resonanz zur Strukturaufklärung von Molekülen einge-
setzt werden. Um eine von der Feldstärke unabhängige Größe zu definieren, wird
die Änderung der Resonanzfrequenzen nicht als absoluter Wert, sondern als relative
„chemische Verschiebung“ gegenüber einer Referenzsubstanz, dem sogenannten
Standard, angegeben:
f − fref
𝛿= (9.50)
fref

Als Referenzsubstanz für 1 H- und 13 C-Spektren organischer Lösungen wird die Re-
sonanzfrequenz der jeweiligen Kerne in Tetramethylsilan (TMS) verwendet. Da die
Werte der chemischen Verschiebung sehr klein sind, werden sie in Millionstel der Re-
sonanzfrequenz (parts per million, ppm) angegeben. Die Veränderung der Resonanz-
frequenzen aufgrund der chemischen Verschiebung ist insbesondere im Vergleich
zur Frequenzänderung wegen des Atomkerns gering. Die Zahl und die Intensität der
bei der NMR-Spektroskopie auftretenden Frequenzlinien sind charakteristisch für
unterschiedliche Moleküle. Dazu wird ein NMR-Signal (z. B. das FID-Signal) aufge-
nommen und die unterschiedlichen Frequenzanteile werden durch eine Fourier-
Transformation berechnet. Dieses Frequenzspektrum zeigt dann die unterschiedlich
auftretenden Resonanzfrequenzen, d. h. chemischen Verschiebungen der Substan-
zen in der Probe. Der Vergleich des Spektrums mit Werten aus einer Vergleichstabelle
ermöglicht eine Zuordnung der spektralen Anteile zu bestimmten chemischen Ver-
bindungen, während die Signalstärke proportional zur Konzentration der jeweiligen
Stoffe ist. Die nachweisbaren Moleküle und die verwendeten MR-Messverfahren un-
terscheiden sich für die einzelnen Atomkerne. Die absoluten Frequenzunterschiede
wegen der chemischen Verschiebung nehmen mit zunehmender Feldstärke zu. Daher
lassen sich einzelne Linien besser bei höheren Feldern unterscheiden.
9 Magnetische Resonanztomographie | 351

9.3 Ortsauflösung
Bisher wurde die Messung der kernmagnetischen Resonanz der gesamten Magne-
tisierung in einem Objekt beschrieben. Bei der MR-Tomographie werden allerdings
Schnittbilder der transversalen Magnetisierungsverteilung gemessen. Dazu wird ei-
ne Ortskodierung benötigt, welche die Signale jedes einzelnen Volumenelementes
(Voxel) kodiert. Grundsätzlich lassen sich zwei Methoden der Ortsauflösung unter-
scheiden: selektive Anregung und örtliche Kodierung. Für beide Verfahren werden
magnetische Feldgradienten verwendet, die auch kurz Gradienten genannt wer-
den. Diese Gradienten bewirken eine örtlich lineare Veränderung der z-Komponente
des statischen Magnetfeldes. Je nach Raumrichtung lassen sich drei Gradienten
unterscheiden:
Bz (x, y, z) = B0 + Gx (t) ⋅ x + Gy (t) ⋅ y + Gz (t) ⋅ z
𝜕Bz 𝜕Bz 𝜕Bz
Gx = = const ; Gy = = const ; Gz = = const (9.51)
𝜕x 𝜕y 𝜕z
Die Stärke und Zeitdauer der unterschiedlichen Gradienten lassen sich unabhängig
voneinander steuern. Wegen 󳶳Gl. (9.15) hängt die Präzessionsfrequenz somit über die
Gradienten vom Ort ab und erlaubt somit eine Ortskodierung:

𝜔(x, y, z) = 𝛾 ⋅ B0 + 𝛾 ⋅ Gx (t) ⋅ x + 𝛾 ⋅ Gy (t) ⋅ y + 𝛾 ⋅ Gz (t) ⋅ z


𝜔(x, y, z) = 𝜔0 + 𝛾 ⋅ Gx (t) ⋅ x + 𝛾 ⋅ Gy (t) ⋅ y + 𝛾 ⋅ Gz (t) ⋅ z (9.52)

Im Folgenden soll die Verwendung der einzelnen Gradienten zu Erzeugung eines zwei-
dimensionalen Schichtbildes besprochen werden.

Selektive Schichtanregung

Bei der selektiven Schichtanregung wird ein Gradient während eines frequenzselek-
tiven RF-Pulses angelegt. Der Gradient bewirkt, dass sich die Resonanzfrequenz über
den Ort linear ändert. Der frequenzselektive RF-Puls regt aber nur diejenigen magne-
tischen Momente an, welche die Resonanzbedingung erfüllen, d. h., die Frequenz der
magnetischen Momente muss mit der Frequenz des RF-Pulses übereinstimmen. Da-
mit wird nur in einer Schicht die Magnetisierung in die transversale Ebene gekippt.
Hierbei bestimmen die Mittenfrequenz und die Stärke des Gradienten (d. h. Steilheit
der Magnetfeldänderung) den Ort der Schicht, während die Schichtbreite durch die
Bandbreite des RF-Pulses und die Stärke des Gradienten bestimmt wird (󳶳Abb. 9.17).
Für eine mathematische Beschreibung der Schichtselektion müssen die Bloch-
schen Gleichungen 󳶳Gl. (9.44) gelöst werden. Der Einfachheit halber soll der Einfluss
der Relaxation während des RF-Pulses vernachlässigt werden, da die Pulsdauer im
Allgemeinen sehr viel kürzer als die Relaxationszeiten ist. Ferner soll nur ein Gradi-
ent (z. B. z-Richtung) während des RF-Pulses (in x-Richtung) mit der Mittenfrequenz
352 | Tobias Schaeffter

Schicht

RF-Puls ω(z) = γ(B₀ + Gzz)


ωRF

ω₀ = γB₀

z
Δz

Abb. 9.17: Schichtselektion: Durch gleichzeitiges Schalten eines Gradienten und eines RF-Pulses
wird die Magnetisierung nur in einer Schicht angeregt. Dabei bestimmt die Frequenz des RF-Pulses
die Position der Schicht, während die Bandbreite und die Gradientenstärke die Schichtdicke be-
stimmt.

𝜔RF angelegt werden. Damit ergibt sich für die Blochschen Gleichungen im mit -𝜔RF
rotierenden Koordinatensystem:
𝜕M⃗ 󸀠
= 𝛾 (M⃗ 󸀠 × B󸀠⃗ eff )
𝜕t
𝜔
B󸀠⃗ eff = B1 (t) ⋅ e󸀠⃗ x + (B0 + Gz z − RF ) ⋅ e󸀠⃗ z
𝛾 (9.53)
Um eine Schicht bei z0 anzuregen, muss die Mittenfrequenz des RF-Pulses zu
𝜔RF = 2𝜋fc = 𝜔0 + 𝛾Gz z0 (9.54)
gewählt werden. Damit ergibt sich für Beff und die 󳶳Gl. (9.52):
B󸀠⃗ eff = B̂ 1 (t) ⋅ e󸀠⃗ x + Gz (z − z0 ) ⋅ e󸀠⃗ z
Mx 󸀠 Mx 󸀠 B̂ 1 (t)
d
(My󸀠 ) = (My󸀠 ) × ( 0 )
dt
Mz 󸀠 Mz 󸀠 Gz (z − z0 )
dMx󸀠 (z, t)
= My󸀠 (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 )
dt
dMy󸀠 (z, t)
= −Mx󸀠 (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) + Mz󸀠 (z, t) ⋅ 𝛾 ⋅ B̂ 1 (t)
dt
dMz󸀠 (z, t)
= −My󸀠 (z, t) ⋅ 𝛾 ⋅ B̂ 1 (t) (9.55)
dt
9 Magnetische Resonanztomographie | 353

Dieses Gleichungssystem lässt sich für kleine Kippwinkel in einer geschlossenen Form
lösen. Dafür nimmt man an, dass sich die z-Komponente der Magnetisierung für kleine
Kippwinkel nicht ändert, d. h. Mz (z, t) = M0 :
dMx󸀠 (z, t)
= My󸀠 (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 )
dt
dMy󸀠 (z, t)
= −Mx󸀠 (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) + M0 ⋅ 𝛾 ⋅ B̂ 1 (t)
dt
dMz󸀠 (z, t)
=0 (9.56)
dt
Für die einfachere Beschreibung wird die komplexe transversale Magnetisierung Mxy
eingeführt:
Mxy󸀠 = Mx󸀠 + iMy󸀠
dMxy󸀠 (z, t) dMx󸀠 (z, t) dMy󸀠 (z, t)
= +i
dt dt dt
dMxy󸀠 (z, t)
= My󸀠 (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) − iMx󸀠 (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) + iM0 ⋅ 𝛾 ⋅ B̂ 1 (t)
dt
dMxy󸀠 (z, t)
= −iMxy󸀠 (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) + iM0 ⋅ 𝛾 ⋅ B1 (t) (9.57)
dt
Die Lösung dieser Differentialgleichung zum Zeitpunkt T ergibt sich mit der Anfangs-
bedingung Mxy (z, 0) = 0 zu:
T T
−i ∫ 𝛾Gz ⋅(z−z0 )d𝜏∗
Mxy󸀠 (z, T) = i𝛾M0 ∫ B̂ 1 (𝜏) ⋅ e 𝜏 d𝜏 (9.58)
0

Zur einfacheren Formulierung kann die Abkürzung kz eingeführt werden, die sich aus
dem zeitlichen Verlauf des Gradienten ergibt:
T

kz (t) = − ∫ 𝛾Gz (𝜏∗ )d𝜏∗ (9.59)


t

damit erhält man nach Substitution von kz (t):


kz (T) kz (T)
B̂ 1 (kz ) ikz (z−z0 )
Mxy󸀠 (z, T) = i𝛾M0 ∫ dkz
⋅e dkz = i𝛾M0 ∫ W1 (kz ) ⋅ eikz (z−z0 ) dkz
kz (0) dt kz (0)

B̂ 1 (kz )
W1 (kz ) = dkz
(9.60)
dt

Zur weiteren Vereinfachung betrachtet man zunächst z0 = 0 und erweitert die Integra-
tionsgrenzen durch Einführung einer Fensterfunktion 𝛱(kz ) mit der Verschiebung ks :

Mxy󸀠 (z) = i𝛾M0 ∫ W1 (kz ) ⋅ 𝛱𝛥k (kz − ks ) ⋅ e−ikz z dkz (9.61)


z
−∞
354 | Tobias Schaeffter

Die Gleichung beschreibt eine Fourier-Transformation zwischen einem kz -Raum


und dem Ortsbereich. Daher kann das Schichtprofil Mxy (z) aus der Fourier-
Transformierten der Funktion W1 (kz ) berechnet werden, welche vom RF-Puls abhängt.
Der Vorteil dieser Beschreibung ist, dass für ein gewünschtes Schichtprofil und einen
beliebigen Gradientenzeitverlauf der geeignete RF-Puls berechnet werden kann. Es
soll darauf hingewiesen werden, dass der kz -Raum der Anregung immer bei Null
endet. Dies hat Auswirkung auf die Phase des Schichtprofils der Magnetisierung.
Betrachtet man einen RF-Puls während eines konstanten Gradienten, so ergibt sich
eine lineare Veränderung im kz -Raum:

Gz (t) = G;̂ 0 < t < T)


kz (t) = −𝛾 ⋅ Ĝ ⋅ (T − t)
𝛥kz = 𝛾 ⋅ Ĝ ⋅ T
ks = 𝛥kz /2

Mxy󸀠 (z) = i𝛾M0 ∫ W1 (kz − ks ) ⋅ eikz z dkz (9.62)


−∞

Nach dem Verschiebungstheorem der Fourier-Transformation [Bracewell 1999] er-


gibt sich eine lineare Phase über dem Schichtprofil, d. h., die transversale Magneti-
sierung ist entlang der Schicht dephasiert, was zur einer Reduktion des Signals führt
(󳶳Abb. 9.18). Es soll nun gezeigt werden, dass ein zusätzlicher Gradient nach dem
Anregungspuls zu einer Rephasierung der transversalen Magnetisierung entlang des
Schichtprofils führt (󳶳Abb. 9.19). Diese Fläche dieses Gradienten wird halb so groß
wie die Fläche des Schichtselektionsgradienten gewählt. Damit ergibt sich folgender
kz -Raum:

{Ĝ ; 0<t<T {−𝛾 ⋅ Ĝ ⋅ ( T2 − t) ; 0<t<T


Gz (t) = { Ĝ ; kz (t) = { Ĝ
− 2 ; T < t < 2T 𝛾 ⋅ ⋅ (2T − t) ; T < t < 2T
{ { 2
𝛥kz = 𝛾 ⋅ Ĝ ⋅ T
ks = 0

Mxy󸀠 (z) = i𝛾M0 ∫ W1 (kz ) ⋅ eikz z dkz (9.63)


−∞

Der nachgeschaltete Gradient verursacht eine Verschiebung der k-Raum-Trajekto-


rie während des RF-Pulses und es ergibt sich für eine symmetrische Funktion W1 (kz )
ein Schichtprofil mit einer konstanten Phase. Daher wird der nachgeschaltete Gra-
dient auch Refokussierungsgradient genannt. Um beispielsweise eine transversale
Magnetisierung in einer rechteckförmigen Schicht anzuregen, muss W1 (kz ) (und im
Falle eines konstanten Gradienten auch B1 (t)) als Sinc-Funktion gewählt werden. Es ist
weiter zu beachten, dass der RF-Puls nur während einer begrenzten Zeit eingeschaltet
wird, so dass sich im Schichtprofil immer Überschwinger und Nebenmaxima ergeben
9 Magnetische Resonanztomographie | 355

Mxy(z)

RF(t) RF(kz)
1 2 1 2
G(t) kz(t) z
Φ(z)
0 T t T t –Δkz 0

–Δkz z

Abb. 9.18: RF- und Gradientenpuls für die selektive Schichtanregung. Die Verwendung eines einzel-
nen Selektionsgradienten führt zu einer linearen Phase in der transversalen Magnetisierung, d. h.,
die Schicht ist dephasiert.

Mxy(z)

RF(t) kz(t) RF(kz)


1 2 3 Δkz/2 1 2
G(t) z
k(t) Φ(z)
0 t T 2T t 3
T 2T –Δkz/2 0
–Δkz/2 Δkz/2 z

Abb. 9.19: RF -und Gradientenpulse für die refokussierte Schichtanregung. Die Verwendung eines
Refokussierungsgradienten bewirkt, dass die Trajektorie im k-Raum verschoben und der RF-Puls
symmetrisch um kz = 0 ausgeführt wird; damit ergibt sich eine konstante Phase über der Schicht.

(Gibbs-Ringing). Zur Reduktion dieser Artefakte wird die RF-Pulsform oft mit einer zu-
sätzlichen Fensterfunktion (z. B. Gauss oder Hamming) gewichtet.

k-Raum: Formalismus in der Magnetresonanztomographie zur mathematischen Beschreibung der


Ortskodierung.

9.3.1 Ortskodierung in der x- und y-Ebene

Nach der schichtselektiven Anregung wird durch Anlegen von orthogonalen Gradi-
enten eine zweidimensionale Ortskodierung durchgeführt. Dabei werden zwei unter-
schiedliche Verfahren eingesetzt: Frequenz- und Phasenkodierung (󳶳Abb. 9.20).

Frequenzkodierung
Für eine Frequenzkodierung wird ein Gradient während des Auslesens des FID-
Signals eingeschaltet. Dadurch kommt es zu einer linearen Veränderung der Präzes-
sionsfrequenz über dem Ort. Wird z. B. ein Gradient entlang der x-Richtung angelegt,
356 | Tobias Schaeffter

RF-Puls Anregung

Gz Schichtselektion

Gy Phasenkodierung

Gx Frequenzkodierung

Signal

Aufnahme

Abb. 9.20: Pulssequenz für die Ortskodierung: Die zeitliche Reihenfolge des RF-Pulses und der
verschiedenen Gradientenpulse beschreibt die unterschiedlichen Phasen der Ortskodierung. Zu-
nächst wird durch gleichzeitiges Schalten eines RF-Pulses und eines Gradienten in einer Schicht
(z-Richtung) die Magnetisierung in die transversale Ebene gekippt. Danach wird durch Schalten
eines Gradienten (y-Richtung) eine Phasenkodierung durchgeführt. Anschließend wird ein Signal
während eines Gradienten (x-Richtung) ausgelesen. Diese Pulssequenz muss wiederholt werden,
um unterschiedliche Phasenkodierschritte durchzuführen.

so ergibt sich für die Präzessionsfrequenz (󳶳Gl. (9.15)):

𝜔(x) = 𝛾 ⋅ (B0 + Gx ⋅ x) = 𝜔0 + 𝛾 ⋅ Gx ⋅ x (9.64)

Daher präzediert die Magnetisierung an verschiedenen Orten mit unterschiedlicher


Frequenz, wobei umgekehrt jede Frequenz charakteristisch für einen Ort ist. Für den
Beitrag zum Signal aus einem infinitesimalen Ortsinterval dx am Ort x ergibt sich:

dS(x, t) ∝ 𝜌(x) ⋅ dx ⋅ (cos(𝜔(x)t)e⃗x − sin (𝜔(x)t) e⃗y ) (9.65)

wobei 𝜌 die Spindichte ist. Für eine einfachere Beschreibung werden komplexe Zah-
len verwendet:
ei𝜑 = cos 𝜑 + i sin 𝜑
e−i𝜔(x)t = cos(𝜔(x)t) − i sin(𝜔(x)t) (9.66)
Damit ergibt sich für das komplexe Signal:

dS(x, t) ∝ 𝜌(x) ⋅ dx ⋅ e−i𝜔(x)t = 𝜌(x) ⋅ dx ⋅ e−i(𝜔0 +𝛾Gx x)t (9.67)

Im Folgenden wird der Einfachheit halber die Proportionalitätskonstante zu eins ge-


setzt und eine homogene Anregung B1 (r)⃗ angenommen. Damit erhält man das gesam-
te Signal durch örtliche Integration:
∞ ∞
−i(𝜔0 +𝛾Gx x)t −i𝜔0 t
S(t) = ∫ dS(x, t) = ∫ 𝜌(x) ⋅ e dx = e ∫ 𝜌(x) ⋅ e−i(𝛾Gx x)t dx (9.68)
V −∞ −∞
9 Magnetische Resonanztomographie | 357

Das Signal ist die Summe aller Magnetisierungskomponenten mit den charakteristi-
schen Frequenzen (󳶳Gl. (9.64)). Allerdings liegt das Signal um die Trägerfrequenz 𝜔0
verteilt. Daher wird das Signal mithilfe eines Quadraturdetektors „heruntergemischt“
(s. 󳶳Kap. 9.6.4). Dieser bewirkt den Übergang ins rotierende Koordinatensystem, so
dass das Signal hinter dem Quadraturdetektor den Faktor e−i𝜔0 t nicht mehr enthält.
Die örtliche Verteilung des Bildes erhält man dann aus dem Frequenzspektrum des
Signals, da jeder Ortsbereich wegen des Gradienten Signale mit einer charakteristi-
schen Frequenz aussendet. Daher nennt man diese Form der Ortskodierung auch Fre-
quenzkodierung. Zur Berechnung des Frequenzspektrums muss das gemessene ana-
loge Signal in ein digitales Signal gewandelt werden. Nach dem Shannon-Theorem
ist ein fehlerloses Abtasten dieses Signals nur möglich, wenn das Signal bandbegrenzt
(f < fmax ) und die Samplingfrequenz (gegeben durch den zeitlichen Abstand 𝛥𝜏) min-
destens doppelt so groß ist wie maximal auftretende Frequenz maximal auftretene Frequenz ist die größte
Frequenz wo, die durch die Gradienten im
1 𝜔 𝛾 FOV 𝛾 Patienten ist
fs = ≥ 2fmax = 2 max = 2 Gx ⋅ = Gx ⋅ FOV (9.69)
𝛥𝜏 2𝜋 2𝜋 2 2𝜋
wobei die maximale Frequenz von der Gradientenstärke und der Größe des Messob-
jektes (engl. field of view, FOV) abhängt. Da der Gradient während des Signalauslesens
eingeschaltet ist, wird dieser auch Auslesegradient (engl. readout gradient) genannt.
Dieser ermöglicht eine eindimensionale Ortskodierung entlang der Gradientenrich-
tung. Zur Kodierung der zweiten Ortsdimension muss ein orthogonaler Gradient und
ein weiteres Verfahren verwendet werden, welches die Phase der Signale beeinflusst.

Phasenkodierung
Eine Phasenkodierung wird durch einen Gradienten (z. B. in y-Richtung) erreicht, der
nach der Anregung für einen Zeitraum Ty angelegt wird. Nach der schichtselektiven
Anregung präzediert die gesamte transversale Magnetisierung in der Schicht zunächst
mit der gleichen Larmorfrequenz, d. h., im rotierenden Koordinatensystem bleiben al-
le Spins in einer Richtung stehen. Schaltet man nun für eine Zeit Ty einen Gradienten
in y-Richtung ein, so präzediert die Magnetisierung während dieses Zeitintervalls Ty
mit unterschiedlicher Frequenz. Im rotierenden Koordinatensystem läuft die transver-
sale Magnetisierung entlang der y-Richtung entweder schneller oder langsamer, so
dass sich eine positive oder negative Phase aufbaut:

𝜑(y, Ty ) = 𝜔 ⋅ Ty = −(𝜔0 ⋅ Ty + 𝛾 ⋅ Gy ⋅ y ⋅ Ty ) = −(𝜑0 + 𝛾 ⋅ Gy ⋅ y ⋅ Ty )


𝛥𝜑(y, Ty ) = −𝛾 ⋅ Gy ⋅ y ⋅ Ty (9.70)

Nach dem Ausschalten des Gradienten präzediert die gesamte transversale Magneti-
sierung wieder mit der gleichen Frequenz, aber die relative Phase zwischen den ein-
zelnen Magnetisierungsanteilen bleibt erhalten. Dabei entspricht jedem Ort eine cha-
rakteristische Phase. Ähnlich wie bei der Beschreibung der Frequenzkodierung erhält
358 | Tobias Schaeffter

selektive Anregung
z-Gradient Gz
und
RF-Puls

Gy
Phasenkodierung
y-Gradient

Frequenzkodierung
x-Gradient
Gx

Abb. 9.21: Ortskodierung durch Schichtselektion, Phasenkodierung und Frequenzkodierung.

man für das Signal nach der Phasenkodierung.


∞ ∞
−i(𝜔0 +𝛾Gy y)Ty −i𝜑0
S(t) = ∫ dS(y, t) = ∫ 𝜌(y) ⋅ e dy = e ∫ 𝜌(y) ⋅ e−i(𝛾Gy yTy ) dy (9.71)
V −∞ −∞

Die unterschiedlichen Phasen lassen sich nicht durch eine einzelne Messung und an-
schließende Signalanalyse bestimmen, da man nur die Summe des gesamten Messob-
jektes zu einem Zeitpunkt Ty erhält. Daher muss die Messung Ny -mal mit unterschied-
lichen Stärken des Phasenkodiergradienten wiederholt werden, wobei Ny die Anzahl
der unterschiedlichen Voxel entlang der y-Richtung ist. Dabei startet man mit einem
Gradienten, so dass sich eine lineare Phase von 360° über dem gesamten Messobjekt
(FOV) ergibt. In den weiteren Messungen wird der Gradient verdoppelt, verdreifacht
usw., bis im letzten Phasenkodierschritt eine 180° Phase zwischen benachbarten Vo-
xeln entsteht:
𝛥𝜑max (y, Ty ) = 𝛾 ⋅ Gy max ⋅ 𝛥y ⋅ Ty = 𝜋 (9.72)
wobei 𝛥y der Abstand zweier Voxel, d. h. die räumliche Auflösung ist (󳶳Abb. 9.21).

9.3.2 Beschreibung der Ortskodierung im k-Raum

In den beiden vorhergehenden Abschnitten wurden mit Frequenz- und Phasenkodie-


rung zwei Verfahren der Ortskodierung vorgestellt. In diesem Abschnitt sollen die-
9 Magnetische Resonanztomographie | 359

se beiden Verfahren anhand des k-Raum-Formalismus beschrieben werden. Bisher


wurden nur Gradienten betrachtet, die lediglich für kurze Zeit eingeschaltet wurden,
während dieser Zeit aber eine konstante Amplitude hatten. Dies führte zu einer über
die Zeit konstanten Präzessionsfrequenz. Allgemein gilt für die Winkelgeschwindig-
keit und für die Phase:
d𝜑
𝜔(t) =
dt
𝜑 = ∫ 𝜔(t)dt (9.73)

Nach Anregung der transversalen Magnetisierung, Vernachlässigung der Relaxation


und Schalten von Gradienten in unterschiedliche Raumrichtung gilt für die Präzessi-
onsfrequenz und für die Phase:

S(t) = ∫ dS(x, y, z, t) = e−i𝜔0 t ∭ 𝜌(x, y, z) ⋅ e−i𝛾 ∫ Gx (t)xdt−i𝛾 ∫ Gy (t)ydt−i𝛾 ∫ Gz (t)zdt dxdydz


V V
(9.74)
Daraus folgt für den Signalbeitrag aus einem infinitesimalen Volumenbereich

dS(x, y, z, t) ∝ 𝜌(x, y, z) ⋅ dx ⋅ dy ⋅ dz ⋅ e−i𝜔0 t−i𝛾 ∫ Gx (t)xdt−i𝛾 ∫ Gy (t)ydt−i𝛾 ∫ Gz (t)zdt (9.75)

Im Folgenden wird die Proportionalitätskonstante wieder zu eins gesetzt und man er-
hält das gesamte Signal durch örtliche Integration über den Volumenbereich:

S(t) = ∫ dS(x, y, z, t) = e−i𝜔0 t ∭ 𝜌(x, y, z) ⋅ e−i𝛾 ∫ Gx (t)xdt−i𝛾 ∫ Gy (t)ydt−i𝛾 ∫ Gz (t)zdt dxdydz


V V
(9.76)
Durch Definition der Abkürzung⁶
𝛾
kx,y,z (t) = ∫ Gx,y,z (t)dt (9.77)
2𝜋
erhält man das Signal als

S(kx,y,z (t)) = e−i𝜔0 t ∭ 𝜌(x, y, z) ⋅ e−i2𝜋kx x e−i2𝜋ky y e−i2𝜋kz z dxdydz (9.77a)


V

Wie zuvor besprochen, verschwindet der Faktor e−i𝜔0 t nach Quadraturdetektion durch
Demodulation mit der Resonanzfrequenz 𝜔0 und es verbleibt

S(kx,y,z (t)) = ∭ 𝜌(x, y, z) ⋅ e−i2𝜋kx x e−i2𝜋ky y e−i2𝜋kz z dxdydz (9.77b)


V

6 kx und ky sind identisch mit den mit 2𝜋 multiplizierten Raumfrequenzen u und v aus 󳶳 Kap. 3 (CT)
und 󳶳 Kap. 21 (Systemtheorie).
360 | Tobias Schaeffter

ky

1 2 3

Gx

Gy 1 2 kx
t

Abb. 9.22: Das gleichzeitige Einschalten von zwei positiven Gradienten in x- und y-Richtung be-
schreibt eine Trajektorie im k-Raum entlang der kx - bzw. der ky -Richtung.

Diese Gleichung besagt, dass das gemessene Signal die Fourier-Transformation


der örtlichen Verteilung der Spindichte (d. h. des Bildes) ist. Daher erhält man ein
zwei- bzw. dreidimensionales Bild durch zwei- bzw. dreidimensionale Fourier-
Transformation der gemessen Daten. Ziel der MR-Bildgebung ist daher, alle Mess-
punkte im zwei- bzw. dreidimensionalen k-Raum aufzunehmen. Die unterschiedli-
chen Punkte können nach 󳶳Gl. (9.77) durch geeignete Gradientenfunktionen angefah-
ren werden. Im Folgenden sollen Beispiele für Trajektorien von unterschiedlichen
Gradientenfunktionen beschrieben werden. Beispielsweise gilt für einen konstanten
Gradienten in x-Richtung:
𝛾 𝛾
kx (t) = ∫ Gx0 dt = G t (9.78)
2𝜋 2𝜋 x0
d. h., der konstante Gradient beschreibt eine lineare Trajektorie entlang der kx -
Richtung. Schaltet man zunächst einen positiven Gradienten in x-Richtung und dann
einen in y-Richtung so „fährt“ man zunächst entlang der kx -Richtung und von dort
aus entlang der ky -Richtung (󳶳Abb. 9.22).
Wird zunächst ein negativer Gradient in y-Richtung geschaltet, so beschreibt dies
eine Trajektorie von k = 0 nach ky = −ky max (󳶳Abb. 9.23). Wird danach ein negati-
ver Gradient in x-Richtung gefolgt von einem positiven Gradient mit doppelter Länge
geschaltet, so beschreibt dies eine Trajektorie in die negative kx -Richtung bis −kmax .
Von dort aus „fährt“ man zurück über kx = 0 bis kx = kmax . Diese Sequenz von Gradi-
enten ermöglicht die Aufnahme einer Zeile im k-Raum. Wird diese Abfolge mit einem
etwas geringeren Gradienten in y-Richtung verwendet, so kann eine weitere paral-
lele k-Raum-Zeile aufgenommen werden. Zur Aufnahme muss lediglich das analoge
Signal in der Empfangsspule in ein digitales Signal gewandelt werden. Dazu werden
die diskreten Signalamplituden als Werte an den Positionen im k-Raum eingetragen.
Damit ein vollständiges zweidimensionales Bild durch eine zweidimensionale Fou-
rier-Transformation rekonstruiert werden kann, muss die Abfolge Ny -mal wiederholt
9 Magnetische Resonanztomographie | 361

ky

1 2 3 4

Gx 1
Gy kx
t

3 4
2

Abb. 9.23: Das Schalten von drei Gradienten kann zum Auslesen einer kx -Zeile im k-Raum während
des positiven x-Gradienten genutzt werden. Um eine andere parallele Zeile auszulesen, muss der
vorausgehende y-Gradient angepasst werden.

werden, um somit alle Ny -Zeilen zu messen. Dies ist im Prinzip die Beschreibung von
einer Phasenkodierung in ky und einer Frequenzkodierung in kx -Richtung, d. h., die
Frequenzkodierung wird Ny mal mit unterschiedlichen Werten des Phasenkodiergra-
dienten wiederholt. Eine eindeutige Rekonstruktion ist nur möglich, wenn die richtige
Abtastfrequenz verwendet wird, d. h., wenn nach dem Shannon-Theorem gilt:
1
≥ 2ky,max
𝛥y
Ny 1 ky,max
≥ 2ky,max ⇒ ≥2 = 𝛥ky
FOVy FOVy Ny
1
≥ FOVy (9.79)
𝛥ky
Wird diese Bedingung nicht erfüllt, kommt es zu einer Rückfaltung (engl. aliasing)
im Bildbereich. Das Problem der Rückfaltung existiert nur entlang der Phasenkodier-
richtung, da bei der Ausleserichtung stets eine viel höhere Abtastfrequenz verwen-
det wird, und der Einsatz von Anti-Aliasing-Filtern möglich ist. 󳶳Gleichung (9.79)
beschreibt die notwendige Bedingung für die Schrittweite der Phasenkodierung
(󳶳Abb. 9.24).
Neben dem zuvor besprochenen Auslesen paralleler Zeilen können auch andere
k-Raum-Trajektorien verwendet werden. Beispielsweise beschreibt das gleichzeiti-
ge Einschalten von zwei Gradienten entlang x- und y-Richtung eine diagonale Tra-
jektorie. Werden die Amplituden dieser beiden Gradienten sukzessive verändert (wie
durch eine Cosinus- und eine Sinusfunktion bestimmt), so können viele radiale Tra-
jektorien beschrieben werden (󳶳Abb. 9.25). Dies ist eine Datenerfassung ähnlich der
CT-Bildgebung; sie wurde von Lauterbur zur Rekonstruktion des ersten MR-Bildes
verwendet. Neben der Rekonstruktion mittels einer gefilterten Rückprojektion kann
auch ein „Gridding“-Verfahren angewandt werden. Dazu werden die Werte auf der ra-
362 | Tobias Schaeffter

FOVA = 1/Δk Δk

FOVB = FOVA/2 2Δk

Abb. 9.24: Der Abstand der Messpunkte im k-Raum bestimmt das Messfeld (FOV). Wird der Abstand
zu groß gewählt, kommt es zu einer Rückfaltung im Bildbereich.

ky
3

1 2 3

Gx 1
kx
Gy
t

Abb. 9.25: Durch gleichzeitiges Schalten von Gradienten in zwei Richtungen kann eine diagona-
le Trajektorie im k-Raum beschrieben werden. Verändert man sukzessive die beiden Amplituden
gemäß einer Sinus- und Cosinus-Funktion, so erhält man viele radiale Trajektorien.

dialen Trajektorie auf ein äquidistantes Grid interpoliert, um anschließend eine zwei-
dimensionale schnelle Fourier-Transformation anzuwenden.

9.4 Sequenzen und Bildkontrast


Wie bei keinem anderen bildgebenden Verfahren gibt es in der MR-Tomographie eine
Vielzahl unterschiedlicher Aufnahmeverfahren, die zu einem unterschiedlichen Bild-
9 Magnetische Resonanztomographie | 363

kontrast führen. Der Bildkontrast gibt an, wie gut sich zwei unterschiedliche Gewe-
be im Bild unterscheiden lassen. Im Allgemeinen kann der Kontrast durch die Diffe-
renz der Bildintensitäten bezogen auf einen Referenzwert beschrieben werden (s. auch
󳶳Kap. 21.6, Systemtheorie):
I −I
C= 1 2 (9.80)
Iref
Oft wird auch das Kontrast-Rausch-Verhältnis angegeben, da das Rauschen im Bild
mit bestimmt, ob zwei Gewebearten unterschieden werden können, d. h., die Intensi-
tätsdifferenz muss sehr viel höher sein (z. B. 3-fach) als die Standardabweichung des
Bildrauschens. In der MR-Bildgebung sind die wichtigsten kontrastbestimmenden
Gewebeeigenschaften die Spindichte sowie die Relaxationszeiten T1 , T2 und T2∗ . Der
Einfluss dieser Eigenschaften auf den Bildkontrast lässt sich durch spezifische Mess-
parameter beeinflussen. In diesem Abschnitt sollen zunächst einige Aufnahmeverfah-
ren und deren kontrastbestimmenden Parameter beschrieben werden. Danach sollen
einige Beispiele für Sequenzen gegeben werden, die eine zusätzliche Veränderung des
Bildkontrastes aufgrund weiterer Gewebeeigenschaften bewirken.

9.4.1 Spinecho-Bildgebung

Bei der Herleitung der Ortskodierungsgleichung wurde der Einfluss der Relaxationen
vernachlässigt, diese sind aber für den Bildkontrast von entscheidender Bedeutung.
Wie zuvor beschrieben, wird bei der Spinecho-Bildgebung eine Kombination eines 90°
-Anregungspulses und eines 180° -Refokussierungspulses verwendet. Dabei bestim-
men zwei Zeitintervalle, die Echozeit TE und die Wiederholzeit (engl. repetition ti-
me) TR , den Einfluss der beiden Relaxationsprozesse T1 und T2 auf den Bildkontrast.
󳶳Abb. 9.26 zeigt eine Spinecho-Bildgebungssequenz mit der schichtselektiven Anre-
gung, schichtselektiven Refokussierung, dem Auslesegradienten und den Phasenko-
diergradienten. Dabei wird durch Refokussierung ein Spinecho erzeugt und es ent-
steht ein maximales Signal bei der Echozeit TE . Durch Wahl der Auslesegradienten,
d. h. durch Kombination eines negativen und eines positiven Gradienten, wird das
Spinecho zum Zeitpunkt (t = TE ) des k-Raum-Zentrums (kx = 0) „ausgelesen“. Die-
ser Signalpunkt erfährt wegen der Querrelaxation eine exponentielle Gewichtung mit
der spezifischen Relaxationszeit T2 zum Zeitpunkt TE :

S(TE ) ∝ 𝜌(x, y) ⋅ e−TE /T2 (9.81)

Zur Erstellung eines Bildes muss das Experiment Ny -mal mit verschiedenen Phasen-
kodiergradienten wiederholt werden. Dabei bestimmt die Wiederholzeit TR wie viel
longitudinale Magnetisierung durch T1 -Relaxtion wieder für die nächste Anregung zur
Verfügung steht. Dabei ist zu beachten, dass sich erst nach einigen Wiederholungen
ein dynamisches Gleichgewicht der longitudinalen Magnetisierung ergibt, d. h., für
364 | Tobias Schaeffter

180°
90°
RF-Puls Anregung

Gz Schichtselektion

Gy Phasenkodierung

Gx Frequenzkodierung

Signal
T2

Aufnahme

Abb. 9.26: Spinecho-Bildgebungssequenz.

TE ≪ TR ergibt sich für das Signal:

SSE (TE ) ∝ 𝜌(x, y) ⋅ (1 − e−TR /T1 ) ⋅ e−TE /T2 (9.82)

Diese Gleichung kann für verschiedene Grenzfälle betrachtet werden (󳶳Abb. 9.27):
– Für sehr kurze Echozeiten TE verschwindet die T2 -Gewichtung.
– Durch geeignete Wahl der Echozeit (z. B. TE = T2 ) erhält man eine T2 -Gewichtung.
– Für sehr lange Wiederholzeiten TR verschwindet die T1 -Gewichtung.
– Durch geeignete Wahl der Wiederholzeit TR (z. B. TR = T1 ) erhält man eine T1 -
Gewichtung.

Die Wahl der Sequenzparameter für die unterschiedlichen Kontraste (󳶳Abb. 9.28) ist
in 󳶳Tab. 9.3 zusammengefasst. Dabei ist zu beachten, dass das Bild immer eine Spin-
dichte-Gewichtung aufweist. Im Allgemeinen werden Spinecho Sequenzen zur Auf-
nahme von stark T2 -gewichteten Bildern verwendet. Dazu werden normalerweise re-
lativ lange Wiederholzeiten (z. B. 3. . .4 s) verwendet. Um ein zweidimensionales Bild
mit geeigneter Auflösung zu erhalten (z. B. 256 × 256 Voxel) ergibt sich eine Messzeit

Tab. 9.3: Bildkontrast in der Spinecho-Bildgebung für verschiedene Sequenzparameter.

Bildkontrast TE TR
rein 𝜌-gewichtet sehr kurz sehr lang (z. B. TR = 3T1 )
T1 -gewichtet sehr kurz geeignet (z. B. TR = T1 )
T2 -gewichtet geeignet (z. B. TE = T2 ) sehr lang (z. B. TR = 3T1 )
9 Magnetische Resonanztomographie | 365

T2-gewichtet
TR

180° Mz

90° Mxy

TE
T1-gewichtet
TR

Mz
Mxy

TE

Abb. 9.27: Durch Variation der Sequenzparameter TR und TE können unterschiedliche Kontraste
erzeugt werden.

ρ-Gewichtung T2-Gewichtung T1-Gewichtung

Abb. 9.28: Spinecho-Bilder mit unterschiedlichem Kontrast.

(TM = Ny ⋅ TR ) von 12. . . 17 Minuten. Eine Möglichkeit die lange Wartezeit zwischen
den Anregungen besser auszunutzen, ist die Multischicht- (engl. Multi-slice-) Aufnah-
me. Während der langen Wiederholzeit werden dabei weitere Schichten angeregt und
ausgelesen. Man versucht die einzelnen Schichten dabei so zu „verschachteln“, dass
örtlich benachbarte Schichten zeitlich weit voneinander gemessen werden.
366 | Tobias Schaeffter

9.4.2 Gradientenecho-Bildgebung

Die Idee der Gradientenecho-Sequenz ist es, keinen 180° -Refokussierungspuls zu ver-
wenden, sondern durch Gradienten in der Ausleserichtung ein Gradientenecho bei
kx = 0 zu erzeugen. Durch einen starken negativen Gradienten entlang der x-Richtung
präzediert die transversale Magnetisierung entlang der x-Richtung mit unterschiedli-
cher Frequenz. Je nach Ort nimmt die Magnetisierung im rotierenden Koordinatensys-
tem entweder eine positive oder eine negative Phase auf. Durch Umpolen des Vorzei-
chens des Gradienten ändert sich auch das Vorzeichen der Präzessionsfrequenz (im
rotierenden Koordinatensystem). Dadurch kehrt sich auch die aufgenommene Phase
um und es entsteht zum Zeitpunkt ausgeglichener Gradientenflächen ein Gradienten-
echo. Allerdings werden durch Schalten der Gradientenspule nur die externen Feld-
gradienten umgekehrt, während die Dephasierung durch die internen Feldgradienten
im Objekt unbeeinflusst bleibt. Dadurch klingt die Stärke des Signals mit T2∗ ab. Bei
der Gradientenecho-Bildgebung wird ein dynamisches Gleichgewicht (engl. stea-
dy state) der Magnetisierung ausgenutzt. Dazu wird die Wiederholzeit TR so weit ver-
kürzt, dass der folgende RF-Puls eine nicht vollständig „relaxierte“ Magnetisierung
vorfindet. Darüber hinaus wird ein kleiner Kippwinkel verwendet, um nicht die ge-
samte longitudinale Magnetisierung in die transversale Ebene zu kippen und einen
Teil entlang der z-Richtung für weitere Anregungen zu bewahren:
+ −
Mxy (n) = Mxy (n) ⋅ sin 𝛼
+ − (9.83)
Mz (n) = Mz (n) ⋅ cos 𝛼

wobei Mz− und Mz+ die longitudinale Magnetisierung vor und nach dem n-ten RF-Puls
beschreiben. Um nicht den Einfluss der RF-Pulse auf die transversale Magnetisierung
betrachten zu müssen, soll im Folgenden angenommen werden, dass die transversale
Magnetisierung bereits zum Zeitpunkt des folgenden RF-Pulses abgeklungen ist. Dies
gilt für TR ≫ T2∗ oder kann durch eine zusätzliche gewollte Zerstörung (engl. spoiling)
der transversalen Magnetisierung geschehen. Daher muss zunächst nur der Einfluss
der T1 -Relaxation während der Wiederholzeit TR betrachtet werden, der zu einer Er-
holung der longitudinalen Magnetisierung führt. Nach 󳶳Gl. (9.43) ergibt sich

Mz− (n) = M0 − (M0 − Mz+ (n − 1))e−TR /T1 = M0 (1 − e−TR /T1 ) + Mz+ (n − 1) ⋅ e−TR /T1
(9.83)
Mz− (n) = M0 (1 − e−TR /T1 ) + Mz− (n − 1) ⋅ cos 𝛼 ⋅ e−TR /T1 (9.84)

Im dynamischen Gleichgewicht bleibt die Magnetisierung konstant:

Mz− (n) = Mz+ (n − 1) = Mzss− (9.85)

Damit ergibt sich für 󳶳Gl. (9.84):

Mzss− = M0 (1 − e−TR /T1 ) + Mzss− ⋅ cos 𝛼 ⋅ e−TR /T1


M0 (1 − e−TR /T1 )
Mzss− = (9.86)
1 − cos 𝛼 ⋅ e−TR /T1
9 Magnetische Resonanztomographie | 367

Tab. 9.4: Bildkontrast in der Gradientenecho-Bildgebung für verschiedene Sequenzparameter.

Bildkontrast TE TR
rein 𝜌-gewichtet sehr kurz sehr lang (z. B. TR = 3T1 ) oder kleiner Kippwinkel
T1 -gewichtet sehr kurz geeigneter Kippwinkel
T2∗ -gewichtet geeignet (z. B. TE = T2∗ ) sehr lang (z. B. TR = 3T1 ) oder kleiner Kippwinkel

Das Signal zum Zeitpunkt des Gradientenechos erhält man durch Berechnung des Ein-
flusses des RF-Pulses und der Querrelaxation:

(1 − e−TR /T1 ) ∗
SGE (TE ) ∝ 𝜌(x, y) ⋅ ⋅ sin 𝛼 ⋅ e−TE /T2 (9.87)
1 − cos 𝛼 ⋅ e−TR /T1
Diese Gleichung zeigt, dass die T 1 -Gewichtung vom Kippwinkel abhängt. Darüber
hinaus kann ein optimaler Kippwinkel für ein maximales Signal berechnet werden.
Dazu wird die erste Ableitung zu Null gesetzt und man erhält:

cos 𝛼opt = e−TR /T1 (9.88)

Dieser optimale Winkel wird auch Ernst-Winkel genannt. Er hängt von der Wie-
derholzeit und der T1 -Relaxationszeit ab, d. h., der Kippwinkel ist nur optimal für
ein Gewebe. Der Einfluss der Sequenzparameter auf den Bildkontrast kann anhand
󳶳Gl. (9.87) für verschiedene Grenzfälle betrachtet werden:
– Für sehr kurze Echozeiten TE verschwindet die T2∗ -Gewichtung.
– Durch geeignete Wahl der Echozeit (z. B. TE = T2∗ ) erhält man eine T2∗ -Gewichtung.
– Für sehr lange Wiederholzeiten TR verschwindet die T1 -Gewichtung.
– Für sehr kleine Kippwinkel (cos 𝛼 = 1) verschwindet ebenfalls die T1 -Gewichtung.
– Durch geeignete Wahl des Kippwinkels erhält man eine T1 -Gewichtung.

Die Abhängigkeit des Signals (󳶳Gl. (9.87)) für verschiedene Kippwinkel und Relaxati-
onszeiten ist in 󳶳Abb. 9.29 dargestellt. Man erkennt, dass sich für einen bestimmten
Kippwinkel Signalunterschiede zwischen Geweben mit unterschiedlichen Relaxati-
onszeiten ergeben (󳶳Tab. 9.4). Daher wird der Bildkontrast durch die T1 -Relaxation
bestimmt. Ferner ergibt sich für jede Relaxationszeit (Gewebe) ein anderer optimaler
Kippwinkel (󳶳Gl. (9.88)). Ein Vorteil der Gradientenecho- gegenüber der Spinecho-
Sequenz ist, dass man sehr kurze Wiederholzeiten (TR ≈ 5 ms) verwenden kann. Da-
durch können zweidimensionale Bilder in weniger als einer Sekunde aufgenommen
werden. Allerdings ist die Signalamplitude der Gradientenecho- gegenüber der Spin-
echo-Sequenz wesentlich kleiner, was zu einem schlechteren Signal-Rausch-Verhält-
nis führt.
Ein weiterer Nachteil der Gradientenechobildgebung ist der Einfluss von T2∗ .
Insbesondere in Bereichen zwischen Luft und Gewebe kann es zu starken Permeabi-
litätssprüngen kommen. Dies führt zu lokalen Feldgradienten und damit zu kurzen
368 | Tobias Schaeffter

0,18

0,16

0,14

0,12
T1
Mxy/M₀

0,10
100
ms
0,08
200
0,06 ms
300
ms
0,04 500
750 ms
1250 ms
0,02 ms

0,00
0 10 20 30 40 50 60 70 80 90
α

Abb. 9.29: Signalamplitude einer Gradientenecho-Sequenz (TR = 5 ms) für unterschiedliche Kipp-
winkel und verschiedene Relaxationszeiten T1 . Die Signalamplitude erhöht sich für kürzere Relaxa-
tionszeiten. Diese Abhängigkeit verschwindet für sehr kleine Kippwinkel. Für jede Relaxationszeit
ergibt sich ein optimaler Kippwinkel, bei der sich eine maximale Signalamplitude einstellt.

T2∗ -Werten. Diese treten beispielsweise am Kopf im Bereich der Stirnhöhlen oder der
Ohren bzw. im Abdomen im Bereich der Lunge und des Darms auf. Darüber hinaus
können Feldinhomogenitäten auch durch Implantate hervorgerufen werden. Die
kurzen T2∗ -Werte können zu Signalauslöschungen in den Bilder führen, so dass ei-
ne Diagnose erschwert oder gar verhindert wird. Wie besprochen, kann eine Spin-
echo-Sequenz zu Refokussierung dieser Magnetisierungsanteile verwendet werden
(󳶳Abb. 9.30, 󳶳Abb. 9.31). Diese erlaubt es, die zusätzliche Dephasierung wegen der
unterschiedlichen Isochromaten zu kompensieren.
Bisher wurde eine Gradientenecho-Sequenz mit „Spoiling“ der transversalen Ma-
gnetisierung besprochen. Es ist aber möglich, auch ein dynamisches Gleichgewicht
für die transversale Magnetisierung zu gewährleisten. Dazu werden in der Gradienten-
echo-Sequenz alle Gradienten innerhalb der Wiederholzeit ausgeglichen und es ergibt
sich ein dynamisches Gleichgewicht sowohl für die transversale als auch für die lon-
gitudinale Magnetisierung. Dieses Phänomen wurde bereits 1958 von Carr als Steady
State Free Precession (SSFP) beschrieben und später für die Bildgebung verwendet.
Die Sequenz ist relativ empfindlich gegenüber Inhomogenitäten und erfordert für ei-
ne gute Signalqualität sehr kurze Wiederholzeiten [Haacke 1991]. Daher wurde ihr Ein-
satz erst durch die technische Entwicklung schneller Gradienten ermöglicht. Es soll
hier auf die Herleitung verzichtet werden und nur das Ergebnis für das dynamische
Gleichgewicht für (TR ≪ T1 , T2 ) angegeben werden:

ss− M0 sin(𝛼)
Mxy = (9.89)
1 + T1 /T2 − cos 𝛼 ⋅ (1 − T1 /T2 )
9 Magnetische Resonanztomographie | 369

90°

180°

90°

Spin-Echo

T2

Signal T2*

TE Gradienten-Echo

Abb. 9.30: Unterschiedliche Kontraste bei Spin- und Gradientenecho. Bei der Gradientenecho-
Sequenz haben nach der Echozeit TE die unterschiedlichen Isochromate eine unterschiedliche
Phase. Diese zusätzliche Dephasierung führt zu einem Signalverlust. Durch Verwendung einer Spi-
necho-Sequenz kann diese kompensiert werden, d. h., bei der Echozeit TE sind alle Isochromate
wieder in Phase und führen zu einem stärkeren Signal, dessen Amplitude durch die T2 -Relaxation
bestimmt ist.

Bei der SSFP-Sequenz werden im Allgemeinen große Kippwinkel verwendet. Für die-
sen Fall und T1 ≫ T2 ergibt sich:
ss− 1 T1 ≫T2 T2
Mxy ≈ M0 ≈ M0 (9.90)
1 + T1 /T2 T1
Die SSFP-Sequenz bewirkt daher eine T2 /T1 -Gewichtung im aufgenommenen Bild
(󳶳Abb. 9.32). Es soll insbesondere darauf hingewiesen werden, dass die Sequenz
(auch für Kippwinkel kleiner 180°) Spinecho-Anteile erzeugt und man daher T2 -
Kontrastanteile erhält.

9.4.3 Quantitative Flussmessung

Bisher wurde nur die Amplitude der Magnetisierung betrachtet, um den Bildkontrast
mithilfe der unterschiedlichen Relaxationszeiten zu optimieren. Neben der Amplitude
370 | Tobias Schaeffter

Gradienten-Echo Spin-Echo

Abb. 9.31: Unterschiedlicher Einfluss von Suzeptibilitätssprüngen bei der Gradientenecho-und Spin-
echo-Bildgebung. Im Bereich von Luft-Gewebe-Übergängen (Ohren, Nasenhöhle) kommt es bei
der Gradientenecho-Bildgebung zu Signalauslöschungen, welche durch die Spinecho-Bildgebung
refokussiert werden können.

Abb. 9.32: 3D-SSFP-Bildgebung des Abdomens.

wird aber auch oft die Phaseninformation der transversalen Magnetisierung genutzt.
Beispielsweise kann die Phase zur Unterscheidung von ruhenden und sich bewegen-
den Magnetisierungen (z. B. wegen Flusses) genutzt werden. Bei der phasensensiti-
ven Angiographie werden Gradienten so geschaltet, dass ein Unterschied (Kontrast)
in der Phase zwischen ruhenden und fließenden Spins entsteht (engl. Phase Contrast
Angiography). Betrachtet man beispielsweise Spins, die sich mit einer konstanten Ge-
schwindigkeit durch die Schicht (z. B. entlang der Schicht-Normalen-Richtung z) be-
wegen,
z(t) = z + Vz ⋅ (t − t0 ) . (9.91)
9 Magnetische Resonanztomographie | 371

dann ergibt sich wegen 󳶳Gl. (9.77b) die Phase (unter der Annahme t0 = 0):
t

𝜑(t) = kz (t) ⋅ z(t) = 𝛾 ∫ Gz (𝜏) ⋅ z(𝜏)d𝜏


0
t

𝜑(t) = 𝛾 ∫ Gz (𝜏) ⋅ (z + Vz ⋅ 𝜏) d𝜏
0
t t

𝜑(t) = 𝛾z ∫ Gz (𝜏)d𝜏 + 𝛾Vz ∫ Gz (𝜏) ⋅ 𝜏d𝜏 . (9.92)


0 0

Für einen konstanten Gradienten ergibt sich:


1
𝜑(t) = 𝛾Gz z ⋅ t + 𝛾Gz Vz ⋅ t2 . (9.93)
2
Damit ergibt sich die Phase als Summe aus einem statischen Anteil (erster Term) und
der Bewegung (zweiter Term). Zur Erhöhung des Phasenkontrastes wird für eine Fluss-
messung ein sogenannter bipolarer Gradient verwendet, d. h., die Polarität des Gra-
dienten wird nach der Zeit T geändert. Daher muss das Integral in 󳶳Gl. (9.92) aufgeteilt
werden und die Phase am Ende des bipolaren Gradienten ergibt sich zu
T T 2T 2T

𝜑(2T) = 𝛾z ∫ Gz (𝜏)d𝜏 + 𝛾Vz ∫ Gz (𝜏) ⋅ 𝜏d𝜏 + 𝛾z ∫ −Gz (𝜏)d𝜏 + 𝛾Vz ∫ −Gz (𝜏) ⋅ 𝜏d𝜏
0 0 T T
1 1
𝜑(2T) = 𝛾Gz z ⋅ T + 𝛾Gz Vz ⋅ T 2 − 𝛾Gz z ⋅ (2T − T) − 𝛾Gz Vz ⋅ (4T 2 − T 2 ) (9.94)
2 2
Daher heben sich die Phasenanteile für eine statische Magnetisierung (erster und drit-
ter Term) auf, während sich folgende Phase für eine sich bewegende Magnetisierung
ergibt:
𝜑V (2T) = −𝛾Gz Vz T 2 (9.95)

Diese Phase ist proportional zur Geschwindigkeit und erlaubt daher eine quantitative
Messung von Fluss. Dazu wird ein bipolarer Gradient entlang der Flussrichtung in eine
Bildgebungssequenz (Gradienten- oder Spinecho) eingebaut. Die Messung der Phase
der transversalen Magnetisierung im Bild erlaubt dann eine direkte Bestimmung des
Flusses entlang des bipolaren Gradienten. Eine eindeutige Messung des Flusses ist
aber nur im Phasenbereich von ±180° möglich:

𝛥𝜑V = 𝛾Gz Vz max T 2 < 𝜋


𝜋
Vz max < (9.96)
𝛾Gz T 2

Für höhere Geschwindigkeiten kommt es zu einer Mehrdeutigkeit und eine zu große


positive Flussgeschwindigkeit wird als ein negativer Fluss dargestellt. Daher muss
372 | Tobias Schaeffter

man die Fläche (Amplitude und Dauer) des bipolaren Gradienten so wählen, dass die
maximale Geschwindigkeit noch durch eine Phase von 180° abgebildet werden kann.
Wird die Messung durch Einsatz von bipolaren Gradienten in x- und y-Richtung wie-
derholt, so kann ein Geschwindigkeitsvektor berechnet werden.
󳶳Gleichung (9.93) zeigt, dass ein konstanter Gradient zu einer zusätzlichen Phase
aufgrund von Fluss führt. Man kann aber die Gradientenfolge auch so wählen, dass
keine Phase wegen der Bewegung entsteht. Solche Gradientenfolgen werden fluss-
kompensiert genannt und oft zur Phasenkodierung und zum Auslesen verwendet, da
sonst noch zusätzliche Phasenanteile wegen des Flusses entstehen könnten.

9.4.4 Diffusion

Im vorhergehenden Abschnitt wurde der Einfluss der Flussgeschwindigkeit auf die


Signalphase bei Verwendung von bipolaren Gradienten untersucht. Die Signalampli-
tude bleibt dagegen mehr oder weniger unbeeinflusst, solange sich die Geschwin-
digkeit innerhalb eines Voxels nicht stark ändert. Allerdings bewegen sich die Was-
sermoleküle im statischen Gewebe aufgrund der thermischen Bewegung unregelmä-
ßig durch das Gewebe. Diese Diffusionsbewegung hängt stark von der Dichte und
Ausrichtung der Zellen und mikroskopischen Strukturen ab. Beispielsweise können
sich die Wassermoleküle innerhalb der Zellen weniger bewegen als im extrazellulären
Raum. Diese Unterschiede können mit der Diffusionsbildgebung gemessen werden.
Dazu wird ebenfalls ein bipolarer Gradient, allerdings mit größerer Amplitude und
großem zeitlichen Abstand der beiden Gradienten, gewählt. Wegen der unregelmäßi-
gen und nicht ausgerichteten Bewegung entsteht in jedem Voxel eine unterschiedliche
Phasenverteilung, je nachdem, wie weit sich die einzelnen Wassermoleküle bewegen
und damit Phase aufnehmen können. Je nach Phasenverteilung entsteht ein Depha-
sierung und damit Abschwächung des Signals, d. h., Signale innerhalb der Zellen wer-
den weniger abgeschwächt als Signale im extrazellulären Raum.
Die Diffusionsbildgebung erlaubt die Charakterisierung der Gewebeänderungen
bei Tumoren (hohe Zelldichte) oder im Schlaganfall (Zellschwellung). Darüber hinaus
kann sie in der Diffusionstensor-Bildgebung zur Darstellung der Muskel- oder Nerven-
fasern eingesetzt werden.

9.4.5 Schnelle Aufnahmeverfahren

Bisher wurde nach einer Anregung nur eine einzelne k-Raum-Zeile (d. h. ein Phasen-
kodierschritt) aufgenommen. Daher musste die Aufnahmesequenz Ny -mal wiederholt
werden, was zu langen Messzeiten führt. Insbesondere sollte sich das Messobjekt
während der Aufnahme nicht bewegen, was für lange Messzeiten schwer ist und zu
Bildartefakten führt. Das Ziel schneller Aufnahmeverfahren ist, nach einer Anregung
9 Magnetische Resonanztomographie | 373

eine Reihe von (oder eventuell alle) k-Raum-Zeilen aufzunehmen. Damit kann die
Messzeit erheblich verkürzt werden. Im Folgenden sollen zwei schnelle Verfahren be-
schrieben werden, die als eine Erweiterung der Spinecho- bzw. der Gradientenecho-
Sequenz angesehen werden können.

Turbo-Spinecho (TSE)
Die Idee des Turbo-Spinecho-Verfahrens, das auch Rapid Acquisition with Relaxation
Enhancement, RARE genannt wird, besteht darin, nach einem 90° -Anregungspuls
und einer Reihe von 180° -Refokussierungspulsen mehrere Spinechos zu erzeugen.
Dabei wird jedes Spinecho unterschiedlich phasenkodiert, was die Messung mehrerer
Zeilen im k-Raum erlaubt. Um ein gesamtes Bild aufzunehmen, müssen Ny -Spinechos
erzeugt werden. Wegen der T2 -Relaxation ist dies aber aus zwei Gründen oft nicht mög-
lich. Erstens kann das Signal bereits nach einer Reihe von Spinechos zerfallen sein
und man misst nur noch Rauschen. Zweitens führt die exponentielle T2 -Gewichtung
zu einer Verringerung der Auflösung entlang der Phasenkodierrichtung. Die exakte
Beschreibung lässt sich durch die Faltung des Bildes mit der Modulationstransfer-
Funktion MTF (d. h. die Fourier-Transformierte der Gewichtungsfunktion im k-
Raum) beschreiben. Vereinfacht lässt sich die exponentielle Gewichtung auch als ein
Tiefpass auffassen, da durch sie hohe k-Raum-Zeilen bedämpft werden. Um diesen
Effekt zu verringern, wird normalerweise eine segmentierte Akquisition verwendet.
Nach einer Anregung wird dazu nur eine Reihe (z. B. 16 Echos) aufgenommen. Für den
Bildkontrast spielt dabei die Reihenfolge der Phasenkodierschritte eine wichtige Rol-
le. In 󳶳Abb. 9.33 ist eine lineare und eine zentrische Reihenfolge dargestellt. Bei der
zentrischen Reihenfolge startet man mit der Aufnahme der niedrigen k-Raum-Werte.
Allerdings verwendet man eine größere Schrittweite, so dass die einzelnen Spinechos
über den gesamten k-Raum verteilt werden. Diese Reihenfolge gewährleistet, dass
nach jeder Anregung eine gleiche T2 -Gewichtung über den gesamten k-Raum durch-
geführt wird. Um destruktive Interferenzen zu vermeiden, wird nach dem Auslesen
einer jeden k-Raum-Zeile die Phasenkodierung wieder aufgehoben. Bei der linearen
Reihenfolge startet man bei negativen hohen k-Raum-Werten, erreicht die Mitte des
k-Raums nach der Hälfte der Echos und endet dann bei positiven hohen k-Raum-
Werten. Der Bildkontrast wird im Wesentlichen durch die niedrigen k-Raum-Werte
bestimmt und ist daher für die beiden Messreihenfolgen unterschiedlich. Während
für die zentrische Reihenfolge die niedrigen k-Raum-Zeilen beim ersten Echo ge-
messen werden, erfolgt dies bei der linearen Reihenfolge nach der Hälfte der Echos.
Die Zeit nach der Anregung, nach der das k-Raum-Zentrum gemessen wird, wird auch
effektive Echozeit TEeff genannt. Dabei erhält man für die zentrische Reihenfolge
eher ein Spindichte-gewichtetes Bild, während man für die lineare Reihenfolge eine
T2 -Gewichtung erhält. Bei der linearen Reihenfolge bestimmen die Anzahl der Echos
und der Abstand der 180° -Pulse die effektive Echozeit.
374 | Tobias Schaeffter

TEeff

RF
Gy
Gx
Signal
k-Raum

4
3
2
1
TEeff

RF
Gy
Gx
Signal
k-Raum

3
1
2
4

Abb. 9.33: Turbo-Spinecho-Sequenz mit unterschiedlicher Phasenkodierordnung. Dabei ist die ef-
fektive Echozeit TE eff als der Zeitpunkt definiert, bei dem die zentralen Daten im k-Raum aufgenom-
men werden. Eine lineare Ordnung führt zu einer längeren effektiven Echozeit und damit zu einem
stärkeren T2 -Kontrast, während eine zentrische Ordnung eher eine Spindichte-Gewichtung bewirkt.

Echo-Planar-Bildgebung (EPI)
Diese Bildgebung wurde vom Nobelpreisträger Peter Mansfield bereits in den 1980er-
Jahren theoretisch beschrieben, konnte aber erst durch die notwendigen technischen
Entwicklungen zehn Jahre später stabil genutzt werden. Bei der Echo-Planar-Bildge-
bung (engl. Echo Planar Imaging, EPI) wird nach einem Anregungspuls eine Reihe
von Gradientenechos erzeugt. Zur Erzeugung des ersten Gradientenechos wird ein ne-
gativer Auslesegradient mit halber Gradientenfläche und ein nachgeschalteter positi-
ver Auslesegradient angewendet. Danach werden nacheinander abwechselnd nega-
tive und positive Auslesegradienten verwendet (󳶳Abb. 9.34). Diese Sequenz erzeugt
Gradientenechos in der Mitte der jeweiligen Gradienten. In der Regel wird eine linea-
re Reihenfolge der Phasenkodierschritte verwendet. Dazu wird nach der Anregung
ein großer negativer Phasenkodiergradient geschaltet, welcher bewirkt, dass das ers-
te Echo bei negativ hohen k-Raum-Werten gemessen wird. Zwischen den einzelnen
Gradientenechos werden kleine Phasenkodiergradienten geschaltet, um nacheinan-
9 Magnetische Resonanztomographie | 375

RF

Gy

Gx

Signal

k-Raum

Abb. 9.34: Die Single-Shot-EPI-Sequenz ermöglicht die Aufnahme der gesamten k-Raum-Daten nach
einer Anregung.

der benachbarte k-Raum-Zeilen auf einer mäanderförmigen Trajektorie auszulesen.


In vielen Fällen wird EPI dazu verwendet, ein ganzes Bild nach einer einzelnen Anre-
gung (engl. single shot) auszulesen. Je nach Anzahl der Phasenkodierschritte kann ein
Bild in ca. 100 ms aufgenommen werden. Dafür sind allerdings schnelle Gradienten-
systeme notwendig. Das schnelle Schalten führt zu Wirbelstromeffekten, so dass im
Allgemeinen eine Phasenkorrektur der Daten vor der Fourier-Transformation nötig
ist. Bei EPI werden alle Daten entlang der Phasenkodierrichtung exponentiell mit der
Zerfallszeit T2∗ gewichtet. Insbesondere kommt es in Gebieten mit großen Gewebeun-
terschieden und kurzer Zerfallszeit zu starken Verzerrungen im Bildbereich.

Wirbelstrom: Strom, der in leitenden Medien durch ein sich zeitlich änderndes Magnetfeld indu-
ziert wird. Sie erzeugen selber ein Magnetfeld, welches der gewünschten Magnetfeldänderung
entgegenwirkt. Wirbelströme sind eine wichtige Ursache für Artefakte in der Magnetresonanzto-
mographie.

Half-Fourier
In den vorhergehenden Abschnitten wurden Aufnahmeverfahren vorgestellt, um die
Messzeit zu reduzieren. Insgesamt hängt die Aufnahmezeit von der Anzahl der Pha-
senkodierschritte ab. In diesem und dem folgenden Abschnitt soll gezeigt werden,
dass durch Weglassen bestimmter Phasenkodierschritte die Messzeit verringert wer-
den kann. Dazu sind aber spezielle Rekonstruktionsverfahren unter Verwendung be-
stimmter Nebenbedingungen (engl. constraint) notwendig. Ein häufig angewandtes
376 | Tobias Schaeffter

S(kx, ky) = S*(–kx, –ky)

Abb. 9.35: Durch Ausnutzung von Symmetrie-Bedingungen, muss nur eine Hälfte (besser: 60%) der
k-Raum-Daten gemessen werden, während die andere Hälfte berechnet werden kann.

Verfahren besteht darin, nur die Hälfte der k-Raum-Daten (engl. Half-Fourier) auf-
zunehmen. Dieser Ansatz wird häufig bei EPI oder TSE verwendet und besteht in der
Annahme, dass das gemessene Objekt durch eine reelle Funktion beschrieben werden
kann. Für ein solches Objekt ergibt sich nach den Fourier-Theoremen eine hermiti-
sche Symmetrie:
S(−k) = S∗ (k) (9.97)

Daher ist es ausreichend, nur eine Hälfte der k-Raum-Daten aufzunehmen und die
zweite Hälfte durch Anwendung der Symmetriebedingung (󳶳Gl. (9.97)) zu berechnen
(󳶳Abb. 9.35). Allerdings ist in der Praxis die Annahme der reellen Objektfunktion
durch Feldinhomogenitäten verletzt und es entsteht eine zusätzliche ortsabhängige
Frequenz und damit Phasenentwicklung. Nach 󳶳Gl. (9.77) (a) kann die Feldinhomo-
genität durch eine ortsabhängige Resonanzfrequenz 𝜔0 (x, y, z) beschrieben werden:

S(kx,y,z (t)) = ∭ 𝜌(x, y, z) ⋅ e−i𝜔0 (x,y,z)t ⋅ e−i2𝜋kx x e−i2𝜋ky y e−i2𝜋kz z dxdydz (9.98)
V

Die Phase durch die Feldinhomogenität kann in einer komplexen Spindichtefunk-


tion zusammengefasst werden. Um diese komplexe Funktion zum Zeitpunkt des Aus-
lesens in eine reelle Funktion zu überführen, muss diese Phase korrigiert werden.
Dazu nimmt man in der Regel einige k-Raum-Zeilen mehr auf (insgesamt werden ca.
60 % der Zeilen des gesamten k-Raums gemessen) und schätzt die Frequenzverteilung
𝜔0 (x, y, z) aus einem niedrig aufgelösten Bild, das aus den Daten des k-Raum-Zentrums
rekonstruiert wurde. Dabei nimmt man an, dass sich die Feldinhomogenitäten über
den Raum nur langsam ändern. Die geschätzte Frequenzverteilung wird dann zur Pha-
senkorrektur der Messdaten verwendet, um eine reelle Funktion der Spindichte zu
gewährleisten und die fehlenden Daten durch Ausnutzung der hermitischen Symme-
trie zu berechnen. Der Half-Fourier-Ansatz erlaubt eine erhebliche Verringerung (ca.
40 %) der Aufnahmezeit.
9 Magnetische Resonanztomographie | 377

Parallele Bildgebung
Eine weitere Möglichkeit, die Anzahl der aufgenommenen k-Raum-Zeilen zu reduzie-
ren, ohne dass Bildinformation verloren geht, ist die Verwendung der parallelen Bild-
gebung (󳶳Abb. 9.36). Die grundlegende Idee der parallelen Bildgebung ist die gleich-
zeitige Aufnahme von Daten mit mehreren Empfangsspulen. Bei den heutigen Sys-
temen werden dazu Spulenanordnungen (engl. array) bestehend aus bis zu 32 (und
mehr) einzelner Spulenelemente verwendet. Die Messempfindlichkeit (engl. sensitivi-
ty) eines einzelnen Spulenelements nimmt mit dem Abstand von dessen Position ab.
Daher haben Empfangsspulenelemente, die an verschiedenen Positionen über dem
Messobjekt angebracht sind, in einem Voxel eine unterschiedliche Empfindlichkeit.
Diese Information wird in der parallelen Bildgebung zur zusätzlichen Raumkodierung
genutzt. Anders als beim Half-Fourier-Ansatz werden in der parallelen Bildgebung
die einzelnen Linien während der Aufnahme in einem größeren Abstand Δk gemes-
sen. Durch die Aufnahme von nur jeder zweiten, dritten oder bis achten k-Raum-Zeile
verdoppelt, verdreifacht oder verachtfacht sich der Abstand gemessener Datenlinien
im k-Raum. Dementsprechend wird das Sampling-Theorem (󳶳Gl. (9.79)) verletzt und es
kommt zu einer Rückfaltung im Bildbereich. Auf der anderen Seite wird die Messzeit
um den Reduktionsfaktor zwei bis acht beschleunigt. Um die starke Unterabtastung
entlang der Phasenkodierung zu kompensieren, wird die zusätzliche räumliche In-
formation der Spulenempfindlichkeiten während der Rekonstruktion genutzt. Man
unterscheidet grundsätzlich zwei verschiedene Ansätze, je nach dem, ob die Zusatzin-
formation der Spulenempfindlichkeit im Bild (z. B. SENSE) oder k-Raum (z. B. SMASH,
GRAPPA) verwendet wird [Pruessmann 2006]. Im Folgenden soll kurz der Ansatz im
Bildraum beschrieben werden.
Bei der SENSE-Technik, die 1999 von Pruessmann vorgestellt wurde, wird die
Unterabtastung durch Lösen eines linearen Gleichungssystems unter Berücksichti-
gung der räumlich abhängigen Spulenempfindlichkeiten kompensiert. Dabei kann
die Empfindlichkeit Ci (x, y, z) der i-ten Spule in die Signalgleichung 󳶳Gl. (9.77) (b) auf-
genommen werden:

Si (kx,y,z ) = ∭ 𝜌(x, y, z) ⋅ Ci (x, y, z) ⋅ e−i2𝜋kx x e−i2𝜋ky y e−i2𝜋kz z dxdydz (9.99)


V

Für diskrete Werte kann das Integral auch als Summe bzw. als Gleichungssystem mit
der Kodiermatrix E beschrieben werden:

S⃗ = E ⋅ 𝜌 ⃗
E(i,k),r = Ci,r ⋅ eik⋅r (9.100)

Dabei enthält der Vektor S alle Messdaten im k-Raum, die Kodiermatrix E die ver-
schiedenen Phasenfaktoren aufgrund der Phasenkodierschritte als auch die Empfind-
lichkeit der i-ten Spule und der Vektor 𝜌 das zu errechnende Bild. Zur Berechnung
des Bildes muss die Kodiermatrix invertiert werden. Die Inversion ist nur möglich,
378 | Tobias Schaeffter

Spule 1 Spule 1

Empfind- 1,0 Empfind-


lichkeit A lichkeit A
0,8 0,2
0,6 Empfindlichkeit 0,4 Empfindlichkeit
Spule 1 am Spule 2 am
0,4 0,6
Ort A: C1A = 0,85 Ort A: C2A = 0,15
0,2 B Ort B: C1B = 0,25 0,8 B Ort B: C2B = 0,75
1,0

Spule 2 Spule 2

Spule 1
Verwendung der Empfindlichkeiten
ermöglicht Rekonstruktion der Amplitude A und B.
Messung der halben Daten SignalSpule1 = 0,85 A + 0,25 B
bewirkt Rückfaltung SignalSpule2 = 0,15 A + 0,75 B

A und B

Spule 2

Abb. 9.36: Parallele Bildgebung.

wenn die Spulenempfindlichkeiten ausreichend unterschiedlich sind, um so den Ein-


fluss der fehlenden Phasenkodierschritte auszugleichen, d. h., die Kodiermatrix soll-
te nicht singulär werden. Für die parallele Bildgebung sind die räumlichen Empfind-
lichkeitsprofile Ci (x, y, z) der verschiedenen Empfangsspulen erforderlich. Diese Da-
ten lassen sich entweder durch eine separate Messung (Referenzmessung) bestim-
men oder durch Messung einiger zentraler k-Raum-Profile (Referenzlinien) aus der
Messung selbst bestimmen. Dabei geht man davon aus, dass sich die Spulenempfind-
lichkeiten über den Raum nur langsam ändern und dafür ein niedrig aufgelöstes Bild
ausreichend ist.

9.4.6 Kontrastpräparation

Bisher wurde beschrieben, dass der Bildkontrast durch Wahl der Sequenzparame-
ter verändert werden kann. Eine weitere Möglichkeit ist die Verwendung sogenannter
Präparationssequenzen, mit denen der Kontrast gezielt verändert werden kann. Da-
bei wird durch einen solchen Vorpuls vor der Bildgebungssequenz die zur Verfügung
stehende longitudinale Magnetisierung verändert. Es gibt eine Vielzahl von Vorpul-
sen, die im Grunde genommen mit allen unterschiedlichen Bildgebungssequenzen
kombiniert werden können. Aus Platzgründen sollen hier nur einige Beispiele gege-
ben werden.
9 Magnetische Resonanztomographie | 379

180°
Bildgebung
RF
Mz TI
+M₀
graue
Hirnsubstanz

Gehirn
Rückenmarksflüssigkeit
–M₀

Abb. 9.37: Die Bildgebung mit einer Inversion-Recovery-Präparation erzeugt einen starken T1 -
Kontrast. Die Inversionszeit ist so gewählt, dass das Signal des Liquors unterdrückt wird (fluid
attenuated inversion recovery, FLAIR).

Inversion Recovery (IR)


Zur Verbesserung des T1 -Kontrastes wird oft ein Inversionspuls als Kontrastpräpa-
ration verwendet (󳶳Abb. 9.37). Wie schon vorher beschrieben, zeigt die gesamte lon-
gitudinale Magnetisierung nach dem RF-Puls in die negative z-Richtung. Die eigentli-
che Bildgebung wird dann nach der Inversionszeit TI durchgeführt, nach der sich die
longitudinale Magnetisierung nach 󳶳Gl. (9.43) mit der Relaxationszeit T1 erholt hat.
Unterschiedliche Gewebe haben unterschiedliche Relaxationszeiten T1 , daher führt
die IR-Sequenz zu einem starken T1 -Kontrast.

T2 -Prep
Zur Verbesserung des T2 -Kontrastes wird oft ein T2 -Präparationspuls eingesetzt. Da-
zu wird eine erweiterte Spinecho-Sequenz verwendet, d. h. eine Kombination aus ei-
nem 90° -Anregungspuls, einer Reihe von 180° -Refokussierungspulsen und einem
90° -Restaurationspuls. Die ersten Pulse erzeugen eine Reihe von Spinecho-Signalen,
bis schließlich das letzte Spinecho durch den -90° -Restaurationspuls in die longitudi-
nale Richtung zurückgekippt wird. Diese longitudinale Magnetisierung ist aber stark
T2 -gewichtet. Damit ist es möglich, auch eine T2 -Gewichtung für solche Sequenzen
zu verwenden, die wenig oder keinen intrinsischen T2 -Kontrast aufweisen (z. B. Gra-
dientenechos). Die T2 -Präparation wird oft zur Kontrastverstärkung von arteriellem
Blut verwendet. Beispielsweise wird sie in der MR-Koronarangiographie eingesetzt,
da die Herzkranzgefäße durch das umliegende Herzmuskelgewebe manchmal schwer
zu erkennen sind. Die T2 -Präparation unterdrückt dann das Muskelgewebe (kurzes
T2 ), während das Signal des arteriellen Blutes (langes T2 ) wenig beeinflusst wird und
dadurch ein stärkerer Kontrast entsteht (󳶳Abb. 9.38).
380 | Tobias Schaeffter

ohne T2prep

TE
RF
180° 180° 180°
90° –90°

Blut
Muskel

mit T2prep

Abb. 9.38: Die Anwendung einer T2 -Präparation führt zu einem verbesserten Kontrast zwischen
arteriellem Blut und Muskelgewebe.

Fettunterdrückung
Zur Unterdrückung des Fettanteils im MR-Signal wird ein frequenzselektiver RF-Puls
gefolgt von einem Dephasiergradienten eingesetzt (󳶳Abb. 9.39). Die Frequenzen
der Protonen im Fett liegen 3,5 ppm (chemische Verschiebung) entfernt zum Wasser-
signal. Beispielsweise muss bei 1 Tesla der frequenzselektive RF-Puls 150 Hz entfernt
von der Resonanzfrequenz des Wassers eingestrahlt werden. Ein solcher 90° -RF-
Puls kippt nur die Magnetisierung des Fetts in die transversale Ebene. Er sollte dazu
besonders schmalbandig sein und dauert damit vergleichsweise lang, z. B. einige Mil-
lisekunden. Der anschließende Gradient dephasiert das Fettsignal so stark, dass es
nicht mehr gemessen werden kann. Man spricht dabei auch von einer Fettsättigung.
In manchen Fällen wird auch ein etwas größerer Kippwinkel als 90° verwendet. Dieser
verhindert, dass sich zwischen Fettunterdrückung und Bildgebungssequenz longi-
tudinale Fettmagnetisierung aufgrund der T1 -Relaxation gebildet hat. Eine spezielle
Ausführung dieses Prinzips ist die Spectral Presaturation Inversion Recovery-(SPIR-)
Sequenz. Dabei wird ein frequenzselektiver Inversions-RF-Puls verwendet und das
Bildgebungsexperiment erfolgt nach der Inversionszeit TI , bei der das Fettsignal
einen Nulldurchgang in der T1 -Relaxation hat.
9 Magnetische Resonanztomographie | 381

Fett unterdrückt

Frequenz-selektiver
RF-Puls (Fett)
90° Dephasier-
gradient
Bildgebung

Abb. 9.39: Fettunterdrückung. Zur Unterdrückung von Fettsignalen kann ein Sättigungsverfahren
angewendet werden. Dabei wird ein frequenzselektiver RF-Puls eingesetzt, welcher nur Fettresonan-
zen anregt. Danach wird ein Dephasierungsgradient zur Zerstörung der angeregten transversalen
Fett-Magnetisierung geschaltet. Die Sequenz bewirkt, dass keine longitudinale Magnetisierung der
Fettresonanzen für eine folgende Bildgebung vorhanden ist, während die longitudinale Magnetisie-
rung des Wassersignals nicht beeinflusst wurde.

Regionale Vorsättigung
Die regionale Vorsättigung reduziert das Signal von unerwünschtem Gewebe im Bild.
Dieses Präparationsexperiment wird eingesetzt, um so künstlich das Objekt zu ver-
kleinern, beispielsweise um eine Rückfaltung zu vermeiden. Darüber hinaus kön-
nen durch Unterdrückung von sich bewegenden Gebieten (z. B. atmender Brustkorb)
Bewegungsartefakte (s. u.) verringert werden. Dazu wird ein schichtselektiver An-
regungspuls in Kombination mit einem Dephasierungsgradienten verwendet. Hier-
bei erfolgt die Schichtselektion entlang der Auslese- oder Phasenkodierrichtung des
nachfolgenden Bildgebungsexperiments. Der Anregungspuls kippt dann die Magne-
tisierung in einem Gebiet in die transversal Ebene und der anschließende Dephasie-
rungsgradient zerstört die gesamte transversale Magnetisierung (Sättigung) vor Aus-
führung der Bildgebung. Der gesättigte Bereich gibt kein Signal ab und sieht auf dem
Bild dunkel aus. Die regionale Vorsättigung kann aber auch zur Unterdrückung von in
die Schicht einfließendem Blut genutzt werden. Dazu wird die Vorsättigungsschicht
parallel zur Bildgebungsschicht geplant. Die gesamte Magnetisierung (auch die des
Blutes) in der Vorsättigungsschicht wird zerstört, so dass nur noch „schwarzes“ Blut
in die Bildgebungsschicht fließt. Auf dem Bild sind daher solche Adern dunkel. In
manchen Bereichen, z. B. in den Beinen, kann durch eine Vorsättigung eine selekti-
ve Unterdrückung von Arterien bzw. von Venen geschehen. Da das Blut in Beinarte-
rien nach unten fließt, führt eine Vorsättigung oberhalb der Bildgebungsschicht zu
dunklen Arterien, während eine Vorsättigung unterhalb der Bildgebungsschicht zu
dunklen Venen führt.

9.5 Artefakte
Wie auch bei anderen bildgebenden Verfahren gibt es bei der MRT eine Reihe von Ab-
bildungsfehlern unterschiedlicher Ursache. Es lassen sich grob zwei Klassen unter-
382 | Tobias Schaeffter

scheiden: Artefakte, die wegen zu weniger Daten, und solche, die wegen inkonsis-
tenter Daten entstehen. Die ersten Artefakte treten aufgrund der physikalischen und
zeitlichen Einschränkungen der Messung auf. Typischerweise entstehen sogenannte
Gibbs-Ringing-Artefakte durch eine zeitlich begrenzte Aufnahme und die anschlie-
ßende Fourier-Transformation. Der k-Raum wird daher nur bis kxmax und ky max aufge-
nommen und das Bild hat dadurch eine begrenzte räumliche Auflösung. Zur genauen
Darstellung von Kanten (Rechteckfunktion) sind aber auch sehr hohe Raumfrequen-
zen notwendig. Ein Abschneiden (engl. truncation) führt daher zu einer unscharfen
Darstellung der Kante und es kommt zu Über- und Unterschwingern (Gibbs-Ringing)
im Bild. In der zweiten Klasse entstehen Artefakte aufgrund von System-Imperfektio-
nen (z. B. Wirbelströme) oder aufgrund des Messobjektes (z. B. Permeabilitätsunter-
schiede, chemische Zusammensetzung oder Bewegung). Im Folgenden sollen einige
wichtige Beispiele gegeben werden. Eine ausführliche Beschreibung findet man in
[Bronskill 1987].

9.5.1 Chemische Verschiebung

Wie zuvor beschrieben, hängt die Resonanzfrequenz der Protonen von der che-
mischen Umgebung ab. Beispielsweise hat Fett eine chemische Verschiebung von
3,5 ppm in Bezug auf das Wassersignal und damit eine andere Resonanzfrequenz.
Dies führt zu einem Abbildungsfehler in der Ausleserichtung, da die unterschiedliche
Frequenz von Fett als Ortskodierung interpretiert wird. Nach 󳶳Gl. (9.64) ergibt sich
für den Frequenzunterschied wegen des Feldgradienten, der gleich dem Frequenzun-
terschied der chemischen Verschiebung gesetzt wird:

𝛥f (x) Gx ⋅ 𝛥x !
= =𝛿
f0 B0
B
𝛥x = 0 𝛿 (9.101)
Gx

Für eine Feldstärke von 1 Tesla und bei einem schwachen Auslesegradienten von
1 mT/m ergibt sich eine örtliche Verschiebung von 3,5 mm, d. h., ein Fett-Voxel wird
um 3,5 mm entlang der Ausleserichtung verschoben. Wie aus 󳶳Gl. (9.101) ersichtlich,
ist die Verschiebung bei höheren Feldstärken größer und kann durch Verwendung
stärkerer Auslesegradienten verringert werden. In vielen Fällen wird der Einfluss der
chemischen Verschiebung durch die verwendete Pixelbandbreite beschrieben. Diese
Größe beschreibt den Frequenzunterschied zwischen jedem Pixel, der typischerweise
zwischen 100 Hz und 1 kHz liegt. Bei 1 Tesla liegt der Frequenzunterschied wegen der
chemischen Verschiebung bei 150 Hz. Wählt man den Auslesegradienten so, dass die
Pixelbandbreite 100 Hz beträgt, werden Voxel mit Fett um 1,5 Pixel verschoben.
Bei den meisten Sequenzen treten die Artefakte wegen der chemischen Verschie-
bung nur entlang der Ausleserichtung auf. Eine Ausnahme bildet EPI, bei der sehr
9 Magnetische Resonanztomographie | 383

starke Artefakte entlang der Phasenkodierung entstehen. Der Grund liegt daran, dass
die Auslesezeit entlang der Phasenkodierrichtung sehr viel länger (ca. 100 ms) als
entlang der Ausleserichtung (ca. 1 ms) ist. Daher ist bei EPI die Pixelbandbreite ent-
lang der Phasenkodierung sehr viel kleiner (ca. 10 Hz) als entlang der Ausleserichtung
(ca. 1 kHz). Da der Effekt mit höherer Feldstärke zunimmt, versucht man, die Ausle-
sezeit z. B. mithilfe der parallelen Bildgebung zu verringern (d. h. weniger Phasenko-
dierschritte). Darüber hinaus kann eine Fettunterdrückung eingesetzt werden.
Es soll darauf hingewiesen werden, dass ähnliche Artefakte auch durch so-
genannte Suszeptibilitätssprünge entstehen können. Jede lokale Änderung der
Permeabilität führt zu einer Verzerrung des statischen Grundfeldes und damit auch
zu lokalen Änderungen der Resonanzfrequenz. Diese treten insbesondere an Grenz-
flächen Gewebe/Luft und Gewebe/Metall/Keramik (Implantante) auf.

9.5.2 Bewegung

Die MR-Bildgebung ist ein relativ langsames Aufnahmeverfahren, daher ist Bewegung
während der Aufnahmen eine der häufigsten Ursachen für Bildartefakte. Diese entste-
hen durch Herzbewegung, Verdauung, Atmung oder unwillkürliche Bewegung wäh-
rend der Aufnahme. Da die verschiedenen k-Raum-Zeilen nach verschiedenen Anre-
gungen (Wiederholzeiten) gemessen werden, können durch Bewegung unterschiedli-
che Amplituden oder Phasen im k-Raum entstehen.
Amplitudenänderungen ergeben sich beispielsweise durch pulsierenden Fluss
senkrecht zur Bildgebungsschicht. Dabei kann während der Aufnahme Magnetisie-
rung in oder aus der Bildgebungsschicht fließen und damit in den Adern zu unter-
schiedlichen Intensitäten führen. Wenn die Pulsation des Blutflusses (d. h. Herzfre-
quenz) nicht mit der Aufnahme synchronisiert wird, ergeben sich unterschiedliche
Amplitudenwerte entlang der Phasenkodierrichtung. Diese Intensitätsmodulation
lässt sich als Multiplikation mit einer periodischen Funktion im k-Raum beschrei-
ben. Nach dem Faltungstheorem kommt es im Bildbereich zu einer Faltung mit der
Fourier-Transformierten der Modulationsfunktion. Da die Fourier-Transformation
einer periodischen Funktion als eine Reihe von Peak-Funktionen dargestellt werden
kann, kommt es nach Faltung zur Replikation des Bildes an verschiedenen Stellen des
Bildbereiches entlang der Phasenkodierrichtung, die auch als „Geisterbilder“ (engl.
ghosts) bezeichnet werden. Diese Art von Flussartefakten lässt sich durch Synchroni-
sation mit der Herzfrequenz (EKG-Triggerung) vermeiden. Darüber hinaus kann auch
eine regionale Vorsättigung parallel zur Bildgebungsschicht eingesetzt werden.
Phasenänderungen ergeben sich auch aufgrund von Bewegung entlang der Gradi-
entenrichtungen. Der Einfachheit halber soll sich hier das Messobjekt mit konstanter
Geschwindigkeit entlang der x-Richtung bewegen. Die gleichen Aussagen gelten aber
384 | Tobias Schaeffter

auch für Bewegungen entlang der Gradienten in y- oder z-Richtung:

x(t) = x + Vx ⋅ (t − t0 ) (9.102)

Der Einfluss der Bewegung auf die Phase ergibt sich ähnlich wie bei der quantitativen
Flussmessung (󳶳Gl. (9.92)) mit t0 = 0 zu:
t

𝜑(t) = kx (t) ⋅ x(t) = 𝛾 ∫ Gx (𝜏) ⋅ x(𝜏)d𝜏


0
t

𝜑(t) = 𝛾 ∫ Gx (𝜏) ⋅ (x + Vx ⋅ 𝜏) d𝜏
0
t t

𝜑(t) = 𝛾x ∫ Gx (𝜏)d𝜏 + 𝛾Vx ∫ Gx (𝜏) ⋅ 𝜏d𝜏 (9.103)


0 0

Damit hängt die von der Bewegung induzierte Phase (zweiter Term) von der Zeitfunk-
tion des Gradienten ab. Für einen konstanten negativen Gradienten ergibt sich:
1
𝜑V (t) = − 𝛾Vx Gx t2 (9.104)
2
Betrachtet man einen Auslesegradienten als Kombination eines negativen Gradien-
ten der Länge T und eines anschließenden positiven Gradienten gleicher Amplitude
der Länge 2T, so ergibt sich für den zeitlichen Phasenverlauf während des positiven
Gradienten (d. h. während des Auslesens):
t
1
𝜑V (t) = − 𝛾Vx Gx T 2 + 𝛾Vx ∫ Gx (𝜏) ⋅ 𝜏d𝜏
2
T
1
𝜑V (t) = 𝛾Vx Gx (t2 − 2T 2 ) (9.105)
2
Um den Einfluss der durch die Bewegung induzierten Phase zu beschreiben, kann
man das Bild eines punktförmigen Objektes, d. h. die Punktbildfunktion h(x) (engl.
Point Spread Function, PSF), berechnen. Diese ergibt sich nach [Liang 2000] zu

(1 − i) −i𝛾Gx Vx T 2 −i𝛾Gx (x−2Vx T)/Vx


h(x) ≈ e e (9.106)
√𝛾Gx Vx

Damit ergeben sich vier Effekte: Amplitudenänderung (erster Term), Phasenänderung


(zweiter Term) sowie Verschiebung (dritter Term) und Verzerrung (dritter Term). Der
erste und zweite Term führen bei einer zeitlich konstanten Bewegung zu einer kon-
stanten Amplituden- und Phasenänderung. Oft ändert sich aber die Geschwindigkeit
(z. B. periodische Bewegung) während der Aufnahme. Daher ergeben sich bewe-
gungsinduzierte Amplituden- oder Phasenänderungen für die unterschiedlichen
9 Magnetische Resonanztomographie | 385

k-Raum-Zeilen (Phasenkodierschritte). Diese Modulationen führen zu Geisterbildern


entlang der Phasenkodierrichtung. Bisher wurde der Einfluss der Bewegung entlang
der Ausleserichtung untersucht, allerdings führt Bewegung entlang der anderen
Richtungen bei Anwesenheit von Gradienten in Bewegungsrichtung ebenfalls zu
einer Amplituden- oder Phasenänderung.
Die Vermeidung von Bewegungsartefakten ist immer noch eine große Herausfor-
derung an die MR-Bildgebung. Grob lassen sich zwei unterschiedliche Strategien un-
terscheiden. Zum einem wird das Triggering zum Starten der Aufnahme bei einem be-
stimmten Bewegungszustand (z. B. bestimmte Herzphase) eingesetzt. Auf der anderen
Seite nutzt man das Gating-Verfahren, mit dem nur Daten zu einem bestimmten Be-
wegungszustand akzeptiert werden.
Zur Reduktion der Atembewegung wird oft der Atem angehalten. Patienten
können dies aber nur für einen kurzen Zeitraum (ca. 15 s). Daher werden häufig
MR-Zusatzmessungen (sogenannter respiratory navigator) zur Messung der Dia-
phragmaposition (Zwerchfell) eingesetzt, die einen Aufschluss über die momentane
Atemposition liefern und ein Gating der MR-Aufnahme während der freien Atmung
ermöglichen.

9.6 Aufbau eines MR-Tomographen


Wie in der Einführung besprochen, besteht ein MR-Tomograph aus drei Hauptkom-
ponenten: dem Magneten für das statische Magnetfeld zur Erzeugung der Mag-
netisierung im Körper, der Radiofrequenzspule zur Anregung und zum Empfang
der Magnetisierung und den Gradientenspulen zur Erzeugung räumlicher Feldgra-
dienten für die Ortskodierung. 󳶳Abb. 9.40 gibt einen Überblick der verschiedenen
Komponenten.

9.6.1 Magnet

Der größte Teil eines MR-Tomographen ist der Magnet zur Erzeugung des statischen
Magnetfeldes. Typische Feldstärken klinischer Systeme liegen bei 1, 1,5 und 3 Tes-
la. Solche hohen Feldstärken lassen sich nur noch mit supraleitenden Magneten
(wirtschaftlich vertretbar) erreichen. Als Supraleiter wird eine Niob-Titan- (Nb-Ti-) Le-
gierung verwendet, deren Fasern in eine Matrix aus Kupfer eingebettet werden. Wird
der Draht auf Werte unterhalb der Sprungtemperatur abgekühlt, so wird Nb-Ti supra-
leitend, d. h., der Draht hat einen vernachlässigbaren Widerstand. Dadurch fließt ein
einmal eingespeister Strom unverändert weiter und erzeugt in der Magnetfeldspule
ein statisches Magnetfeld. Der Vorteil ist, dass durch den Supraleiter sehr hohe Ströme
(mehrere 100 A) fließen und damit sehr große Magnetfelder erreicht werden können.
Die Verwendung von Supraleitung bedeutet aber auch, dass das statische Mag-
386 | Tobias Schaeffter

netfeld immer eingeschaltet ist. Dies birgt eine hohe Gefahrenquelle, da das „un-
sichtbare“ Feld magnetische Gegenstände anzieht (s. 󳶳Kap. 9.8, Sicherheitsaspekte).
Durch den hohen Strom ergibt sich eine sehr große Feldenergie von einigen Mega-
Joule. Supraleitende Magnete werden in flüssigem Helium in einem Dewargefäß auf
tiefe Temperatur (4,2 K) gekühlt. Dieser Kryostat besteht aus Aluminium und besitzt
zusätzliche Kälteschirme, um ein zu schnelles Verdampfen des teuren Heliums zu
vermeiden. Dazu wird meist eine aktive Kühlmaschine verwendet, die durch Entspan-
nen eines Gases (Joule-Thomson-Effekt) eine sehr tiefe Temperatur generiert (z. B.
70 K). Damit kann die von außen eindringende Wärmestrahlung sehr gut abgeschirmt
und ein Verdampfen des Heliums reduziert werden. Bei den heutigen Systemen muss
der MR-Tomograph höchstens einmal pro Jahr nachgefüllt werden. Muss das mag-
netische Feld bei einem Unfall schnell abgeschaltet werden oder kommt es durch
einen technischen Defekt zu einer plötzlichen Normalleitung in der Spule (quench),
so muss die hohe magnetische Feldenergie in Wärme übersetzt und abgeführt werden
und das Helium verdampft. Damit das gasförmige Helium bei einem Unfall nicht den
Untersuchungsraum füllt, werden spezielle Quench-Leitungen verwendet, um das
Helium nach außen zu führen.
Eine wichtige Voraussetzung für eine gute spektrale Auflösung und Bildqualität
ist eine hohe räumliche Homogenität des statischen Magnetfeldes, die meist in ppm
(engl. parts per million) angegeben wird. Diese liegt bei klinischen Systemen in der
Größenordnung von 1 ppm innerhalb eines kugelförmigen Volumens von 20 cm. Für

Gradienten- Magnet
verstärker

Steuerungs-
computer

RF-Verstärker
25 kW Sende-/Empfangs- Gradienten-
RF-Spule spulen

TR/XR
Verstärker
Multiempfangs-
Mischer RF-Spule

Filter

ADC
Konsolen-
computer Rekonstruktions-
computer

Abb. 9.40: Komponenten eines MR-Tomographen.


9 Magnetische Resonanztomographie | 387

Abb. 9.41: Gradientenspulen für y- und


y z z-Richtung. Die x-Richtung wird durch eine
um 90° gedrehte y-Gradientenspule realisiert.

einen Magneten mit einer Feldstärke von 1 Tesla (d. h. 42,6 MHz) variiert das Magnet-
feld in einem Volumen von 20 cm maximal um 1 μT (d. h. 42,6 Hz). Zum Erreichen die-
ser hohen Homogenität werden bei der Installation vor Ort zusätzliche dünne Eisen-
stäbe in den Magneten eingebracht, um den Einfluss der magnetischen Umgebung
(z. B. Stahlbeton) zu kompensieren (engl. shimming). Um den Einfluss des Magnet-
feldes auf die Umgebung gering zu halten, werden heutzutage selbstabgeschirmte
Magnete verwendet, bei denen die Feldstärke rasch mit dem Abstand abfällt.
Zusätzlich können auch Gradientenspulen verwendet werden, um den Einfluss
des Messobjektes auf die Feldhomogenität zu kompensieren. Bei höheren Feldstärken
werden oft zusätzliche Magnetfeldspulen (shim-coils) eingesetzt, um einen verbesser-
ten Shim zu erreichen (d. h. höhere Ordnungen der Kompensation).

9.6.2 Gradientenspulen

Mit den Gradientenspulen soll eine lineare räumliche Änderung der z-Komponente
des Magnetfeldes entlang der drei Raumrichtungen erreicht werden. Zur Erzeugung
der Abhängigkeit entlang der z-Richtung wird eine entgegengesetzte Helmholtz-
Anordnung gewählt, während entlang der x- und y-Richtungen eine Sattelspulenkon-
figuration verwendet wird (󳶳Abb. 9.41).
Die heutigen Gradienten in klinischen Systemen erreichen Stärken von
40. . . 80 mT/m (d. h. lineare Änderungen des Magnetfeldes). Diese können mit hoher
Geschwindigkeit ein- und ausgeschaltet werden: 100. . . 200 mT/m/ms (engl. slew ra-
te). Um diese schnellen Schaltzeiten zu erreichen, muss die Induktivität der Spule
möglichst klein sein und es müssen sehr starke Verstärker verwendet werden. Durch
das schnelle Schalten der Gradienten werden relativ große Wirbelströme im Kryo-
staten induziert, die zu einer Störung der Feldhomogenität führen. Daher werden
meistens selbstabgeschirmte Gradientenspulen verwendet.

9.6.3 Radiofrequenzspulen

Bei der MRT werden in der Regel unterschiedliche Sende- und Empfangsspulen ver-
wendet, da sich die Anforderungen für die beiden Phasen unterscheiden. Während
des Sendens soll ein rotierendes transversales Magnetfeld B1 erzeugt werden, des-
388 | Tobias Schaeffter

B₁

x
z
B₀
y Abb. 9.42: Typische Birdcage-Spule.

sen Vektor (Amplitude und Phase) möglichst räumlich homogen ist, um überall den
gleichen Kippwinkel zu erzielen. Daher wird zur Anregung ein großer Resonator ver-
wendet. Dieser besteht aus einer zylindrischen Anordnung von Stäben (engl. birdcage
resonator), auf denen eine sinusförmige Stromverteilung generiert wird (󳶳Abb. 9.42).
Im Allgemeinen wird eine sogenannte Quadratur-Anordnung verwendet, dabei wird
gleichzeitig eine sinus- und um 90° versetzt eine cosinusförmige Stromverteilung
eingespeist. Diese Anordnung gewährleistet eine räumlich homogene Anregung über
einen großen Bereich des Körpers (z. B. Kopf und Thorax). Diese Spule ist in die
Magnetöffnung des Kryostaten integriert und wird auch Ganzkörperspule genannt.
Die Anregung erfolgt durch Einspeisen eines RF-Signals in die Sendespule. Typische
RF-Pulse haben eine Amplitude von bis zu 20 𝜇T und eine Pulsdauer von ca. 1 ms.
Zum Senden sind Hochfrequenzverstärker von ca. 10 kW Leistung nötig.
Während des Empfangs werden in der Regel kreisförmige Spulen verwendet, die
auf die Oberfläche des Patienten gelegt und daher auch Oberflächenspulen genannt
werden. Der Vorteil ist ein geringeres Rauschen im Vergleich zu einer Ganzkörperspu-
le. Grund dafür ist, dass das Rauschen bei klinischen Feldstärken fast ausschließ-
lich durch das Rauschen des Körpers des Patienten bestimmt wird. Dabei wirkt ein
leitfähiges Objekt wie ein ohmscher Serienwiderstand zur Spuleninduktivität und be-
stimmt damit das Rauschen während des Empfangs. Die Größe dieses Rauschwider-
standes hängt von der Größe des Teils vom Körper ab, in dem die Spule empfindlich
ist. Die Empfindlichkeit der Spule ist auch für die Stärke des Empfangssignals wich-
tig. Dabei bestimmt insbesondere die Größe (Radius) die Empfindlichkeit entlang der
zentralen Achse, d. h., je größer die Spule, desto tiefer können Signale aus dem Körper
empfangen werden. Allerdings nimmt bei größeren Spulen auch der Rauschbeitrag
des Körpers zu, so dass für jede Anwendung eine bestimmte Kombination von Spulen
verwendet wird. In den letzten Jahren wurden vermehrt kombinierte Empfangsspulen
verwendet. Diese sogenannten Phased array-Spulen decken einen Bereich des Körpers
mit einer Vielzahl von einzelnen Spulenelementen ab. Dabei können gleichzeitig bis
zu 32 einzelne Spulenelemente (und mehr) verwendet werden. Für jede Anwendung
lassen sich dann die entsprechenden Spulenelemente auswählen. Verteilte Empfangs-
9 Magnetische Resonanztomographie | 389

spulen spielen auch eine entscheidende Rolle für die parallele Bildgebung. Dabei ist
insbesondere die räumliche Änderung (Betrag und Phase) der Spulenempfindlichkeit
für die räumliche Kodierung von hoher Bedeutung. Diese bestimmt, wie viele Pha-
senkodierschritte während der Aufnahme weggelassen und durch Kodierung über die
Spulenempfindlichkeit ersetzt werden können.

9.6.4 Der Quadraturdetektor

Wie zuvor beschrieben, induziert die präzedierende transversale Magnetisierung eine


Spannung in den Empfangsspulen. Ohne Ortskodierung hat diese induzierte Span-
nung eine Frequenz bei der Resonanzfrequenz. Nach 󳶳Gl. (9.41) ergibt sich für die in-
duzierte Spannung in der Empfangsspule der Beitrag von einem Volumenelement dV
zu
𝜕𝛷(t) 𝜕 𝜕
dU(t) = − = − B⃗ 1 (r) ⋅ M⃗ xy (r, t)dV = − B⃗ 1 (r) ⋅ M⃗ xy (r)e−i𝜔0 t dV (9.107)
𝜕t 𝜕t 𝜕t
Durch den Einfluss von Gradienten ändert sich entlang der Frequenzkodierrichtung
die Larmor-Frequenz (󳶳Gl. (9.52)) bzw. die Phase entlang der Phasenkodierrichtung
charakteristisch mit dem Ort. Durch Integration erhält man für die induzierte Span-
nung:

󳨀 →
󳨀
U(t) = i ∫ (𝜔0 + 𝛥𝜔(r)) ⋅ B1 (r) ⋅ M xy (t) ⋅ e−i((𝜔0 +𝛥𝜔(r))t+𝜑(r)) dV

󳨀 →
󳨀
= i ∫ (𝜔0 + 𝛥𝜔(r)) ⋅ B1 (r) ⋅ M xy (r)

⋅ (cos (𝜔0 + 𝛥𝜔(r) + 𝜑(r)) + i sin (𝜔0 + 𝛥𝜔(r) + 𝜑(r))) dV (9.108)

und der Realteil dieser komplexen Spannung ergibt sich zu;



󳨀 →
󳨀
U(t) = − ∫ (𝜔0 + 𝛥𝜔(r)) ⋅ B1 (r) ⋅ Mxy (r) ⋅ sin(𝜔0 + 𝛥𝜔(r) + 𝜑(r))dV (9.109)

Üblicherweise wird das Signal zur weiteren Verarbeitung demoduliert, d. h., man
multipliziert das Signal mit einem Referenzsignal. Bei diesem „Mischen“ entsteht ein
Summen- und ein Differenzsignal:

UR (t) = U(t) ⋅ sin(𝜔0 t)



󳨀 →
󳨀
= − ∫ (𝜔0 + 𝛥𝜔(r)) ⋅ B1 (r) ⋅ Mxy (r) ⋅ (sin ((𝜔0 + 𝛥𝜔(r))t + 𝜑(r)) ⋅ sin(𝜔0 t)) dV

󳨀 →
󳨀
UR (t) = − ∫ (𝜔0 + 𝛥𝜔(r)) ⋅ B1 (r) ⋅ Mxy (r)
1
⋅ (cos (𝜔0 (r)t + 𝜑(r)) − cos ((2𝜔0 + 𝛥𝜔(r))t + 𝜑(r))) dV (9.110)
2
Den Anteil bei der Differenzfrequenz erhält man durch anschließende Tiefpassfilte-
rung. Allerdings geht bei einer einfachen Demodulation das Vorzeichen von 𝛥𝜔(r)
390 | Tobias Schaeffter

verloren, d. h., man weiß nicht, ob der entsprechende Isochromat am Ort r mit oder
entgegengesetzt zum Uhrzeigersinn rotiert. Daher wird ein sogenannter Quadraturde-
tektor eingesetzt. Dazu multipliziert man das induzierte Signal zusätzlich mit einem
um 90° versetzten Signal:

UI (t) = U(t) ⋅ cos(𝜔0 t)



󳨀 →
󳨀
= − ∫ (𝜔0 + 𝛥𝜔(r)) ⋅ B1 (r) ⋅ M xy (r) ⋅ (sin ((𝜔0 + 𝛥𝜔(r)) + 𝜑(r)) ⋅ cos(𝜔0 t)) dV

󳨀 →
󳨀
UI (t) = − ∫ (𝜔0 + 𝛥𝜔(r)) ⋅ B1 (r) ⋅ M xy (r)
1
⋅ (sin (𝛥𝜔(r)t + 𝜑(r)) + sin ((2𝜔0 + 𝛥𝜔(r))t + 𝜑(r))) dV (9.111)
2
Die beiden Signale (󳶳Gl. (9.110) und 󳶳Gl. (9.111)) lassen sich nach Tiefpassfilterung
in ein gemeinsames komplexes Signal U(t) = UR (t) + i ⋅ UI (t) zusammenfassen.
Dieses Signal ist offenbar (bis auf den Faktor i/2) identisch mit dem Signal U(t) aus
󳶳Gl. (9.107), nur dass hier der Faktor e−i𝜔0 t fehlt. Das bedeutet, dass der Quadraturde-
tektor (bis auf einen Faktor i ⋅ 𝜔0 ⋅ 21 ) die Magnetisierung im rotierenden Koordinaten-
󸀠
system Mxy misst (vgl. 󳶳Gl. (9.28)).

9.7 Signal-Rausch-Verhältnis
Wie besprochen, ist die Messempfindlichkeit der MR-Bildgebung relativ gering und
benötigt daher eine hohe Konzentration von signalgebenden magnetischen Momen-
ten (Spins). Die ersten Arbeiten zur NMR von Bloembergen, Purcell und Pound
(1948) schätzten, dass man bei 1,5 Tesla mindestens 1018 Spins/Voxel benötigt. In
der biomedizinischen Anwendung werden allerdings wesentlich höhere Konzentra-
tionen benötigt, um Bilder bzw. Spektren in akzeptabler Zeit aufzunehmen. In der
MR-Spektroskopie liegen diese in der Größenordnung von einigen mMol, während
für die MR-Bildgebung in wasserreichem Gewebe ca. 100 Mol Wasserstoffatomen zu
Verfügung stehen. Eine wichtige Größe für die Bildqualität ist das 󳶳Signal-Rausch-
Verhältnis, engl. Signal-to-Noise Ratio, SNR). Diese hängt sowohl von der Hardwa-
re (z. B. Feldstärke, Empfangsspule) als auch von der Bildaufnahme (Voxelgröße,
Messzeit) ab [Macovski 1996]. Im Folgenden soll grob eine Formel mit den wichtigs-
ten Einflussgrößen abgeleitet werden. Nach 󳶳Gl. (9.107) induziert die transversale
Magnetisierung im Volumenelement dV einen Spannungsanteil:

󳨀 →
󳨀
dU(t) = i𝜔0 B1 (r) ⋅ M xy (r)e−i𝜔0 t dV (9.112)

Bei Verwendung eines 90° -Kippwinkels wird die gesamte Magnetisierung M0 (r) in die
transversale Ebene gekippt. Die Gleichgewichtsmagnetisierung hängt nach 󳶳Gl. (9.25)
von der Feldstärke B0 sowie von der Anzahl der Spins N(r) am Ort r ab. Damit ergibt
9 Magnetische Resonanztomographie | 391

sich für die Amplitude der induzierten Spannung (d. h. Signal):

̂ ∝ 𝜔0 󳨀 → 󳨀󳨀→ 󳨀→ (𝛾 ⋅ ℏ)2 ⋅ N(r) ⋅ B0


dU ⋅B1 (r) ⋅ M0 (r)dV = 𝜔0 ⋅B1 (r) dV
4kT
̂ B0 =𝜔0 /𝛾 󳨀→ 𝛾 ⋅ ℏ2 ⋅ N(r)
dU ∝ 𝜔02 ⋅B1 (r) dV (9.113)
4kT
Nach der Nyquist-Formel ergibt sich für die Rauschspannung in einem Widerstand R
bei gegebener Frequenzbandbreite 𝛥f

UR = √4kT ⋅ R ⋅ 𝛥f (9.114)

Dabei setzt sich der Widerstand aus dem Spulenwiderstand RS und dem effektiven
Widerstand des Körpers RK zusammen. Damit ergibt sich als Beitrag eines Volumen-
elementes zum Signal-Rausch-Verhältnis (SNR):

󳨀
𝛾 ⋅ ℏ2 ⋅ N(r) B 1 (r) ⋅ 𝜔02
SNRdV ∝ ⋅ dV (9.115)
(4kT)3/2 √(RS + RK ) ⋅ 𝛥f

Im Allgemeinen kann das SNR durch Mittelungen um √NA erhöht werden. Bei einer
Bildaufnahme werden wiederholt Messungen durchgeführt, um alle Zeilen im k-Raum
aufzunehmen. Für einen dreidimensionalen Datensatz müssen dann Ny Nz viele Wie-
derholungen durchgeführt werden, was auch zu einer zusätzlichen Mittellung führt.
Damit ergibt sich:

󳨀
𝛾 ⋅ ℏ2 ⋅ N(r) B 1 (r) ⋅ 𝜔02
SNRdV ∝ ⋅ √NA ⋅ Ny ⋅ Nz ⋅ dV (9.116)
(4kT) 3/2
√(RS + RK ) ⋅ 𝛥f
Es lassen sich nach 󳶳Gl. (9.116) folgende Schlussfolgerungen ziehen:
– Das SNR ist proportional zum Volumen des Voxels dV.
– Das SNR nimmt mit zunehmender Feldstärke zu.
– Das SNR nimmt mit der Wurzel der Anzahl der Phasenkodierschritte zu.
– Das SNR verringert sich mit der Wurzel der Messbandbreite, daher führen kleine
Auslesegradienten zu einem verbesserten SNR.
– Das SNR hängt von der Empfangsspule (Empfindlichkeit und Rauschwiderstän-
de) ab. Genau genommen muss dazu die Güte und das effektive Spulenvolumen
betrachtet werden.

9.8 Sicherheitsaspekte
Die Sicherheit bei einer MR-Untersuchung wird im Wesentlichen durch die oben
genannten Komponenten des MR-Tomographen bestimmt. Insgesamt unterscheidet
man zwischen den potentiellen Einflüssen der verschiedenen magnetischen Felder
auf den Körper und Unfallgefahrenquellen. Letztere stellen die größere Gefahr dar
und erfordern eine regelmäßige Schulung des Personals.
392 | Tobias Schaeffter

9.8.1 Statisches Magnetfeld

Die größte Gefahr bei einer MR-Untersuchung geht von magnetischen Teilen aus, die
unachtsam in den Untersuchungsraum gebracht werden. Gelangen solche Gegenstän-
de in die Nähe des starken Magnetfeldes, so werden sie so stark angezogen, dass sie
mit großer Geschwindigkeit in den Magneten fliegen. Leider wurden bereits solche
Unfälle mit tödlichem Ausgang dokumentiert. Um das Risiko zu minimieren, sind jeg-
liche ferromagnetischen Gegenstände im Untersuchungsraum verboten. Dazu werden
alle Patienten nach metallischen Gegenständen und Implantaten untersucht und be-
fragt. Oft werden dazu auch Schleusen mit Metalldetektoren eingesetzt. Es soll darauf
hingewiesen werden, dass die Kraft auf einen magnetischen Gegenstand nicht von
der Stärke, sondern von der örtlichen Änderung (d. h. Ableitung) des Magnetfeldes
abhängt. Der Einsatz selbstabgeschirmter Magneten erhöht damit in gewisser Weise
auch die potentielle Unfallgefahr. Bei solchen Magneten fällt das Magnetfeld rasch
mit dem Abstand ab, was zu einer Erhöhung der Kraft führt.
Eine weitere Gefahrenquelle stellt bei supraleitenden Magneten das flüssige Heli-
um dar, das zum Kühlen der Supraleiter benötigt wird. Obwohl Helium nicht toxisch
ist, birgt es Gefahren bei einem Not-Abschalten (quench). Bei diesem Vorgang wird
der größte Teil der großen magnetischen Feldenergie in Wärme umgesetzt. Dies führt
zum schnellen Verdampfen des Heliums. Dabei kommt es zu einer fast explosionsar-
tigen Expansion des Gases. Im Normalfall wird das gasförmige Helium über eine Lei-
tung nach außen geführt. Kommt es allerdings zum Platzen dieser Leitung, so strömt
Helium in den Untersuchungsraum und verdrängt den Sauerstoff. Um ein potentielles
Ersticken zu vermeiden, sind normalerweise starke Ventilatoren im Untersuchungs-
raum eingebaut.
Neben der Unfallgefahr hat das statische Magnetfeld keine weiteren Einflüsse
auf die Sicherheit. Insbesondere wurde bisher keine schädliche Wirkung des hohen
Magnetfeldes auf biologische Prozesse nachgewiesen.

9.8.2 RF-Feld

Zur Anregung der kernmagnetischen Resonanz werden Pulse im Radiofrequenzbe-


reich verwendet. Das wiederholte Senden führt zu einer leichten Erwärmung des Pa-
tienten und es wurden daher Grenzwerte festgelegt. Dabei gibt die spezifische Ab-
sorptionsrate (SAR) die in einem Voxel deponierte RF-Leistung pro Gewicht (W/kg)
an. In Europa wurden dazu drei Sicherheitsstufen (Level) eingeführt:
– Level 0 (engl. normal operating mode): weniger oder gleich 1,5 W/kg
– Level I (engl. first level controlled operating mode): größer 1,5 W/kg, aber weniger
als 4 W/kg
– Level II (second level controlled operating mode): größer als 4 W/kg (ist in manchen
europäischen Ländern allerdings verboten).
9 Magnetische Resonanztomographie | 393

Im Allgemeinen ist die durch einen MR-Tomographen erzeugte Erwärmung geringer


als die natürliche Temperaturschwankung der Körpertemperatur. Die RF-Leistung
hängt insbesondere von der Sendefrequenz ab. Daher kommt es bei höheren Feld-
stärken (höhere Resonanzfrequenz) zu einer proportional höheren Erwärmung. Die
Erwärmung hängt aber auch von der Amplitude des RF-Pulses ab, dabei ist die
Leistung proportional zum Quadrat der Amplitude. Daher werden bei hohen Feld-
stärken oft spezielle Pulsformen mit einer geringeren Amplitude verwendet. Neben
der Erwärmung des Körpers können sich auch andere leitende Gegenstände (z. B. me-
tallische Implantate oder Kabel von Herzschrittmachern) erwärmen. Deshalb muss
im Einzelfall geprüft werden, ob eine potentielle Gefahr für den Patienten existiert (s.
󳶳Kap. 9.8.4, Kontraindikationen).

9.8.3 Gradienten

Durch das schnelle Schalten der Gradientenfelder werden im leitenden Körper kur-
zeitige elektrische Felder und Wirbelströme induziert. Diese können zu einer unge-
wollten Nervenstimulation führen. Probanden haben von Zucken der peripheren Ex-
tremitäten (vor allem der Beine) berichtet, wenn sie mit Sequenzen mit sehr schnellen
Gradientenschaltzeiten untersucht wurden. Der Grund, dass vor allem periphere Ner-
ven stimuliert werden, ist, dass die Amplitude des induzierten elektrischen Feldes mit
dem Abstand vom Zentrum der Gradientenspule zunimmt. Erst die technischen Ent-
wicklungen schneller Gradienten im letzten Jahrzehnt haben die periphere Nerven-
stimulation (PNS) möglich gemacht. Daher wurden sogenannte dB/dt-Grenzwerte
(d. h. eine maximale zeitliche Änderung des Magnetfeldes) von den europäischen und
amerikanischen Behörden festgelegt. Aus diesem Grund werden in vielen Fällen die
technischen Möglichkeiten der Gradienten nicht ausgefahren.
Eine meist unangenehme Begleiterscheinung schneller Gradienten ist die Ent-
stehung von akustischem Schall. Das Schalten der Gradienten bewirkt im statischen
Magnetfeld eine Lorentz-Kraft auf die Leiterbahnen. Dies führt zu einem schnellen
Wechsel von Expansion und Kontraktion der gesamten Gradientenspule. Die Gradien-
tenpulse liegen im Bereich von ein bis einigen Millisekunden, so dass Schall im kHz
Bereich entsteht. Die Schallstärke hängt von den Gradienten und der Feldstärke ab
und kann bis zu 120 dB(A) betragen. Daher ist die Verwendung eines Gehörschutzes
unabdingbar für jede MR-Untersuchung.

9.8.4 Kontraindikationen

Patienten mit medizinischen Implantaten dürfen in der Regel nicht mit der MRT unter-
sucht werden. Dies betrifft insbesondere implantierte medizinische Geräte wie Herz-
schrittmacher, Nervenstimulatoren, Herzdefibrillatoren, Insulinpumpen oder Gehirn-
394 | Tobias Schaeffter

stimulatoren. In den letzten Jahren kamen verstärkt MR-sichere Implantate auf den
Markt, die eine Untersuchung ermöglichen. Andere Implantate wie chirurgische Pro-
thesen und Clips, künstliche Herzklappen und vaskuläre Stents schließen normaler-
weise eine MR-Untersuchung ebenfalls aus. Auch hier kommen vermehrt Implanta-
te auf den Markt, die eine Untersuchung erlauben. Dazu wurde von der internatio-
nalen Standardisierungsorganisation ATSM ein Klassifikationssystem entwickelt, das
drei Klassen unterscheidet. Dieser Standard wird mittlerweile auch von der amerika-
nischen Gesundheitsbehörde (US Food and Drug Administration, FDA) unterstützt.
– MR-sicher (engl. MR-safe): Das Implantat oder Gerät ist völlig unmagnetisch,
nicht elektrisch leitend und nicht RF-resonant.
– Bedingt MR-sicher (engl. MR-conditional): Das Implantat oder Gerät hat mögli-
cherweise magnetische, elektrisch leitende oder RF-resonante Teile, erlaubt aber
trotzdem eine sichere Verwendung in der Nähe des MRT.
– MR-unsicher (engl. MR-unsafe): Diese selbsterklärende Kategorie beschreibt alle
Gegenstände mit magnetischen, elektrisch leitenden oder RF-resonanten Kompo-
nenten, die eine direkte Gefahr für Personen und Geräte im MR-Raum darstellen.

Vielfach werden MR-Untersuchungen als unangenehm empfunden. Ältere Geräte ha-


ben eine relativ enge Öffnung und einen langen Tunnel. Daher kommt es bei nervösen
Patienten öfter zu einer leichten Klaustrophobie und die Untersuchung muss manch-
mal abgebrochen werden. Die modernen MR-Tomographen haben eine Öffnung von
70 cm und sind relativ kurz (ca. 160 cm). Auch wurden in den letzten Jahren verstärkt
offene Systeme mit Feldstärken von 1 Tesla realisiert. Schließlich kann man durch ge-
eignete Vorbereitung und Betreuung während der Untersuchung die Anzahl der Un-
tersuchungsabbrüche aufgrund von Klaustrophobie reduzieren.
Eine weitere potentielle Kontraindikation ist Schwangerschaft. Obwohl bis-
her keine schädigende Wirkung von MRT auf Föten nachgewiesen wurde, werden
Schwangere nur untersucht, wenn es unbedingt nötig ist. Dies gilt insbesondere für
die erste Zeit (erstes Trimester) der Schwangerschaft, während der die Organe gebildet
werden.

9.8.5 Kontrastmittel

Wie beschrieben, werden in der MR-Tomographie Gadolinium-Chelate als Kontrast-


mittel eingesetzt, die wegen der paramagnetischen Eigenschaften zu einer Verkür-
zung der Relaxationszeiten in der Nähe des Kontrastmittels führen. Insbesondere für
Patienten mit reduzierter Nierentätigkeit sind MR-Kontrastmittel gegenüber Röntgen-
kontrastmitteln vorteilhaft. Allerdings besteht ein kleines Risiko bei Patienten mit
stark eingeschränkter Nierenfunktion und nach einer Lebertransplantation, nach
Gabe von Gadolinium an nephrogener systemischer Fibrose (NSF) zu erkranken.
Meist trat diese seltene Erkrankung in einem Zeitraum innerhalb eines Jahres auf.
9 Magnetische Resonanztomographie | 395

Mittlerweile gibt es eine gewisse Risikoabstufung verschiedener MR-Kontrastmittel


aufgrund ihrer chemischen Eigenschaften. Es soll darauf hingewiesen werden, dass
MR-Kontrastmittel im Allgemeinen weniger Nebenwirkungen als die jodhaltigen
Kontrastmittel der Röntgendiagnostik haben.

9.9 Klinische Anwendungen


Die Magnetresonanztomographie ist ein weitverbreitetes bildgebendes Verfahren in
der diagnostischen Radiologie. Die MRT ermöglicht oft eine bessere Darstellbarkeit
vieler Organe wegen der unterschiedlichen Signalintensitäten von Weichteilgeweben.
Sie ist insbesondere im Kopf die Methode der Wahl. Wie beschrieben, kommt die MRT
ohne schädliche ionisierende Strahlung aus. Im Folgenden sollen einige ausgewählte
Beispiele für die Anwendung der MRT gegeben werden.

9.9.1 Neurologie

Die Hauptanwendung der MRT liegt im Bereich des Kopfes und der Halswirbelsäule.
Der gute Weichteilkontrast erlaubt eine gute Diagnose von Hirntumoren, neurodege-
nerativen Erkrankungen (z. B. Alzheimer), multiple Sklerose oder Schlaganfall. Dazu
werden Bilder mit unterschiedlichen Kontrasten aufgenommen (󳶳Abb. 9.43). Oft wird
durch Gabe von Kontrastmittel überprüft, ob die Blut-Hirn-Schranke gestört ist und
das Kontrastmittel in das Hirngewebe eindringen kann.

Abb. 9.43: Patient mit einem Glioblastom. Vor (links) und nach (rechts) Gabe von einem Gd-
basierten Kontrastmittel kann der Bereich des Tumors im T1 -gewichteten Spinecho-Bild abgegrenzt
werden.
396 | Tobias Schaeffter

„2-Back”-Test:

Ruhe (Kontrolle):
A–L–R–G–X

Stimulation:
E–S–M–R–M

Abb. 9.44: Aktiviere Hirnareale eines Patienten mit Schizophrenie. Dabei wurde während der funk-
tionellen MRT ein „2-Back“-Gedächtnistest durchgeführt. Dem Patienten wird eine Abfolge von Rei-
zen (z. B. Buchstaben) präsentiert. Die Aufgabe besteht darin, anzuzeigen, wenn der gegenwärtige
Reiz mit dem Reiz übereinstimmt, der in der Reihe zwei Schritte vorher vorkam. Dieser Test aktiviert
im „gesunden” Probanden Areale im frontalen Kortex, während bei psychiatrischen Krankheiten
dort keine Aktivitäten nachzuweisen sind.

Funktionelle MR-Tomographie
Die funktionelle MR-Tomographie (fMRT) erlaubt die Darstellung aktivierter Hirn-
areale basierend auf einer lokalen Durchblutungsänderung. Hierbei werden die
unterschiedlichen magnetischen Eigenschaften von oxygeniertem und desoxyge-
niertem Blut ausgenutzt (engl. blood oxygen level dependent, BOLD-Contrast). Des-
oxygeniertes ist im Gegensatz zu oxygeniertem Hämoglobin paramagnetisch. Bei
der Aktivierung von Gehirnarealen kommt es zu einer Steigerung des Stoffwechsels,
wodurch das aktivierte Areal mit einer überproportionalen Erhöhung der lokalen
Durchblutung reagiert. Als Folge erhöht sich die Konzentration von oxygeniertem
relativ zu desoxygeniertem Blut, was zu einer Veränderung der effektiven transver-
salen Relaxationszeit führt. Diese lokalen Änderungen lassen sich am besten mit
schnellen Gradientenecho-Sequenzen (z. B. EPI) messen. Im Allgemeinen wird dazu
das Magnetresonanzsignal des Gewebes zu zwei Zeitpunkten verglichen, d. h. im
stimulierten und im Ruhezustand. Dazu werden oft wiederholte Aufnahmen durch-
geführt und durch statistische Testverfahren miteinander verglichen. Die statistische
Auswertung erfolgt meist pro Bildpunkt, und statistisch signifikante Unterschiede
werden räumlich als die stimulierten Areale dargestellt.
Die fMRT findet vor allem Einsatz in der Neuropsychologie, um psychische Störun-
gen wie z. B. Schizophrenie, Depressionen oder Angstzustände nachzuweisen sowie
den Einfluss von Medikamenten zu untersuchen (󳶳Abb. 9.44). Darüber hinaus wird
die Lokalisation von wichtigen sensomotorischen Arealen zur Planung einer Hirn-
Operation genutzt.
9 Magnetische Resonanztomographie | 397

Abb. 9.45: Patient mit einer leichten Aortenstenose. Die kontrastmittelunterstützte 3D-MR-
Angiographie erlaubt die Darstellung der Aorta während der ersten Phase nach Kontrastmittelga-
be (engl. first pass), da sich das Kontrastmittel noch in den Gefäßen befindet und zu einem hohen
Kontrast führt.

9.9.2 MR-Angiographie

Die MRT erlaubt eine gute Darstellung der Blutgefäße. Eine wesentliche Verbesserung
wurde durch die schnelle dreidimensionale MRT unter Verwendung von Kontrastmit-
teln erreicht. Dazu wird nach Injektion eines Gd-basierten Kontrastmittels ein dreidi-
mensionales Bild mittels schneller Bildgebung aufgenommen. Es wird meistens eine
T1 -gewichtete Gradientenecho-Sequenz unter Verwendung der parallelen Bildgebung
gewählt, die es erlaubt, ein großes Volumen (z. B. Thorax) innerhalb weniger Sekun-
den aufzunehmen. Da das Kontrastmittel nur während der ersten Zeit (< 1 min) in
den Gefäßen verbleibt, muss der optimale Untersuchungszeitpunkt für die eigentli-
che Gefäßdarstellung bestimmt werden. Mithilfe dieser Techniken gelingt die anato-
mische Darstellung der gesamten thorakalen Aorta, z. B. bei chronischen Stenosen,
Dissektionen oder Aneurysmen (󳶳Abb. 9.45). Ein weiteres wichtiges Indikationsgebiet
der kontrastmittelunterstützten 3D-MR-Angiographie sind die peripheren Verschluss-
krankheiten der Becken- und Beinarterien.

9.9.3 Quantitative Flussmessung

Die MR-Flussmessung erlaubt die quantitative Diagnose von Herzkrankheiten (Funk-


tionsstörungen, Herzklappeninsuffizienzen), Gefäßstenosen oder Kollateralflüssen
aufgrund von Gefäßfehlbildungen. Meist erfolgt eine Diagnose in Kombination mit
einer kontrastmittelunterstützten MR-Angiographie. Dazu wird eine Schicht senk-
recht zum Gefäß geplant und eine Flusskodierung in der Schicht durchgeführt. Die
398 | Tobias Schaeffter

(a) (b)

Abb. 9.46: Quantitative Analyse der Phasenkontrast-Messung (a) in einem Patienten mit einer leich-
ten Aortenstenose. Die Messung des zeitlichen Verlaufs der unterschiedlichen Flussrichtungen (4D-
Fluss) in einem Volumen erlaubt die Darstellung des komplexen Flussverhaltens in der Aorta (b).

Synchronisation mit dem Herzschlag erlaubt eine zeitliche Auflösung der verschie-
denen Flussphasen. Die Amplitude und Form der Flussgeschwindigkeit erlaubt eine
quantitative Diagnose. Die Entwicklung schneller Aufnahmeverfahren ermöglicht
die Messung des zeitlichen Verlaufs von Flussvektoren (4D-Fluss). Damit kann das
komplexe Strömungsverhalten in Gefäßen und im Herzen genauer untersucht werden
(󳶳Abb. 9.46).

9.9.4 Herzbildgebung

Die technischen Entwicklungen der MRT in den letzten zehn Jahren haben neue We-
ge in der Untersuchung von Herzkrankheiten eröffnet. Insbesondere haben neue Me-
thoden zur Kompensation der Herz- und Atembewegung eine breitere Anwendung der
MR-Herzbildgebung ermöglicht (󳶳Abb. 9.47). Aufgrund des nichtinvasiven Charakters
(d. h. keine ionisierende Strahlung, keine Katheter) ist die MRT inzwischen ein eta-
bliertes Verfahren in der Diagnose von angeborenen Herzfehlern. Dabei kann die MRT
bereits wichtige Informationen über Anatomie, Funktion und Fluss von Patienten im
Kindesalter liefern, die zur Therapieentscheidung genutzt werden. Darüber hinaus be-
nötigen diese Patienten eine ständige Kontrolle im Verlauf ihres Lebens. Ein weiteres
wichtiges Anwendungsfeld ist die nichtinvasive Diagnose von Herzinfarkten. Durch
Kontrastmittelgabe können die Regionen reversibler und irreversibler Myokardschä-
digung unterschieden werden. Schnelle Gradientenecho-Sequenzen in Kombination
mit der parallelen Bildgebung erlauben die Messung der myokardialen Perfusion mit
einer hohen räumlichen Auflösung (1 mm). Darüber hinaus bildet die Zone mit rela-
9 Magnetische Resonanztomographie | 399

(a) (b)

(c) (d)

Abb. 9.47: Die MR-Herzuntersuchung erlaubt unter anderem die Charakterisierung der Anatomie
und Funktion ((a) diastolisch, (b) systolisch), Perfusion (c) bzw. Nekrose (d).

tiv hoher Signalintensität nach einer Wartezeit von 10 bis 15 min nach Gabe des Kon-
trastmittels den Bereich der Nekrose innerhalb des Herzinfarktbereichs ab (engl. late
Gadolinium enhancement).

9.9.5 Quantitative MR-Bildgebung

In der klinischen Praxis erfolgt die Diagnose weitestgehend durch Begutachtung von
gewichteten Bildern. Dabei werden pathologische Änderungen durch Kontrastände-
rungen in den Bildern erfasst, d. h. aufgrund von Unterschieden in den Signalinten-
sitäten. Wie beschrieben, hängen diese stark von den Sequenzparametern ab, was
eine absolute Quantifizierung erschwert. Daher wurde in den letzten Jahren verstärkt
an MR-Methoden gearbeitet, welche die Messung von physikalischen Parametern
erlauben. Neben der Flussgeschwindigkeit und dem Diffusionskoeffizienten wur-
de versucht, auch andere Eigenschaften quantitativ zu erfassen. Wie beschrieben,
können die Relaxationszeiten durch geeignete Verfahren gemessen werden. Eine
Erweiterung dieser Verfahren erlaubt die Messung der Relaxationszeiten an jedem
Ort. Solche Relaxationskarten beschreiben dann die Verteilung der intrinsischen
Relaxationseigenschaften des Gewebes. Darüber hinaus können sie zur quantitativen
Analyse der Kontrastmittelanreicherung genutzt werden [Blume 2009]. Wie beschrie-
400 | Tobias Schaeffter

Pharmakokinetik (k_trans) Diffusionskoeffizient

Abb. 9.48: Quantitative Tumorbildgebung. Eine pharmakokinetische Analyse von dynamischen T1 -


gewichteten Gradientenecho-Bildern erlaubt eine Charakterisierung der Kontrastmittelaufnahme
(k-trans) im Tumor (links), während die örtliche Messung des Diffusionskoeffizienten eine Charakte-
risierung der Zelldichte im Tumor ermöglicht.

ben, führt ein Kontrastmittel zu einer Veränderung dieser Relaxationszeiten, wobei


die Kontrastmittelkonzentration dabei proportional zur Änderung der Relaxivität
(d. h. die reziproke Relaxationszeit) ist. Darüber hinaus können dynamische Messun-
gen verwendet werden, um den zeitlichen Verlauf der Kontrastmittelanreicherung zu
messen. Beispielsweise werden pharmakokinetische Modelle zur Beschreibung von
Aufnahme und Abbau des Kontrastmittels in verschiedenen Gewebekompartimenten
in der Tumorbildgebung genutzt (󳶳Abb. 9.48).

9.9.6 Molekulare MR-Bildgebung

Zurzeit ermöglicht die MR-Bildgebung im Wesentlichen eine Darstellung morpho-


logischer und physiologischer Veränderungen. Dagegen versucht die molekulare
MR-Bildgebung, krankheitsbedingte molekulare Prozesse darzustellen und damit
eine frühzeitigere Diagnose und Therapiekontrolle zu ermöglichen (vgl. 󳶳Kap. 18,
Molekulare Bildgebung). Dabei werden zielgerichtete Kontrastmittel verwendet, die
spezifisch biologische Prozesse auf zellulärer Ebene sichtbar machen. Dazu wird ein
Kontrastmittel an einen Liganden gebunden, der spezifisch an ein Zielmolekül bin-
det und damit den charakteristischen Nachweis dieses Moleküls mittels Bildgebung
ermöglicht. In den letzten Jahren wurde eine Reihe zielgerichteter Kontrastmittel
basierend auf Gadolinium und funktionalisierten Eisenoxidpartikeln entwickelt.
Darüber hinaus werden Eisenoxidpartikel auch zur Markierung von Zellen verwendet.
Zur Erhöhung der Messempfindlichkeit werden Trägersubstanzen (Nanopartikel), die
eine höhere Konzentration von Gadoliniumatomen pro Ligand erlauben, eingesetzt.
9 Magnetische Resonanztomographie | 401

Abb. 9.49: Die Verwendung eines Fibrin-bindenden Kontrastmittels erlaubt die frühzeitige Detektion
von Blutthromben im linken Herzventrikel eines Patienten.

Zielgerichtete Kontrastmittel wurden bisher fast ausschließlich in der Forschung im


Tiermodell getestet, da die Zulassung von neuen MR-Kontrastmitteln mit hohen regu-
latorischen Hürden verbunden ist. Ein Beispiel für ein zielgerichtetes Kontrastmittel,
das bereits im Patienten getestet wurde, ist EPIX-2104. Dieses bindet an Fibrin und
erlaubt den frühzeitigen Nachweis von Thromben in Patienten [Spuentrup 2008]
(󳶳Abb. 9.49). Obwohl das Kontrastmittel bereits für unterschiedliche Fragestellungen
getestet wurde, ist es bisher noch nicht für den klinischen Alltag zugelassen worden.

MR-Spektroskopie
Wie beschrieben, wurde die MR-Spektroskopie als Analysemethode zur Strukturauf-
klärung von Substanzen lange vor der MR-Tomographie eingesetzt. Die Methoden
der Ortsauflösung können genutzt werden, um MR-Spektren aus definierten Volu-
mina aufzunehmen. Dabei wird im Allgemeinen zwischen Spektren aus einzelnen
Volumina (engl. Single Voxel Spektroscopy) und der spektroskopischen Bildgebung
(engl. Spectroscopic Imaging) unterschieden. Diese Methoden erlauben den Nach-
weis von Stoffwechselprodukten und deren krankhaften Veränderungen im Körper.
Insbesondere liefert die Messung verschiedener Kerne unterschiedliche Information.

1
H-Spektroskopie
Wasserstoff (1 H) ist für Messungen des NMR-Effektes der empfindlichste Kern, da die-
ser das größte gyromagnetische Verhältnis von allen Kernen (󳶳Tab. 9.1) besitzt. Ob-
wohl die hohe Konzentration von Wasserstoff im Wasseranteil des Gewebes sehr hoch
ist (100 Mol) und in der NMR-Bildgebung ausgenutzt wird, ist die Gewebekonzentrati-
on von Wasserstoff in Stoffwechselprodukten eher gering (10 mMol). Daher wird nor-
malerweise durch spezielle RF-Pulssequenzen das starke Wassersignal unterdrückt,
um die wesentlich schwächeren Signale der Stoffwechselprodukte sichtbar zu machen
402 | Tobias Schaeffter

NAA
Cr

Cr
Cho
ml
Glx Glx
Lip ?

4 3 2 1 0 Abb. 9.50: 1 H Spektrum am Kopf eines Proban-


δ in ppm den (Feldstärke 3 Tesla).

(󳶳Abb. 9.50). Die 1 H-Spektroskopie besitzt klinisch eine relativ große Aufmerksam-
keit, da die diagnostischen Bildgebungsgeräte mit vergleichsweise wenig Aufwand
auch 1 H-MR-Spektren aus relativ kleinen Volumina (1. . . 5 ml) aufnehmen können.
Typischerweise werden dabei neben anderen Signalen folgende Moleküle identi-
fiziert:
– N-Acetylaspartat (NAA): Obwohl die genaue biochemische Bedeutung dieses
Moleküls noch nicht vollständig geklärt ist, wird NAA im Gehirn aufgrund der
Lokalisation in den Neuronen die Bedeutung eines neuronalen Markers zuge-
sprochen [Miller 1991]. Dabei konnte mithilfe der 1 H Spektroskopie ein Rückgang
des NAA-Signals bei Pathologien gemessen werden, die mit einem Verlust von
Neuronen verbunden sind.
– Cholin (Cho): Zu diesem Signal tragen verschiedene Anteile des Stoffwechsels
und insbesondere Anteile der Zellmembran bei. Beispielsweise kann in vielen Tu-
moren ein erhöhtes Cholin-Signal gemessen werden. Ferner kann die Signalstärke
auch zur Strahlentherapiekontrolle eingesetzt werden.
– Glukose (Glx) und Laktat (Lac): Glukose spielt eine zentrale Rolle im Energie-
stoffwechsel. Die direkte Messung von Glukose mithilfe der 1 H-Spektroskopie ist
kaum möglich und bleibt daher die Domäne der 31 P-Spektroskopie. Laktat ist End-
produkt des anaeroben Stoffwechsels und spielt daher bei der Diagnose von In-
farktgebieten und Hypoxie eine wichtige Rolle.
– Kreatin/Kreatinphosphat (Cr/PCr): Kreatinphosphat ist am Energiestoffwech-
sel beteiligt. Allerdings ist in der In-vivo-1 H-Spektroskopie kein getrennter Nach-
weis von Kreatin (Cr) und Phosphokreatin (PCr) möglich, so dass man von dem
gemeinsamen Signal nicht auf den Stoffwechsel schließen kann. Das Signal wird
wenig von Pathologien beeinflusst und wird daher oft als Kontrollwert verwendet.
– Myo-Inosytol (mI): Dieses Signal konnte durch In-vivo-Messungen des Gehirns
und der Nieren nachgewiesen werden. Myo-Inositol spielt eine wichtige Rolle bei
der Ausbildung des menschlichen Gehirns, so dass ein erhöhter Wert bei Kindern
gegenüber Erwachsenen nachgewiesen werden kann.
– Lipide: In vielen Fällen stören Signale aufgrund von Lipiden die exakte Messung
anderer Stofwechselprodukte (z. B. Laktat). Allerdings erlaubt die 1 H-Spektro-
9 Magnetische Resonanztomographie | 403

skopie auch die Messung des Fettstoffwechsels, was zur Charakterisierung von
Leber- und Muskelkrankheiten genutzt wird.

31
P-Spektroskopie
Neben der In-vivo-NMR-Spektroskopie von Wasserstoff ist die Messung von Phosphor
(31 P) die am häufigsten verwendete Methode für die biomedizinische Anwendung. Die
In-vivo-31 P-Spektroskopie erlaubt eine Messung des Energiestoffwechsels. Dabei wird
die Phosphatgruppe des Kreatinphosphats (PCr) auf eine Adenosindiphosphat-Grup-
pe (ADP) übertragen, wodurch Adenosintriphosphat (ATP) und Kreatin (Cr) gebildet
werden. Eine Charakterisierung des Energiestoffwechsels ermöglicht eine verbesserte
Diagnose von vielen Krankheiten in unterschiedlichen Organen, z. B. Gehirn, Leber,
Skelett- und Herzmuskel. Aufgrund der geringeren Empfindlichkeit müssen allerdings
relativ große Volumina (ca. 40 ml) gemessen werden. Insgesamt zeigen sich in einem
Spektrum nur die Atome innerhalb kleiner beweglicher Moleküle und Phosphoratome
aus den Membranproteinen tragen nicht zum Signal bei. In 󳶳Abb. 9.51 sind Adenosin-
triphosphat (ATP), Kreatinphosphat (PCr), das anorganische Phosphat (Pi), Phospho-
monoester (PE), Phosphorylcholin (PC), Glycerophosphorylcholin (GPC) und Glycero-
phosphorylethanolamin (GPE) sichtbar. Darüber hinaus ist die chemische Verschie-
bung bestimmter 31 P-Signale vom pH-Wert abhängig, was eine nichtinvasive Messung
des pH-Wertes ermöglicht [Moon 1973].

13
C- und 19 F-Spektroskopie
Die Konzentration der Isotope Kohlenstoff 13 C und Fluor 19 F ist im Körpergewebe sehr
gering. Daher werden biologische Moleküle mit diesen seltenen Kernen angereichert
und als exogene Tracer in den Körper eingebracht. Vorteil ist dabei, dass die Konzen-
tration des Tracers direkt anhand des empfangenen Signals bestimmt werden kann.
Die 13 C-Spektroskopie erlaubt zwar die Messung von endogenen Substanzen
(z. B. freie Fettsäuren), aufgrund der geringen natürlichen Häufigkeit von 13 C führt
dies aber zu langen Messzeiten. Daher werden in den meisten Fällen Tracer mit einer
spezifischen Isotopenanreicherung verwendet, die aber sehr teuer sind. In den letzten
Jahren wurde eine spezielle Polarisationstransfertechnik entwickelt, die zu einer bis
zu 100 000-fachen Verstärkung des 13 C-Signals führt [Golman 2003]. Allerdings liegt
die Lebensdauer dieser hyperpolarisierten Stoffe unterhalb einer Minute, so dass nur
schnelle Stoffwechselvorgänge (z. B. Pyruvat) gemessen werden können.
Neben Wasserstoff hat 19 F wegen des großen gyromagnetischen Verhältnisses ei-
ne ähnliche Messempfindlichkeit. Allerdings ist die physiologische Konzentration von
frei beweglichem Fluor sehr gering, da Fluor im Körper weitestgehend fest (z. B. in den
Zähnen) gebunden ist. Daher werden 19 F-markierte Substanzen gemessen. Beispiels-
weise enthalten bestimmte klinisch zugelassene Medikamente Fluor, so dass man mit
der 19 F Spektroskopie deren Aufnahme in Organe (Pharmakokinetik) messen kann
404 | Tobias Schaeffter

PCr

PE
GPE GPC
Pi γ-ATP α-ATP

β-ATP

8 4 0 –4 –8 –12 –16 –20 –24


δ in ppm

Abb. 9.51: 31 P Spektrum am Kopf eines Probanden (3 Tesla).

[Wolf 2000]. Darüber hinaus kann die Verwendung von Perfluorcarbon-Nanopartikeln


als zielgerichtetes Kontrastmittel und zur Verfolgung von Medikamente genutzt wer-
den [Lanza 2004].

Quellenverzeichnis
Bloch F.: Nuclear induction. Physical Review 1946; 70: 460–473.
Blume U., Lockie T., Stehning C., Sinclair S., Uribe S., Razavi R., Schaeffter T.: Blume Interleaved T(1)
and T(2) relaxation time mapping for cardiac applications. J Magn Reson Imaging 2009; 29 (2):
480–487.
Bottomley P., Hardy C., Argersinger R., Allen-Moore G.: A review of 1H nuclear magnetic resonance
relaxation in pathology: Are T1 and T2 diagnostic? Medical Physics 1987; 14: 1–37.
Bloembergen N., Purcell E. M., Pound R. V.: Relaxation effects in nuclear magnetic resonance
absorption. Phys Rev 1948; 73 (7): 679–712.
Carr H. Y.: Steady state free precession in nuclear magnetic resonance. Phys Rev 1958; 112:
1693–1701.
Damadian R.: Tumor detection by nuclear magnetic resonance. Science 1971; 171: 1151–1153.
Cohen M. S., Weisskoff R. M.: Ultra-fast imaging. Magn Reson Imaging 1991; 9 (1): 1–37.
Ernst R. R., Anderson W. A.: Application of Fourier transform spectroscopy tomagnetic resonance.
Rev Sci Instrum 1966; 37: 93–102.
9 Magnetische Resonanztomographie | 405

Golman K., Ardenkjaer-Larsen J. H., Petersson J. S., Mansson S., Leunbach I.: Molecular imaging with
endogenous substances. Proc Natl Acad Sci USA 2003; 100: 10435–10439.
Haacke E. M., Wielopolski P. A., Tkach J. A.: A comprehensive technical review of short TR, fast,
magnetic resonance imaging. Rev Magn Reson Imag 1991; 3: 53–170.
Haacke E. M., Brown R. W., Thomson M. R., Venkatesan R: Magnetic resonance imaging: physical
principles and sequence design. New York: John Wiley and Sons, 1996.
Haase A.: Snapshot FLASH MRI. Applications to T1, T2, and chemical-shift imaging. Magnetic
Resonance in Medicine 1990; 13 (1): 77–89.
Hahn E.: Spin echoes. Physical Review 1950; 80: 580–594.
Hennig J., Nauerth A., Friedburg H.: RARE imaging: a fast imaging method for clinical MR. Magnetic
Resonance in Medicine 1986; 3: 823–833.
Hoult D. I.: Rotating frame zeugmatography. J Magn Reson 1979; 33: 183–197.
Kumar A., Welti D., Ernst R. R.: NMR Fourier zeugmatography. Journal of Magnetic Resonance 1975;
18: 69–83.
Kemp G. J., Radda G. K.: Quantitative interpretation of bioenergetic data from 31P and 1H magnetic
resonance spectroscopic studies of skeletal muscle: an analytical review. Magn Reson Q 1994;
10 (1): 43–63.
Lauterbur P.: Image formation by induced local interactions: Examples employing nuclear magnetic
resonance. Nature 1973; 242: 190–191.
Lanza G. M., Winter P., Caruthers S., Schmeider A., Crowder K., Morawski A., et al.: Novel
paramagnetic contrast agents for molecular imaging and targeted drug delivery. Curr Pharm
Biotechnol 2004; 5: 495–507.
Macovski, A.: Noise in MRI. Magnetic Resonance in Medicine 1996; 36 (3): 494–497.
Mansfield P.: Multi-planar image formation using NMR spin echoes. Journal of Physics C 1977; 10:
55–58.
Miller B. L.: A review of chemical issues in 1H NMR spectroscopy: N-acetyl-L-aspartate, creatine and
choline. NMR Biomed 1991; 4: 47–52.
Moon R. B., Richards J. H.: Determination of Intracellular pH by 31P magnetic resonance. J Biol Chem
1973; 248: 7276–7278.
Nyquist H.: Thermal agitation of electric charge in conductors. Phys Rev 1928; 32: 110–113.
Presant C. A., Wolf W., Waluch V., Wiseman C., Kennedy P., Blayney D., Brechner R. R.: Association of
intratumoral pharmacokinetics of fluorouracil with clinical response. Lancet 1994; 343:
1184–1187.
Pruessmann K. P., Weiger M., Scheidegger M. B., et al.: SENSE: sensitivity encoding for fast MRI.
Magn Reson Med 1999; 42 (5): 952–962.
Pruessmann K. P.: Encoding and reconstruction in parallel MRI. NMR Biomed 2006; 19 (3): 288–299.
Procter W. G., Yu F. C.: The dependence of a nuclear magnetic resonance frequency upon chemical
compound. Phys Rev 1950; 77: 717.
Purcell E., Torrey H., Pound R.: Resonance absorption by nuclear magnetic moments in a solid. Phys
Rev 1946; 69: 37–38.
Rohrer M., et al.: Comparison of magnetic properties of MRI contrast media solutions at different
magnetic field strengths. Investigative Radiology 2005; 40 (11): 715–724.
Ross B., Kreis R., Ernst T.: Clinical tools for the 90s: magnetic resonance spectroscopy and
metabolite imaging. Eur J Radiol 1992; 14: 128–140.
Spuentrup E., Botnar R. M., Wiethoff A. J., Ibrahim T., Kelle S., Katoh M., et al.: MR imaging of thrombi
using EP-2104R, a fibrin-specific contrast agent: initial results in patients. Eur Radiol 2008; 18
(9): 1995–2005.
406 | Tobias Schaeffter

Stanisz G. J., Odrobina E. E., Pun J., Escaravage M., Graham S. J., Bronskill M. J., Henkelman R. M.: T1,
T2 relaxation and magnetization transfer in tissue at 3T. Magnetic Resonance in Medicine 2005;
54 (3): 507–512.
Twieg D. B.: The k-trajectory formulation of the NMR imaging process with applications in analysis
and synthesis of imaging methods. Medical Physics 1983; 10 (5): 610.
Wolf W., Presant C. A., Waluch V.: 19F-MRS studies of fluorinated drugs in humans. Adv Drug Deliv
Rev 2000: 15: 55–74.

Weiterführende Literatur
Abragam A.: Principles of Nuclear Magnetism. New York: Oxford University Press, 1989.
Bracewell R.: The Fourier transform & its Applications. 3. Aufl. New York: McGraw-Hill, 1999.
Gadian D. G.: NMR and its applications to living systems. 2. Aufl. New York: Oxford University Press,
1995.
Henkelman M., Bronskill M.: Artifacts in magnetic resonance imaging. Reviews of Magnetic
Resonance in Medicine 1987; 2 (1): 1–126.
Liang Z.-P., Lauterbur P.: Principles of magnetic resonance imaging. A signal processing perspective.
IEEE Press Series, New York, 2000.
Morneburg H.: Bildgebende Systeme für die medizinische Diagnostik. 3. Aufl. München: Publicis
Publishing, 1995.
Vlaardingerbroek M. T., den Boer J. A.: Magnetic resonance imaging, theory and practice. 3. Aufl.
Berlin: Springer Verlag, 2002.

Testfragen
1. Welche physikalische Eigenschaft des Atomkerns wird bei der Magnetresonanztomographie
(MRT) ausgenutzt und durch welche physikalischen Größen wird sie beschrieben?
2. Warum ist MRT ein bildgebendes Verfahren mit einer relativ geringen Messempfindlichkeit?
3. Was ist die primäre Funktion des oszillierenden B1 -Feldes?
4. Was ist die Resonanzbedingung?
5. Welche Prozesse beschreiben die Rückkehr der Magnetisierung (nach Anregung) in das thermi-
sche Gleichgewicht?
6. Warum hängt die Resonanzfrequenz nicht nur von der Art des Kerns, sondern auch von der Mo-
lekülstruktur ab?
7. Welche Größen bestimmen die Dicke und Position einer angeregten Schicht?
8. Warum benötigt man einen Schichtrefokussierungsgradienten?
9. Was ist der k-Raum und wie hängt die k-Raum-Trajektorie vom Gradienten ab?
10. Was ist der Unterschied zwischen einer Gradienten und einer Spin-Echo-Bildgebung und wie
hängt der Bildkontrast von den Sequenzparametern ab?
11. Wie lange dauert eine MR-Bildaufnahme und wie kann die MR-Bildgebung beschleunigt werden?
12. Was sind die Haupteinflussgrößen des Signal-Rausch-Verhältnisses?
13. Welche Einflüsse führen zu Artefakten in der MR-Bildgebung?
14. Aus welchen Hauptkomponenten besteht ein MR-Tomograph und welche Sicherheitsaspekte
werden durch diese Komponenten bestimmt?
15. Welche klinischen Anwendungsgebiete können durch welche MR-Verfahren unterstützt werden?
Olaf Dössel
10 Abbildung bioelektrischer Quellen

10.1 Elektrophysiologische Grundlagen | 408


10.2 Messung bioelektrischer und biomagnetischer Signale | 410
10.3 Konventionelle Diagnostik mit bioelektrischen Signalen und neue
Fragestellungen für die Bildgebung bioelektrischer Quellen | 412
10.4 Mathematische Modelle von bioelektrischen Quellen | 413
10.5 „Lead fields“, das „Vorwärtsproblem“ und die Abbildungsgleichung | 416
10.6 Das inverse Problem und Regularisierungsmethoden | 419
10.7 Applikationen in der Medizin | 421

Zusammenfassung: Der Körper des Menschen steuert viele Funktionen mit Hilfe von
elektrischen Signalen. Wäre es nicht großartig, wenn man diese elektrophysiologi-
schen Prozesse abbilden könnte? Die Grundlagen der Entstehung bioelektrischer Si-
gnale vom Gehirn (EEG/MEG) und vom Herzen (EKG/MKG) werden erläutert. Wie kann
man die kleinen elektrischen und magnetischen Signale an möglichst vielen Stellen
gleichzeitig messen? In welchen Bereichen kann die Bildgebung bioelektrischer Quel-
len die konventionelle Diagnostik mit bioelektrischen Signalen erweitern? Das Kon-
zept der „lead fields“ ermöglicht die Berechnung der Signale, die aus Stromdipolen
folgen. Die Lösung des sogenannten „inversen Problems“ erfordert mathematische
Regularisierungstechniken. Schließlich werden einige Applikationen in der Neurolo-
gie und Kardiologie beschrieben.

Abstract: The human body controls many of its functions using electric signals.
Wouldn’t it be great if it was possible to image such electrophysiological processes?
This chapter explains the basics of the origin of bioelectric signals of the brain
(EEG/MEG) and heart (ECG/MCG). How can these weak electric and magnetic signals
be measured at multiple positions simultaneously? What can imaging of bioelectric
sources contribute to expand the value of conventional bioelectric signal analysis?
The “lead field” concept allows for the calculation of signals from bioelectric sources.
Solving the “inverse problem” demands mathematical regularization techniques.
Finally some medical applications in neurology and cardiology are outlined.
408 | Olaf Dössel

10.1 Elektrophysiologische Grundlagen


Viele Funktionen des menschlichen Körpers werden durch elektrische Signale gesteu-
ert. Jede Körperempfindung und jede motorische Steuerung, im weitesten Sinne auch
alle Gedanken, sind mit Aktionspotentialen auf den Neuronen im Gehirn verbunden.
Über lange Axone von Nervenzellen werden die elektrischen Signale vom Gehirn zu
den Muskeln und umgekehrt von der Körperperipherie zum Gehirn geleitet. Auch das
Herz steuert seinen regelmäßigen Rhythmus mit elektrischen Signalen. Viele Krank-
heiten des Menschen gehen mit Störungen der Entstehung, der Weiterleitung und
der Effektauslösung dieser elektrischen Signale einher. Wenn es gelingen könnte, die-
se bioelektrischen Quellen im Körper abzubilden, entstünde eine neue Methode der
funktionellen Bildgebung, welche die Elektrophysiologie und deren krankhafte Ver-
änderungen abbilden kann.
Die Zellen des menschlichen Körpers weisen eine Ruhespannung zwischen
dem Zellinnen- und Zellaußenraum auf: die Transmembranspannung Vm . Diese
Spannung entsteht durch die unterschiedlichen Konzentrationen von Kalium- und
Natriumionen im Zellinneren und im Extrazellulärraum. Nervenzellen, Zellen vom
Reizleitungssystem des Herzens und Muskelzellen können nun „depolarisieren“ und
dabei ein Aktionspotential durchlaufen, d. h., aus der negativen Ruhespannung
(z. B. Vm = −80 mV) wird plötzlich für einige ms eine positive Transmembranspan-
nung (z. B. Vm = +10 mV, 󳶳Abb. 10.1). Einige Zellen depolarisieren spontan (z. B. im
Sinusknoten des Herzens), andere werden durch ein chemisches Signal angestoßen
(z. B. durch Neurotransmitter), wiederum andere werden durch ihre Nachbarzellen
depolarisiert (z. B. im Herzen). Wenn viele Zellen gleichzeitig depolarisieren und in
eine Richtung ausgerichtet sind, entsteht ein sogenannter Stromdipol, der wiederum
im Körper und auch an der Körperperipherie messbare elektrische Signale hervorruft.
Bei Signalen vom Gehirn spricht man dann vom Elektroenzephalogramm (EEG), bei
Signalen vom Herzen vom Elektrokardiogramm (EKG), an den Körpermuskeln vom
Elektromyogramm (EMG) etc. Alle elektrischen Ströme erzeugen um sich herum
Magnetfelder (Ampèresches Gesetz, Biot-Savart-Gleichung). Auch alle bioelektri-
schen Ströme erzeugen somit biomagnetische Felder. Werden diese magnetischen
Felder gemessen, so spricht man beim Gehirn von der Magnetoenzephalographie
(MEG) und beim Herzen von der Magnetokardiographie (MKG) etc.

Transmembranspannung: elektrische Spannung zwischen dem Zellinnenraum und dem Zellau-


ßenraum.

Aktionspotential: Verlauf der Transmembranspannung nach der Aktivierung einer Nervenzelle


oder einer Herzmuskelzelle.

Zunächst soll die Elektrophysiologie von Neuronen und Nervenzellen ein wenig ge-
nauer betrachtet werden. Die Pyramidenzellen der Hirnrinde sind in eine Richtung
senkrecht zur Oberfläche der Hirnrinde ausgerichtet (󳶳Abb. 10.2). Wenn ca. 10 000
10 Abbildung bioelektrischer Quellen | 409

50 50
Vm in mV

Vm in mV
0 0

–50 –50

–100 –100
0 0,5 1,0 0 0,5 1,0 1,5 2,0 2,5
(a) Zeit in ms (b) Zeit in s

Abb. 10.1: (a) Aktionspotential einer neuronalen Zelle und (b) einer Zelle des Herzmuskels (Ventri-
kel).

Hirnrinde
Synapse

Axon Dendrit

Quadrupol Stromdipol Pyramidenzellen

Abb. 10.2: Stromdipol beim Einströmen von Ionen in die Zelle am synaptischen Spalt und Anord-
nung der Pyramidenzellen in der Hirnrinde.

dieser Nervenzellen (entsprechend ca. 10 mm2 der Hirnrinde) gleichzeitig depolari-


sieren, entsteht an der Oberfläche des Kopfes ein elektrisches Signal im Bereich von
einigen 10 μV und ein Magnetfeld im Bereich von 100 fT. Mehr Details zu der Entste-
hung und mathematischen Modellierung elektrischer Signale im Gehirn findet der Le-
ser beispielsweise in dem Buch von Nunez [Nunez 2006]. Wird ein Sinnesorgan des
Körpers stimuliert (Lichtblitz, Piep-Ton, Tastreiz etc.), so startet im Gehirn im zuge-
hörigen Areal (Seh-Zentrum, Hör-Zentrum etc.) eine Signalkaskade, in deren Verlauf
solche lokalisierten und messbaren Stromdipole in den Pyramidenzellen entstehen.
Auch eine willkürliche motorische Bewegung wird durch messbare Stromdipole im zu-
gehörigen motorischen Zentrum eingeleitet. Daneben gibt es messbare spontane Ak-
tivitäten des Gehirns, z. B. den Alpha-, Beta- und Gamma-Rhythmus, deren Ursprung
noch nicht genau bekannt ist. Und es gibt natürlich viele Aktivitäten des Gehirns, die
weder stark noch lokalisiert sind und die daher im Rauschen untergehen und zu kei-
nen messbaren Signalen an der Kopfoberfläche führen.
Nun soll kurz die Elektrophysiologie des Herzens betrachtet werden. Im so-
genannten Sinusknoten des Herzens befinden sich Zellen, die im Takt von ca.
60 bis 80 Schlägen pro Minute spontan depolarisieren. Durch körperliche Aktivi-
tät oder durch Aufregung wird die Frequenz erhöht. Diese Depolarisierung breitet
sich zunächst über die Vorhöfe aus – an der Körperoberfläche entsteht die P-Welle
410 | Olaf Dössel

P PQ QRS 0,01 s QRS 0,04 s


R

P T

QS

QRS 0,07 s ST T

Abb. 10.3: Depolarisierung und Repolarisierung der Atrien und der Ventrikel (nach [Schmidt 2005]).

(󳶳Abb. 10.3). Über den Atrioventrikular-Knoten gelangt die Depolarisierung mit einer
gewissen Verzögerung in die Ventrikel des Herzens. Die Depolarisierung der Ventrikel
verursacht den QRS-Komplex im EKG an der Körperoberfläche. Die Repolarisierung
der Ventrikel ist in Form der T-Welle im EKG zu erkennen. Der QRS-Komplex weist
Spannungsamplituden im Bereich von 1 mV und Magnetfelder im Bereich von 10 pT
auf. Die Depolarisierung des Herzens „triggert“ zunächst in den Vorhöfen und dann
in den Ventrikeln die Kontraktion des Herzmuskels. Für mehr Details wird hier auf die
Bücher von Malmivuo und Plonsey [Malmivuo 1995] und Gulrajani [Gulrajani 1998]
verwiesen.

10.2 Messung bioelektrischer und biomagnetischer Signale


Die elektrischen Spannungen an der Körperoberfläche können mithilfe von Elektro-
den und empfindlichen Messverstärkern gemessen werden. Diese Messverstärker soll-
ten eine hohe Eingangsimpedanz und eine sehr gute Gleichtaktunterdrückung auf-
weisen (Differenzverstärker). Sie werden in einem anderen Band dieser Lehrbuchreihe
ausführlich beschrieben (󳶳Band 5: Biosignale und Monitoring).
Zur Messung des Elektrokardiogramms haben sich Elektrodenanordnungen
durchgesetzt, die in der ganzen Welt bevorzugt werden (z. B. Einthoven-Ableitung
und Brustwand-Ableitungen). Mehr Informationen über die Potentialverteilung an
der Körperoberfläche erhält man mit Vielkanal-EKG-Systemen, bei denen sehr viele
Elektroden auf dem gesamten Oberkörper angebracht werden – man spricht auch von
Body-Surface-Potential-Mapping (BSPM). Typisch sind Anordnungen mit 32 bis 80
Elektroden, es wurden aber auch schon 256-Kanal-Systeme vorgestellt. Elektroden-
Streifen oder auch Elektroden-Westen mit vielen integrierten Elektroden erleichtern
das Anbringen.
10 Abbildung bioelektrischer Quellen | 411

(a) (b)

Abb. 10.4: (a) Elektrodenkappe für die Vielkanal-Elektroenzephalographie [Quelle: Easycap GmbH]
und (b) Streifenelektroden für das Body-Surface-Potential-Mapping [Quelle: W. Schulze, IBT am KIT].

Elektro- und Magnetokardiographie (EKG/MKG): Messung der elektrischen Spannungen und der
Magnetfelder am Körper, die durch elektrophysiologische Quellen im Herzen verursacht werden.

Elektro- und Magnetoenzephalographie (EEG/MEG): Messung der elektrischen Spannungen und


der Magnetfelder an der Kopfhaut, die durch elektrophysiologische Quellen im Gehirn verursacht
werden.

Wegen der kleineren elektrischen Signale bei der Elektroenzephalographie sind


EEG-Verstärker noch empfindlicher und rauschärmer als EKG-Verstärker. Bei dem
sogenannten 10-20-System werden 21 Elektroden am Kopf befestigt, welche die Stre-
cken z. B. vom Nasion zum Inion oder vom rechten zum linken Ohr in 10%- und
20%-Abschnitte aufteilen (󳶳Abb. 10.4). Auch hier wurden Anordnungen mit sehr viel
mehr Elektroden vorgestellt (über 100). Elastische Elektrodenkappen können zum
schnellen Anbringen der vielen Elektroden eingesetzt werden.

Body Surface Potential Mapping (BSPM; dt. Darstellung der Potentialverteilung auf der Körper-
oberfläche): Messung und Kartierung der elektrophysiologisch erzeugten Potentialverteilung auf
der Körperoberfläche.

EEG-Mapping (dt. Abbildung, Kartierung, räumliche Zuordnung des EEGs): Messung und Kartie-
rung der elektrophysiologisch erzeugten Potentialverteilung auf der Kopfhaut.

Zur Messung der sehr kleinen Magnetfelder des menschlichen Körpers werden meis-
tens supraleitende Quanten-Interferenz-Detekoren (SQUIDs) eingesetzt. Diese
Sensoren müssen unterhalb der Sprungtemperatur des verwendeten Supraleiters
betrieben werden. Das bedeutet, dass SQUIDs aus Niob bei 4,2 K im flüssigen Helium
412 | Olaf Dössel

und SQUIDs aus den keramischen Supraleitern (z. B. Yttrium-Barium-Kupfer-Oxid)


im flüssigen Stickstoff bei 77 K arbeiten. Auch wenn an vielen Stellen daran geforscht
wird, die kleinen Magnetfelder mit Sensoren bei Zimmertemperatur zu messen, so
hat sich noch keines dieser Verfahren durchsetzen können.

Supraleitender Quanten-Interferenz-Detektor (SQUID): Detektor zur Messung sehr kleiner Mag-


netfelder bis 10 fT.

Vielkanal-Magnetometer mit über 300 Sensoren sind für die Magnetokardiographie


im Einsatz [Koch 2004]. Sie werden in magnetisch abgeschirmten Räumen betrieben,
um die störenden Magnetfelder aus der Umgebung zu unterdrücken. Außerdem sind
Gradiometer-Anordnungen im Einsatz; hierbei werden die Magnetfelder aus zwei un-
terschiedlichen Entfernungen vom Körper voneinander subtrahiert. Dadurch wird die
Anordnung empfindlich für nahe gelegene und unempfindlich für weit entfernte Quel-
len.
Die Vielkanal-Magnetometer für die Magnetoenzephalographie sind ähnlich auf-
gebaut wie die Systeme für die Magnetokardiographie (SQUIDs, Gradiometer, abge-
schirmte Messkammern), nur die Anordnung der Sensoren ist an den Kopf des Men-
schen angepasst. Es sind Systeme mit bis zu 306 Kanälen im Einsatz [Hämäläinen
1995].

10.3 Konventionelle Diagnostik mit bioelektrischen Signalen und


neue Fragestellungen für die Bildgebung bioelektrischer
Quellen
Die neurologische Diagnostik mithilfe von EEG-Signalen ist sehr weit fortgeschritten.
EEG-Signale haben eine herausragende Bedeutung bei folgenden Erkrankungen: Epi-
lepsie, psychische Erkrankungen, degenerative Erkrankungen, Schlaganfall, Schlaf-
störungen, Tumor-Erkrankungen, Infektionen des Gehirns etc [z. B. Niedermeyer und
Lopes da Silva 2005]. Hierbei wird ausschließlich der zeitliche Verlauf der EEG-Signale
an verschiedenen Stellen der Kopfoberfläche interpretiert. In weitergehenden Signal-
analysemethoden werden auch zeitlich-räumliche Zusammenhänge der Signale auf
der Kopfoberfläche identifiziert.
Neu im Sinne von „Bildgebung“ sind die Lokalisierung und die zeitlich-räumli-
che Abbildung von Quellen im Inneren des Gehirns. Was ist wann und wo im Gehirn
passiert? Dies ist beispielsweise bei der Lokalisierung epileptischer Foci oder bei der
Lokalisierung wichtiger sensorischer Areale vor neurochirurgischen Eingriffen wich-
tig [He 2010, Michel 2004].
Auch die Messung der elektrischen Signale des Herzens, das EKG, hat eine lange
Tradition. Insbesondere Infarkte, Ischämien und die große Vielfalt der Herzrhythmus-
10 Abbildung bioelektrischer Quellen | 413

störungen lassen sich hervorragend mithilfe des EKG bestimmen. Wiederum wird nur
der zeitliche Verlauf der Signale an verschiedenen Elektrodenpositionen betrachtet
[Schuster 2001].
Der Wunsch, die bioelektrischen Quellen auch zu lokalisieren und abzubilden,
kommt insbesondere aus dem Bereich der Rhythmusstörungen. Ektope Zentren
(von denen zusätzliche Herzschläge ausgehen und die der Ursprung von gefährli-
chen Rhythmusstörungen sein können) und zusätzliche Leitungsbahnen (wie beim
Wolf-Parkinson-White-Syndrom, WPW) sollten im Kontext mit der Anatomie des
Herzens abgebildet werden. Für eine Vorbereitung einer Ablation von Vorhofflimmern
ist eine genaue elektrophysiologische Charakterisierung des Vorhofs vom Patienten
sehr wichtig. Auch bei der Bewertung der elektrophysiologischen Konsequenzen
eines Herzinfarktes ist die Abbildung der Ausbreitung der Depolarisationsfront um
das Infarktgebiet herum von großem diagnostischem Wert [Dössel 2000, Macfarlane
2010, He 2010].

10.4 Mathematische Modelle von bioelektrischen Quellen


Zentrales Element der mathematischen Modellierung bioelektrischer Quellen ist der
Stromdipol. Er soll im Folgenden eingeführt und erläutert werden.

Stromdipol: kurzer Strompfad, der eine Stromquelle mit einer gleich großen Stromsenke verbin-
det.

In der elektromagnetischen Feldtheorie lautet die allgemeine Gleichung, welche die


Stromdichte J mit der elektrischen Feldstärke E verknüpft:

J ⃗ = 𝜅E⃗ + Ji⃗ (10.1)

wobei 𝜅 der Leitfähigkeitstensor ist und Ji die eingeprägte Stromdichte (englisch: im-
pressed current density). Die eingeprägte Stromdichte wird leider in den meisten Lehr-
büchern zur Feldtheorie vergessen. Berücksichtigt man die eingeprägte Stromdichte
Ji , so passt diese Gleichung gut zu den zwei anderen Materialgleichungen der Feld-
theorie, welche zum einen die magnetische Induktion B, die magnetische Feldstärke
H und die Magnetisierung M miteinander verknüpft und zum anderen die elektrische
Verschiebungsdichte D, die elektrische Feldstärke E und die Polarisierbarkeit P in Be-
ziehung setzt:
B = 𝜇0 (H + M) D = 𝜀0 E + P (10.2)
So wie die Magnetisierung M eine Dichte von magnetischen Dipolen m und die Polari-
sierbarkeit P eine Dichte von elektrischen Dipolen darstellt, so ist auch die eingeprägte
Stromdichte Ji eine Dichte von Stromdipolen pi :
dp⃗ i
Ji⃗ = (10.3)
dv
414 | Olaf Dössel

Volumenstrom
Strom-
dipol

Kochsalzlösung

isolierter Draht
I
(a) (b)

Abb. 10.5: Vereinfachtes Bild eines Stromdipols (a) und dazugehörige Potentialverteilung (b).

wobei dv ein Volumenelement ist. Das Bild, das hinter dem Begriff „Stromdipol“ steht,
ist Folgendes: In einem leitenden Medium befinden sich sehr dicht nebeneinander ei-
ne Quelle von Strom und eine gleichgroße Senke von Strom (󳶳Abb. 10.5). Multipliziert
man den Strom I mit der Länge des Pfades zwischen Quelle und Senke d, erhält man
den Wert des Stromdipols; die Richtung ist gleich der Richtung von d.

p⃗ i = I ⋅ d⃗ (10.4)

Die Einheit des Stromdipols ist damit Ampere mal Meter. Berechnet man die Potenti-
alverteilung in einem homogenen leitenden Medium um einen Stromdipol herum, so
ergibt sich exakt das gleiche Bild wie bei einem elektrischen Dipol (󳶳Abb. 10.5).
In den Neuronen des Gehirns fließt – wie 󳶳Abb. 10.2 zeigt – an einer Stelle Strom
aus dem Extra- in den Intrazellulärraum und an einer dicht benachbarten Stelle fließt
der gleiche Strom wieder aus dem Intra- in den Extrazellulärraum; das Bild des Strom-
dipols passt also genau. Kleine Flächen („patches“) aus parallelen Stromdipolen füh-
ren zu messbaren Signalen an der Kopfoberfläche [Nunez 2006].
Auch im Muskelgewebe des Herzens fließt Strom aus dem Extra- in den Intrazel-
lulärraum und umgekehrt (󳶳Abb. 10.6). Auch hier bildet sich immer eine flächenhafte
Front von vielen parallelen Stromdipolen aus. Man kann zeigen, dass die eingeprägte
Stromdichte (Stromdipoldichte) proportional zum räumlichen Gradienten der Trans-
membranspannung Vm ist [Geselowitz 1989].

Ji⃗ = −𝜅 ⋅ grad Vm (10.5)

In einem Gebiet (z. B. im Herzen), das gleichmäßig depolarisiert ist, herrscht überall
die gleiche Transmembranspannung; damit befinden sich dort keine aktiven Stromdi-
pole. Das Gleiche gilt für ein Gebiet, das gleichmäßig repolarisiert ist. Nur an der Depo-
larisierungsfront, die sich z. B. beim QRS-Komplex durch das Ventrikelgewebe bewegt
10 Abbildung bioelektrischer Quellen | 415

Richtung der
Wellenbewegung
ruhend depolarisierend aktiviert

0 lokaler Stromkreis Natrium-


einstrom
VECG + –
+ – Polarität der
+ – Doppelschicht
+ –

Abb. 10.6: Depolarisationsfront im Herzmuskel und „uniform double layer“ [nach Malmivuo und
Plonsey, 1995].

(siehe 󳶳Abb. 10.3), befinden sich Stromdipole und damit die Quellen für die elektri-
schen Signale an der Körperoberfläche (das EKG). Bei einer Depolarisationsfront in
einem homogenen Gewebe spricht man auch vom „uniform double layer“ aus Strom-
quellen und Stromsenken.

Uniform Double Layer (dt. einheitliche Doppelschicht): Depolarisierungsfront, die sich bei der
Aktivierung des Herzmuskels durch das Herz bewegt. Es handelt sich dabei um eine Näherung, da
diese Front in Wirklichkeit nicht zwingend „uniform“ ist.

Es lässt sich zeigen, dass sich jede bioelektrische Aktivität des Körpers als eine Überla-
gerung von vielen Stromdipolen darstellen lässt. Viele Aktivitäten des Gehirns lassen
sich als eine Serie von einzelnen Stromdipol-Patches beschreiben, die nacheinander
an verschiedenen Stellen der Hirnrinde an- und wieder ausgehen („moving dipoles“).
Für das Herz ist oft die Beschreibung durch eine homogene und fortschreitende Front
von Stromdipolen zutreffend. Ein mögliches Ziel bei der Abbildung bioelektrischer
Quellen ist es also, diese „moving dipoles“ oder die Stromdipolverteilung als Funktion
von Raum und Zeit darzustellen Ji (x, y, z, t). Hierzu äquivalent kann auch die Trans-
membranspannung als Funktion von Raum und Zeit abgebildet werden: Vm (x, y, z, t).
Neben diesem Ansatz zur Abbildung von bioelektrischen Quellen gibt es noch
zwei andere Methoden: Man kann versuchen, die Potentiale auf der Hirnrinde auszu-
rechnen, die man messen würde, wenn man dort Elektroden platzieren würde („de-
blurring“). Ebenso kann man versuchen, die epi- und endokardialen Potentiale dar-
zustellen, die man messen würde, wenn man Elektroden auf die Herzoberfläche legen
würde. Der Vorteil: Der Rekonstruktionsalgorithmus muss nur Signale außerhalb des
416 | Olaf Dössel

Gebietes berechnen, in dem sich die eingeprägten Ströme befinden. Es lässt sich zei-
gen, dass hierdurch die Lösung eindeutiger wird. Dafür wird aber die Interpretation
schwieriger: Es ist nicht immer richtig, dass unter dem Gebiet mit großen elektrischen
Potentialen auch die Quellen liegen (siehe auch 󳶳Abb. 10.7). Manchmal liegt die Quel-
le direkt unter dem Nulldurchgang der elektrischen Potentialverteilung. (Man beachte
auch das willkürlich festgelegte Referenzpotential.)
Ein dritter Ansatz wird bei der Darstellung der bioelektrischen Quellen im Her-
zen relativ oft gewählt: Es wird die Ankunftszeit der Depolarisationsfront berechnet,
man spricht auch von der „Aktivierungszeit“ 𝜏(x, y, z). Statt eines 4D-Vektorfeldes
Ji (x, y, z, t) ist hierbei nur eine einzige skalare Funktion des Ortes zu berechnen, und
das ist deutlich einfacher. Der Ansatz geht aber von einem „uniform double layer“ aus.
Wenn diese Annahme nicht zutreffend ist, kann es zu Artefakten kommen.

10.5 „Lead fields“, das „Vorwärtsproblem“ und die


Abbildungsgleichung
In diesem Abschnitt soll der mathematische Zusammenhang zwischen den Quellen
im Körper und den elektrischen und magnetischen Signalen an der Körperoberfläche
hergestellt werden. Wir gehen hierbei davon aus, dass die bioelektrischen Quellen be-
kannt sind und wir die dazugehörenden elektrischen und magnetischen Signale be-
rechnen wollen. Man spricht auch vom „Vorwärtsproblem“.
Wir beginnen damit, dass wir nur einen einzigen Stromdipol im Körper platzieren
und dieser Stromdipol nur eine x-Komponente hat: px1 (x, y, z). Mithilfe der numeri-
schen Feldtheorie (z. B. Finite-Elemente-Methode, FEM) können wir ausrechnen,
welches Signal Vx1 (elektrische Spannung bzw. Magnetfeld) dieser Dipol in einem De-
tektor (Elektrodenpaar oder Magnetometer) hervorrufen wird. Dazu müssen wir die
geometrische Anordnung der Organe im Körper und deren Leitfähigkeiten kennen.
Üblicherweise wird mit einem 3D-Datensatz der Magnetresonanztomographie (MRT)
und mit Methoden der Segmentierung die individuelle Geometrie des Patienten be-
stimmt und dann den Gewebetypen die Literaturwerte der Leitfähigkeit zugeordnet.
Wir erhalten eine Art „Empfindlichkeitsverteilung“ ax (x, y, z) für Stromdipole in x-
Richtung in Abhängigkeit vom Ort des Stromdipols:

Vx1 = ax1 (x, y, z) ⋅ px1 (x, y, z) (10.6)

Nun machen wir das Gleiche mit einem Stromdipol in y- und in z-Richtung und er-
halten Empfindlichkeitsfaktoren ax , ay und az . Da wir jeden Stromdipol als Summe
aus drei Stromdipolen in x-, y- und z-Richtung auffassen können, erhalten wir das
messbare Signal im Sensor 1 für jeden beliebigen Stromdipol auf folgende Art:

V1 = ax1 (x, y, z) ⋅ px1 (x, y, z) + ay1 (x, y, z) ⋅ py1 (x, y, z) + az1 (x, y, z) ⋅ pz1 (x, y, z)
V1 = a⃗ 1 (x, y, z) ⋅ p⃗ 1 (x, y, z) (10.7)
10 Abbildung bioelektrischer Quellen | 417

Aus den Empfindlichkeitsfaktoren ax , ay und az ist ein Vektorfeld a geworden. Die-


ses Vektorfeld hat den Namen „lead field“ nach dem englischen Wort „lead“ für
„Ableitung“, d. h. für die Messung mit einem Elektrodenpaar.

Lead Field (dt. Ableitungsfeld): Vektorfeld, mit dessen Hilfe man das Signal in einem Detektor
(Spannung oder Magnetfeld) ausrechnen kann, indem das lead field an einem Punkt mit dem
Stromdipol an diesem Punkt skalar multipliziert wird.

Gehen wir nun weiter zu einem Vielkanal-System. Jeder der M Sensoren (Elektroden-
paare oder Magnetometer) hat sein eigenes lead field.

V1 ax1 ay1 az1 px


⃗ .. . .. ..
V = ( . ) ( .. . . ) ⋅ ( py ) (10.8)
VM axM ayM azM pz

Und schließlich gehen wir weiter zu N Dipolen, die gleichzeitig „eingeschaltet“ sind.
Ihre Beiträge addieren sich nach dem Überlagerungssatz:

V1
⃗ .
V = ( .. ) (10.9)
VM
px (r1 )
py (r1 )
ax1 (r1 ) ay1 (r1 ) az1 (r1 ) ... ax1 (rN ) ay1 (rN ) az1 (rN ) ( p (r ) )
( z 1 )
=( .. .. .. .. .. .. ) ⋅ ( .. )
. . . ... . . . ( . )
( )
( )
axM (r1 ) ayM (r1 ) azM (r1 ) ... axM (rN ) ayM (rN ) azM (rN ) px (rN )
py (rN )
(pz (rN ))

V⃗ = A ⋅ P

Mithilfe der Lead-field-Matrix A können zu jeder vorgegebenen Verteilung von Strom-


dipolen sehr schnell alle Messsignale berechnet werden. Leider erfordert jeder mögli-
che Stromdipol eine FEM-Vorwärtsrechnung. Das bedeutet, dass es recht lange dauern
kann, um für einen Patienten seine Lead-field-Matrix auszurechnen.
Die 󳶳Abb. 10.7 zeigt das lead field eines Elektrodenpaares und eines Magnetome-
ters im Vergleich. Die Bilder sind so zu interpretieren, dass man an jeder Stelle im
Körper einen virtuellen Stromdipol platzieren kann und dann das dazu gehörende
Signal erhält, indem man das Skalarprodukt zwischen dem Stromdipol und dem lead
field bildet. Man erkennt, dass Stromdipole, die direkt unter einer Elektrode liegen,
ein großes Signal erzeugen, wenn sie in Richtung der Elektrode (radial) zeigen, aber
kein Signal geben, wenn sie senkrecht dazu stehen (tangential). Im Vergleich dazu
418 | Olaf Dössel

r = 10 mm
Volumen der halben
Empfindlichkeit Abstand = 20 mm
100 60° 100
1A 1A 10⁴ 10⁴
5000 5000
4000 4000
3000 3000
50 2000 2000
40
30
1000 80 mm 1000
20
85
mm
JLE in A/m²

92
m
500 500

m
10
400 400
minimale
7,61 300 300
Empfindlichkeit
200 200 J in A/m²
100 100 LE
0
(a) (b) „Null-Empfindlichkeitslinie”

Abb. 10.7: Die lead fields von einem Elektrodenpaar (a) und einem Magnetometer (b) am Beispiel
eines kugelförmigen Volumenleiters (vergleichbar mit dem Kopf) (nach Malmivuo und Plonsey [Mal-
mivuo 1995]).

sieht man, dass Stromdipole, die direkt unter einem Magnetometer liegen, kein Sig-
nal hervorrufen, wenn sie radial nach außen zeigen, aber ein großes Signal erzeugen,
wenn sie tangential auf einem Ring unterhalb des Magnetometers angeordnet sind.
So liefern die elektrischen und die magnetischen Messungen in gewisser Weise „or-
thogonale“ Informationen [Babiloni 2004, Malmivuo 2012].

Reziprozitätstheorem: allgemeines Prinzip der Elektrotechnik. Es besagt, dass man bei passiven
linearen Vierpolen die Quelle auf der einen Seite des Vierpols mit dem Messgerät auf der anderen
Seite des Vierpols vertauschen kann. Es wird dabei immer der gleiche Faktor zwischen Ursache
und Wirkung ermittelt.

Mit dem Reziprozitätstheorem lässt sich beweisen, dass das lead field eines Elek-
trodenpaares bis auf einen konstanten Faktor identisch ist mit der Stromdichtevertei-
lung, die sich ergeben würde, wenn in die beiden Elektroden ein Strom eingespeist
würde. Entsprechend ist das lead field des Magnetometers identisch mit der Vertei-
lung der Wirbelströme im Körper, die sich ergeben würden, wenn in die Spule des
Magnetometers ein Wechselstrom eingespeist würde.
10 Abbildung bioelektrischer Quellen | 419

10.6 Das inverse Problem und Regularisierungsmethoden


Das sogenannte inverse Problem besteht nun in der Aufgabe, aus gemessenen Elek-
trodenspannungen und Magnetfeldern die zugrunde liegende Stromdipolverteilung
zu bestimmen. Es können aber auch die Potentialverteilungen um das Gehirn oder das
Herz herum berechnet werden oder – im Falle des Herzens – die Aktivierungszeiten
(s. 󳶳Kap. 10.4).
Immer wenn man davon ausgehen darf, dass nur ein oder zwei Stromdipole
gleichzeitig eingeschaltet sind, kann man einen Suchalgorithmus (Optimierungsal-
gorithmus) starten, der Ort, Richtung und Stärke der Dipole so lange verändert, bis
die vorwärtsgerechneten Signale am besten zu den gemessenen Signalen passen („di-
pole fit“). Dies Verfahren ist oft bei der Quellenlokalisierung im Gehirn anwendbar.
Das zu lösende Problem ist überbestimmt. Die Methode ist effektiv und gut, wenn die
o. g. Voraussetzung erfüllt ist. Man benötigt aber eine gute Hypothese über die Zahl
der Dipole, mit der der Algorithmus gestartet wird.

Dipole fit (dt. Dipol-Anpassung): Verfahren, bei dem ein Stromdipol so lange im Körper bewegt
und verändert wird, bis die gewonnenen Messsignale am besten zu den berechneten Signalen
passen.

Im allgemeinen Fall soll die Stromdichteverteilung (bzw. die kortikale Potentialver-


teilung oder die epi- und endokardiale Potentialverteilung oder die Transmembran-
spannungsverteilung) bestimmt werden. Es handelt sich um ein lineares inverses
Problem, da die Abbildungsmatrix offenbar linear ist (Überlagerungssatz). Man könn-
te also meinen, man müsste nur die Lead-field-Matrix invertieren, und schon erhält
man zu jedem Messsignal durch Multiplikation mit der inversen Lead-field-Matrix die
Quellverteilung.
V⃗ = A ⋅ P⃗ ⇒ P⃗ = A−1 ⋅ V⃗ (10.10)
Leider ist die Sache nicht so einfach: Es handelt sich um ein sogenanntes „schlecht
gestelltes Problem“, d. h., die Zeilen und Spalten der Lead-field-Matrix sind relativ
stark linear abhängig (ill-posed problem). Das führt dazu, dass kleinste Messfehler
gleich zu sehr großen Fehlern in den rekonstruierten Bildern führen.

Inverses Problem: Aufgabe, aus den messbaren Signalen die zugrunde liegende Quelle der Signa-
le zu bestimmen.

Schlecht gestelltes inverses Problem: mathematisches Problem, bei dem kleine Fehler bei den
Messsignalen zu sehr großen Fehlern bei den rekonstruierten Quellen führen.

In der Mathematik gibt es einen Zweig, der sich intensiv mit schlecht gestellten Proble-
men beschäftigt. Von den Ergebnissen dieser Forschung kann man bei der Lösung die-
ses inversen Problems profitieren. Aus der Mathematik lernt man zunächst, dass eine
420 | Olaf Dössel

Singulärwertezerlegung (Singular Value Decomposition, SVD) der Lead-field-Matrix


eine Aussage darüber macht, wie schlecht gestellt das Problem ist:

w1 0 0
. .. .. T
A = U ⋅ ( .. . . )⋅V (10.11)
0 0 wN

wobei U und V orthonormale Matrizen und wi die Singulärwerte der Matrix A sind. Sie
werden immer der Größe nach sortiert, angefangen mit dem größten Singulärwert. Je
schneller die Singulärwerte abfallen, desto schlechter ist das Problem gestellt. Leider
fallen die Singulärwerte bei dem hier vorliegenden inversen Problem vergleichswei-
se schnell, es handelt sich also um ein ziemlich schlecht gestelltes Problem. Das gilt
leider auch noch, wenn man die Elektroden- bzw. Magnetometeranordnung optimiert
oder die Zahl der Sensoren weiter erhöht.

Regularisieren: Technik zum Umgang mit Singularitäten bzw. schlecht konditionierten Problemen.
Ist ein inverses Problem „schlecht gestellt“, so kann man äußere Bedingungen an die Lösung stel-
len, die zu einer stabilen Lösung führen. Die Lösung ist nur dann richtig, wenn diese Bedingungen
auch zutreffend sind.

Der Ausweg aus dem Dilemma: Man macht Annahmen über die Lösung, die in der Re-
gel erfüllt sind. Das nennt man „Regularisieren“. Eine besonders häufig verwendete
Annahme ist die Folgende: Man sucht die Lösung mit der kleinsten Norm:

√∑ p2i = minimal (10.12)

In ähnlicher Weise kann man eine Lösung suchen, die besonders glatt ist, z. B. indem
man fordert, dass der Laplace-Operator angewendet auf die Lösung einen besonders
kleinen Beitrag liefert. Beide Regularisierungsmethoden gehören zur Klasse der soge-
nannten Tikhonov-Regularisierer, deren Zielgröße folgendermaßen definiert ist:
Nehme die Lösung, bei der F minimal ist:
󵄩󵄩 󵄩󵄩 󵄩󵄩 󵄩󵄩
F = 󵄩󵄩󵄩V⃗ − A ⋅ P⃗ 󵄩󵄩󵄩 + 𝜆 󵄩󵄩󵄩L ⋅ P⃗ 󵄩󵄩󵄩 (10.13)
󵄩 󵄩 󵄩 󵄩
wobei P für die Quellverteilung steht und L für einen linearen Operator (z. B. die
Einheitsmatrix, was zur Lösung mit der kleinsten Norm führt, oder der Laplace-
Operator). Damit sucht man eine Lösung, die einerseits so gut wie möglich zu den
Messdaten passt (der erste Term der Summe) und gleichzeitig eine Bedingung erfüllt
(zweiter Teil der Summe), wobei das Gewicht zwischen den beiden Summanden durch
den Regularisierungsparameter 𝜆 eingestellt wird. Tikhonov konnte zeigen, dass die
Lösung dieser Aufgabe immer folgendermaßen berechnet werden kann:
̃ −1
P⃗ = (AT ⋅ A + 𝜆LT L) ⋅ AT ⋅ V⃗ (10.14)
10 Abbildung bioelektrischer Quellen | 421

Die Matrix, mit der man die Messwerte multiplizieren muss, um eine Schätzung der
Quellen zu erhalten, wird auch „Pseudoinverse“ genannt.
In der aktuellen Forschung werden viele andere Regularisierungsmethoden
ausprobiert. Einen Überblick über die vielfältigen Algorithmen für die EEG-Quellen-
lokalisierung gibt der Artikel von [Michel 2004], einen entsprechenden Überblick für
das inverse Problem der Elektrokardiographie findet man bei [Dössel 2000].
Bei der Quellenrekonstruktion im Gehirn ist der Vergleich mit Bildern der funktio-
nellen Magnetresonanztomographie fMRI (s. 󳶳Kap. 9.9.1) besonders interessant. Die
Methode der fMRI bildet Veränderungen in der Versorgung von Hirngebieten mit sau-
erstoffreichem Blut ab. Die Abbildung bioelektrischer Quellen zeigt elektrophysiolo-
gische Aktivitäten. Beides geht oft, aber nicht immer Hand in Hand.

10.7 Applikationen in der Medizin


In der Neurologie werden mit diesen Methoden fokale epileptische Zentren lokalisiert.
Es gelingt auch, die funktionellen Areale im Gehirn abzubilden, um bei der Planung
eines neurochirurgischen Eingriffs den schonendsten Zugangsweg zu finden. In For-
schungsprojekten werden die Auswirkungen eines Schlaganfalls auf die Hirnfunktion
untersucht [Michel 2004].
In der Kardiologie können ektope Zentren geortet werden. Es können zusätzli-
che Leitungsbahnen zwischen den Vorhöfen und den Ventrikeln (accessory pathways,
Wolf-Parkinson-White-Syndrom) und Austrittsstellen der Depolarisationswelle bei Pa-
tienten mit ventrikulären Tachykardien gefunden werden. Ziel der Forschung ist es au-
ßerdem, die elektrophysiologischen Konsequenzen eines Herzinfarktes abzubilden,
um so die Gefahr für lebensbedrohliche Rhythmusstörungen abschätzen zu können
[Wang 2011]. 󳶳Abb. 10.8 zeigt die Rekonstruktion eines sogenannten Austrittspunktes
(exit-point), über den bei einer ventrikulären Tachykardie der Rückkopplungspfad ge-
schlossen wird. Eine RF-Ablation dieses Gebietes führt mit großer Wahrscheinlichkeit
zu einer dauerhaften Unterbrechung dieser Tachykardie.
Die Methode der Abbildung bioelektrischer Quellen mithilfe der elektrischen und
magnetischen Signale hat noch nicht den Weg in die klinische Praxis geschafft; es gibt
aber viele Studien, in denen konkrete klinische Anwendungen untersucht werden.
In der Grundlagenforschung hat die Methode bereits einen festen Platz. Insbe-
sondere die Hirnforschung wird an vielen Forschungszentren mit dem EEG oder MEG
„source imaging“ wesentlich unterstützt. So untersucht man beispielsweise an meh-
reren Zentren kognitive Prozesse im Gehirn mithilfe der Magnetoenzephalographie.
422 | Olaf Dössel

LV LV

RV

Aktivierungszeit in ms Aktivierungszeit in ms
100 100

0 123 0 123

LV

RV

107 ms: TMV in mV


–40 0 40

–50 50

Abb. 10.8: Durch Lösen des inversen Problems rekonstruierte epikardiale Aktivierungszeit (oben
rechts, grau: ohne signifikante Aktivierung) und rekonstruierte Transmembranspannungen (TMV,
unten rechts). Gemessene endokardiale Aktivierungszeiten (oben links) und ein einzelner EKG-
Kanal, der die ventrikuläre Tachykardie zusammen mit der Aufnahme des Body Surface Potential
Map zeigt (unten links). In den gemessenen und rekonstruierten Aktivierungszeiten ist der Austritts-
punkt der Depolarisierung als Gebiet der frühesten Aktivierung rot zu erkennen [Schulze 2012].
10 Abbildung bioelektrischer Quellen | 423

Quellenverzeichnis
Babiloni F., Babiloni C., Carducci F., Romani G. L., Rossini P. M., Angelone L. M., Cincotti F.:
Multimodal integration of EEG and MEG data: a simulation study with variable signal-to-noise
ratio and number of sensors. Human Brain Mapping 2004; 22: 52–62.
Dössel O.: Inverse problem of electro- and magnetocardiography: Review and recent progress. Int J
Bioelectromagnetism 2000; 2: number 2.
Geselowitz D.: On the theory of the electrocardiogram. Proceedings of the IEEE 1989; 77: 857–876.
Hämäläinen M.: Functional localization basesd on measurements with a whole-head magnetometer
system. Brain Topography 1995; 7: 283–289.
Koch H.: Recent Advances in Magnetocardiography. Journal of Electrocardiology 2004; 37:117–122.
Malmivuo J.: Comparison of the properties of EEG and MEG in detecting the electric activity of the
brain. Brain Topogr 2012; 25: 1–19.
Michel C. M., Murray M. M., Lantz G., Gonzalez S., Spinelli L., Grave de Peralte R: EEG source
imaging. Clinical Neurophysiology 2004; 115: 2195–2222.
Schulze W. H. W., Chen Z., Dössel O., Relan J., Karim R., Sohal M., et al.: unpublished results.
EUHeart Projekt 2012.
Wang Y., Cuculich P. S., Zhang J., Desouza K. A., Vijayakumar R., Chen J., et al.: Noninvasive
electroanatomical mapping of the human ventricular arrhythmias with electrocardiographic
imaging (ECGI). Sci Transl Med 2011; 3: 98ra84.

Weiterführende Literatur
Gulrajani R. M.: Bioelectricity and biomagnetism. New York: John Wiley & Sons, 1998.
He B.: Modeling and imaging of bioelectrical activity. New York: Kluwer Academic Publishers, 2010:
Macfarlane P., van Oosterom A., Pahlm O., Kligfield P., Janse M., Camm J.: Comprehensive
electrocardiology, Vol. 1. London: Springer, 2010.
Malmivuo J., Plonsey R.: Bioelectromagnetism. New York: Oxford University Press, 1995.
Niedermeyer E., Lopes da Silva F.: Electroencephalography. Philadelphia: Lippincott Williams &
Wilkins, 2005.
Nunez P. L., Srinivasan R.: Electric fields of the brain – the neurophysics of EEG. New York: Oxford
University Press, 2006.
Schmidt R. F., Lang F., Thews G.: Physiologie des Menschen. Heidelberg: Springer, Medizin Verlag,
2005.
Schuster H. P., Trappe H. J.: EKG-Kurs für Isabel. Stuttgart, New York: Thieme, 2001.
424 | Olaf Dössel

Testfragen
1. Was ist die Transmembranspannung einer Zelle? Welchen Wert hat sie typisch (in Ruhe)?
2. Was versteht man unter einem Aktionspotential? Zeichnen Sie den typischen Verlauf des Akti-
onspotentials einer Nerven- und einer Herzmuskelzelle.
3. Skizzieren Sie ein typisches Elektrokardiogramm eines gesunden Probanden, beschriften Sie
die Achsen und bezeichnen Sie die verschiedenen Komponenten des Signals.
4. Was ist ein Stromdipol und in welcher Einheit wird er gemessen? Welche elektrische Potential-
verteilung erzeugt ein einzelner Stromdipol in einem homogenen großen Volumenleiter (Skizze
und Vergleich)?
5. Was versteht man unter einem „uniform double layer“?
6. Was versteht man unter dem „lead field“? Wie kann man mithilfe des Reziprozitätstheorems das
lead field eines Elektrodenpaars berechnen?
7. Was ist ein schlecht gestelltes inverses Problem? Was versteht man unter der Regularisierung?
Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert
11 Magnetic Particle Imaging

11.1 Einführung | 426


11.2 Geschichte des Magnetic Particle Imaging | 427
11.3 Funktionsweise des MPI | 428
11.4 Von Daten zu Bildern – Rekonstruktion | 434

Zusammenfassung: Im Vergleich zu den etablierten Methoden für die medizinische


Bildgebung ist Magnetic Particle Imaging (MPI) recht jung. MPI wurde 2001 von Bern-
hard Gleich und Jürgen Weizenecker erfunden, die 2005 erstmalig über dieses
neue Verfahren berichteten. Die Technik bietet eine einzigartige Kombination von
Merkmalen: Sie ist inhärent quantitativ, verspricht gute räumliche und zeitliche Auf-
lösungen sowie hohe Sensitivität. MPI ist eine quantitative Bildgebungsmethode,
die das nichtlineare Magnetisierungsverhalten magnetischer Nanopartikel nutzt, um
deren lokale Konzentration zu bestimmen.

Abstract: Compared to the matured methods of medical imaging, Magnetic Particle


Imaging (MPI) is quite new. MPI has been invented by Bernhard Gleich and Jürgen
Weizenecker in 2001, who reported about this novel method for the first time in 2005.
The technique offers a unique combination of properties: it is inherently quantitative,
promises a good spatial and temporal resolution as well as high sensitivity. MPI uses
the non-linear magnetization behavior of magnetic nanoparticles to determine their
local concentration.
426 | Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert

11.1 Einführung
Magnetic Particle Imaging (MPI) ist eine quantitative Bildgebungsmethode, die das
nichtlineare Magnetisierungsverhalten magnetischer Nanopartikel nutzt, um deren
lokale Konzentration zu bestimmen. Hierfür eignen sich superparamagnetische Ei-
senoxidpartikel (SPIO). SPIOs sind als klinisch geprüfte Kontrastmittel für Leber-
untersuchungen durch die Magnetresonanztomographie (MRT) problemlos erhältlich
und werden normalerweise über intravenöse Injektionen in die Blutbahn eingebracht.
Im Vergleich zu den etablierten Methoden für die medizinische Bildgebung ist
MPI recht jung. MPI wurde 2001 von Bernhard Gleich und Jürgen Weizenecker
erfunden, die 2005 erstmalig über dieses neue Verfahren berichteten [Gleich und
Weizenecker 2005]. Die Methode bietet eine einzigartige Kombination von Merkma-
len:
– Die MPI-Messung ist inhärent quantitativ: Sie misst direkt, wie viel Material an
einem bestimmten Ort vorhanden ist. Die Korrelation von Bildsignal und Materi-
alkonzentration ist aus Verfahren der Nuklearmedizin wie PET und SPECT gut be-
kannt. Diese Ähnlichkeit ist der Grund dafür, dass Kontrastmittel im MPI-Kontext
ebenfalls als Tracer bezeichnet werden.
– Darüber hinaus verspricht MPI gute räumliche und zeitliche Auflösungen. Im
Vergleich zur MRT weist MPI eine etwa zehnfach höhere Voxel-Rate auf (Zahl
der vermessenen Volumenelemente pro Sekunde). Dieser Vorteil kann für die
3D-Echtzeit-Darstellung genutzt werden.
– MPI realisiert die direkte Bildgebung der Partikel über die Messung der magneti-
schen Eigenschaften. So kann die Empfindlichkeit von MPI beim Erfassen von Ei-
senoxid die Empfindlichkeit der Magnetresonanztomographie (MRT) um mehrere
Zehnerpotenzen übertreffen, da die MRT nur ein indirektes Verfahren zur Bestim-
mung der Eisenoxidkonzentration nutzt, bei dem der Einfluss der Partikel auf das
Relaxationsverhalten von Protonen bestimmt wird.
– Da MPI verschiedene statische und oszillierende magnetische Felder für die Mes-
sung nutzt, kommt sie – anders als die Computertomographie (CT) oder andere
auf Röntgen- oder Gammastrahlen basierende Methoden – völlig ohne ionisieren-
de Strahlung und auch ohne die Strahlungsquellen aus, die für PET und SPECT
erforderlich sind.

Nach einem kurzen Überblick über die Geschichte der Erfindung und der weiterfüh-
renden Forschungsarbeiten an MPI sollen hier vor allem die grundlegenden techni-
schen Konzepte vorgestellt werden. Neben der Erfassung der Magnetisierungsmessda-
ten wird schwerpunktmäßig darauf eingegangen, aus den Daten Bilder zu erzeugen.
11 Magnetic Particle Imaging | 427

11.2 Geschichte des Magnetic Particle Imaging


Das Magnetic Particle Imaging (MPI) wurde in seiner ursprünglichen Form im Jahr
2001 entdeckt. Nach einer ersten Veröffentlichung als Patentschrift [Gleich 2001]
wurden die Ergebnisse statischer 2D-Messungen an unverdünntem Resovist® [Gleich
und Weizenecker 2005] publiziert. Nachdem die zweidimensionale Abbildung von
Phantomen, die mit magnetischem Material gefüllten waren, auf eine dynami-
sche Bilderfassung [Gleich 2008] ausgedehnt werden konnte, zeigte Weizenecker
[Weizenecker 2009] dreidimensionale In-vivo-Aufnahmen unter Verwendung klinisch
zulässiger Tracerkonzentrationen. Im gleichen Jahr präsentierte Goodwill eine alter-
native Herangehensweise, das sogenannte Schmalband-MPI [Goodwill 2009]. Diese
bietet Möglichkeiten für eine empfindlichere Bildgebung, während die früheren Ver-
suche von Gleich und Weizenecker darauf abzielten, die Möglichkeiten der MPI für
die Echtzeit-Bilderfassung nachzuweisen.
Neben den experimentellen Arbeiten wurden auch wichtige theoretische Unter-
suchungen publiziert, um das Potential des MPI auszuloten. Beginnend im Jahre 2007,
veröffentlichten Weizenecker et al. eine Simulationsstudie, welche die Bewertung der
Bildqualität eines virtuellen MPI-Scanners unter Berücksichtigung unterschiedlicher
Partikelmerkmale und -konzentrationen berücksichtigte [Weizenecker 2007]. 2009
weiteten Knopp et al. diese Evaluierung auf unterschiedliche Bahnen des feldfreien
Punktes und ihren Einfluss auf das Bild aus [Knopp 2009]. Um nachzuweisen, dass
neue Systemtopologien die Leistung des Verfahrens steigern können, präsentierten
Weizenecker et al. einen Ansatz, bei dem eine feldfreie Linie anstelle eines feldfreien
Punktes verwendet wird [Weizenecker 2008]. Darüber hinaus konnten Knopp et al.
den Nachweis erbringen, dass eine feldfreie Linie tatsächlich realisierbar ist [Knopp
2010]. Unter Nutzung der Flexibilität des Magnetic Particle Imaging im Hinblick auf
unkonventionelle Systemtopologien veröffentlichten Sattel et al. erste Entwicklungs-
ergebnisse zur Konstruktion eines einseitigen MPI-Scanners [Sattel 2008].
Ebenfalls 2008 präsentierten Biederer et al. die Konstruktion eines Magnetparti-
kel-Spektrometers [Biederer 2008] und die Ergebnisse von dessen Einsatz bei der Ana-
lyse und Charakterisierung magnetischer Nanopartikel [Biederer 2009].
Beispielhaft für andere Anwendungen des Magnetic Particle Imaging verwendete
die Gruppe von Weaver et. al. das MPI für Temperaturmessungen. Bereits 2007 legten
sie die technischen Voraussetzungen offen und präsentierten einen neuen Ansatz für
ein Magnetpartikel-Spektrometer [Weaver 2007, 2008]. Sie arbeiteten an einer Erweite-
rung von MPI zur Verbesserung von Temperaturmessungen anhand des Vergleichs der
Stärke verschiedener Harmonischer. Unabhängig davon präsentierten Moreland et al.
einen auf einem Cantilever-Drehmomentmagnetometer basierenden Ansatz zur Rea-
lisierung eines Gradientenwertes des Auswahlfeldes von über 100 T/m/𝜇0 , um damit
ein ultrahoch auflösendes Magnetpartikel-Bildgebungssystem für sehr kleine Proben
zu realisieren [Moreland 2007]. 2008 begannen Bohnert et al. damit, über die physio-
logische Kompatibilität des MPI [Bohnert 2008, 2009] zu berichten.
428 | Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert

Auf dem wichtigen Gebiet der Forschung zur MPI-Partikeloptimierung wurden


erste Ergebnisse von Lüdtke-Buzug et. al [Lüdtke-Buzug 2009], Krishnan et al. [Fergu-
son 2009] sowie von Markov et al. [Markov 2008] veröffentlicht. Erste spezielle Erfah-
rungen zur Verwendung von MPI für medizinische Anwendungen wurden von Bulte et
al. [Bulte 2008] präsentiert; sie befassen sich mit dem Einsatz von MPI für das Tracking
von Stammzellen.

11.3 Funktionsweise des MPI


Voraussetzung einer nutzbaren Bildgebung mit magnetischen Nanopartikeln sind
zwei Elemente: Zunächst musste ein Weg gefunden werden, die Partikel zu veran-
lassen, ein charakteristisches Signal abzugeben. Um zu einer quantitativen Methode
zu gelangen, muss dieses Signal Informationen über die Menge des vorhandenen
magnetischen Materials enthalten. Das 󳶳Kap. 11.3.1 erläutert, wie dies bei MPI reali-
siert ist. Zweitens wird ein Verfahren benötigt, mit dem bestimmt werden kann, von
wo dieses Signal in Relation zum Untersuchungsobjekt herkommt. Diesen als räum-
liche Kodierung bezeichneten Vorgang beschreibt 󳶳Kap. 11.3.2. Neben diesen beiden
Grundkomponenten zeigen die 󳶳Kap. 11.3.3. (Anregungsfeld) und 11.3.4. (Fokusfeld)
Verfahren zur Verbesserung der MPI-Leistung im Hinblick auf die Erfassungsge-
schwindigkeit und die Größe des Erfassungsbereiches (Field of View, FOV) auf, also
des Bereiches, der untersucht werden kann.

11.3.1 Signalerzeugung und Signalerfassung: das Modulationsfeld

Eines der magnetischen Materialien, die für MPI geeignet sind, ist das Eisenoxid, das
normalerweise in Form von Nanopartikeln verfügbar gemacht wird. Eine grundlegen-
de Theorie zur Beschreibung der Magnetisierung kleiner Monodomänen-Partikel ist
die Langevin-Theorie, die zur Voraussetzung macht, dass sich die Partikel jeder-
zeit im thermischen Gleichgewicht befinden. Die Beziehung zwischen dem externen
Magnetfeld und der Magnetisierung des Partikels ist nicht durchgehend linear, son-
dern sie hat, wie in 󳶳Abb. 11.1 dargestellt, nichtlineare Bereiche. Wenn das externe
Feld vom Wert Null aus ansteigt, zeigt die Magnetisierung einen starken Anstieg, bis
sie schnell in die Sättigung gerät. Im thermischen Gleichgewicht gibt es dabei keine
Hystereseeffekte.
In seiner Grundform nutzt MPI Sendespulen, um durch ein zeitabhängiges ex-
ternes Feld die Magnetisierung der Nanopartikel zu ändern. Gleichzeitig wird diese
Änderung der Magnetisierung über die in den Empfangsspulen induzierte Spannung
erfasst. Wenn man für einen Moment annimmt, dass die Beziehung zwischen dem
externen Feld und der Magnetisierung der Partikel linear wäre, würde die induzierte
Spannung tatsächlich dem Amplitudenverlauf des externen Feldes ähneln. Im Fre-
11 Magnetic Particle Imaging | 429

M(H)

Partikel nicht
im Sättigungsbereich Partikel im
Sättigungsbereich

Partikel im externes
Sättigungsbereich magnetisches Feld

Abb. 11.1: Die Beziehung zwischen dem externen magnetischen Feld (normalerweise gemessen in
A/m oder mT/𝜇0 ) und der Partikel-Magnetisierung. Ist das externe Feld klein, befinden sich die Par-
tikel noch nicht im Bereich der magnetischen Sättigung, entsprechend zeigt die Magnetisierung
einen steilen Anstieg. Bei stärkeren externen Feldern gelangen die Partikel in den Sättigungsbe-
reich und eine weitere Steigerung der Feldstärke führt kaum noch zu einer Steigerung der Magneti-
sierung.

quenzbereich würde das gesendete ebenso wie das empfangene Signal als singulärer
Peak bei der Anregungsfrequenz erscheinen, die als Grundfrequenz bezeichnet wird.
Da die Beziehung aber nicht linear ist, kommen im Spektrum des Empfangssignals
Komponenten mit höherer Frequenz hinzu, die Harmonischen, deren Frequenzen ein
Vielfaches der Grundfrequenz sind. Das Vorhandensein dieser Harmonischen ist ein
Anzeichen für das Vorhandensein von magnetischem Material. Der gesamte Satz aller
Harmonischen stellt das spezifische MPI-Signal dar.
Das zeitabhängige externe Feld, das periodisch die Magnetisierung der Nanopar-
tikel ändert, wird Modulationsfeld genannt. Seine Frequenz liegt normalerweise im
Bereich von mehreren zehn bis zu über hundert Kilohertz, wobei die ersten veröffent-
lichten Ergebnisse eine Frequenz von 25 kHz nennen [Gleich und Weizenecker 2005].
Diese Frequenzen sind für das menschliche Ohr normalerweise nicht wahrnehmbar,
der Betrieb eines entsprechenden Scanners ist deshalb kaum hörbar. Die Nutzung hö-
herer Frequenzen kann insofern vorteilhaft sein, als dass das Rauschen der Empfän-
gerelektronik in vielen Fällen durch ein 1/f -Verhalten dominiert ist. Andererseits gibt
es physiologische Grenzen dafür, den menschlichen Körper elektromagnetischen Fel-
dern auszusetzen. Eine dieser Grenzen ist die Energieaufnahme. Sie ist proportional
zum Quadrat der Amplitude und der Frequenz des Feldes und setzt dadurch der Ver-
wendung höherer Frequenzen für das Modulationsfeld Grenzen.
Für eine ausreichende Nutzbarkeit muss die Amplitude des Modulationsfeldes
groß genug sein, um sicherzustellen, dass die Magnetisierungsstärke in die nichtli-
nearen Bereiche vordringt, bestenfalls bis fast in die Sättigung. Je größer die Amplitu-
de, umso deutlicher werden die höheren Harmonischen im Empfangsspektrum, also
430 | Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert

das spezifische MPI-Signal. Technisch realisierbare Amplituden liegen im Bereich von


mehreren mT/𝜇0 bis hin zu 20 mT/𝜇0 .
Um Informationen über die exakte Menge des magnetisierbaren Materials zu er-
halten, um also eine quantitative Messung durchzuführen, genügt es, die Amplitude
nur einer ausgewählten Harmonischen aus dem Spektrum zu messen. Eine geeignete
Kalibrierungsmessung mit einer genau bekannten Menge magnetischen Materials vor-
ausgesetzt, ist die Amplitude der ausgewählten Harmonischen im Verhältnis zu ihrem
Messwert bei der Kalibrierungsmessung proportional zur vorhandenen Eisenmenge.
Dabei ist es obligatorisch, alle Parameter, wie etwa die Feldstärke des Modulations-
feldes, über beide Messungen konstant zu halten.

11.3.2 Räumliche Kodierung: Das Selektionsfeld

Wenn eine Anordnung der oben beschriebenen Art genutzt wird, bei der ein Modula-
tionsfeld mit ausreichender Amplitude den Untersuchungsbereich durchdringt, lässt
sich leicht angeben, ob magnetisches Material vorhanden ist oder nicht. Dabei ist es
allerdings nicht möglich festzustellen, wo genau sich das magnetische Material befin-
det und wie viel Material an einem bestimmten Ort vorhanden ist. Was bislang noch
fehlt, ist ein Weg, die räumliche Verteilung des magnetischen Materials zu ermitteln.
Erreicht wird dies durch die Einführung eines Wechselwirkungsfeldes, das so ge-
staltet ist, dass eine Eingrenzung des Ortes der Signalquelle möglich wird, der Ur-
sprung des MPI-Signals also auf einen sehr kleinen Bereich limitiert wird. Im Zusam-
menhang mit MPI wird dieses Feld als Selektionsfeld bezeichnet. Bei einer Realisie-
rung mit Spulen müssen die Spulenströme hierfür einfach eine gegenläufige Richtung
aufweisen. Bei der Verwendung von Permanentmagneten müssen gleiche Pole ein-
ander gegenüber stehen. Im Gegensatz zum Modulationsfeld, das überall etwa den
gleichen Feldvektor hat, hat das Selektionsfeld positionsabhängige Feldvektoren. Im
Feld gibt es darüber hinaus einen besonderen Punkt, den feldfreien Punkt (FFP),
der sich dadurch auszeichnet, dass die Feldstärke bzw. der Feldvektor hier gleich Null
ist (󳶳Abb. 11.2). Bei Entfernung vom feldfreien Punkt FFP steigt die Feldstärke schnell
auf von Null abweichende Werte an. Indem entweder ausreichend hohe Ströme oder
ausreichend starke Permanentmagnete verwendet werden, lässt sich das Selektions-
feld so gestalten, dass die Magnetisierung der Nanopartikel mit wachsender Entfer-
nung vom FFP schnell in den Sättigungsbereich gelangt. In diesem Fall führt das auf
die Partikel einwirkende Modulationsfeld nicht zu einer hinreichenden Änderung der
Magnetisierung (󳶳Abb. 11.3). Folglich ist fast überhaupt kein MPI-Signal messbar und
das entsprechende Spektrum zeigt nur die Grundfrequenz des Modulationsfeldes.

Feldfreier Punkt (FFP): Nulldurchgang eines magnetischen Gradientenfeldes.

Selektionsfeld: MPI-Verfahren zur Erzeugung eines feldfreien Punktes.


11 Magnetic Particle Imaging | 431

Magnet
S
Spule
N

FFP

Abb. 11.2: Das in einer Maxwell-Konfiguration


mit gegenüberliegenden Magneten bzw. Spu-
len erzeugte magnetische Feld. Rechnerisch
ist die Feldstärke in genau einem Punkt gleich
Null, dem feldfreien Punkt (FFP). Wenn diese
N
Spule Feldkonfiguration mithilfe von Spulen realisiert
S wird, ist zu beachten, dass die Stromlaufrich-
Magnet tung in den Spulen gegenläufig sein muss.

magnetisches FFP-
Material Bewegungs-
bahn

FFP FFP

magnetisches
Material

(a) (b)

tisierung „wechse
agne lt“
Z-M
al in Z-Speicherspule
Sign

Projektion Projektion
zur Z-Achse zur Z-Achse

(c) (d)

Abb. 11.3: Signalerzeugung durch magnetisches Material, das nicht direkt auf dem Weg des feldfrei-
en Punktes (FFP) liegt. Wenn sich der FFP am magnetischen Material vorbeibewegt, ändert sich die
Richtung der Magnetisierung (A zu B). Wenn die Beobachtung auf die z-Komponente der Magneti-
sierung beschränkt wird, kann geschlossen werden, dass die Magnetisierung wechselt (von C zu D),
und dies sogar bei Partikeln, die nicht direkt auf der Bahn des FFP liegen.
432 | Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert

Durch Bewegung des Objektes im Verhältnis zum FFP, also durch Abtasten des Un-
tersuchungsbereiches und Messung des Anteils der höheren Harmonischen an jedem
Messpunkt, kann so das gesamte interessierende Volumen untersucht werden. In die-
ser überaus einfachen Umsetzung eines MPI-Systems wird angenommen, dass ein
Signal ausschließlich auf Partikel zurückgeht, die sich in oder sehr nahe beim feld-
freien Punkt aufhalten, sich daher nicht in Sättigung befinden und deshalb auf das
Modulationsfeld durch eine messbare Änderung ihrer Magnetisierung reagieren. Alle
anderen Partikel reagieren aufgrund ihres magnetischen Sättigungszustandes nicht.
Die Relativbewegung kann problemlos auch in drei Dimensionen erfolgen, was
die einfache Realisierung von MPI-Scannern ermöglicht. Die erste Veröffentlichung zu
MPI [Gleich 2005] zeigt zweidimensionale Bilder, die auf diese Weise erfasst wurden,
die aktuellen Arbeiten von Goodwill et al. [Goodwill 2009] zeigen erste dreidimen-
sionale Bilder. Der größte Nachteil des Verfahrens ist seine geringe Geschwindigkeit.
Die Relativbewegung zwischen Objekt und Feld muss mechanisch umgesetzt werden.
Dies verzögert den gesamten Messvorgang erheblich, was entweder auch bei Messob-
jekten von sehr geringen Maßen zu Messzeiten von mehreren Minuten führt oder aber
zu einer sehr groben räumlichen Auflösung der Messung. Die Folge ist, dass die erfass-
ten Messdaten niemals dafür ausreichen werden, In-vivo-Untersuchungen mit einer
zufriedenstellenden räumlichen und zeitlichen Auflösung durchzuführen. Dies gilt in
besonderem Maße für lebende Messobjekte oder Strukturen, die sich relativ schnell
bewegen, etwa für die Gefäße des Herz-Kreislauf-Systems.

11.3.3 Das Anregungsfeld (drive field)

Der grundlegende MPI-Aufbau, der in 󳶳Kap. 11.3.2 beschrieben wurde, beruht auf der
mechanischen Bewegung des Messobjektes im Verhältnis zum feldfreien Punkt (FFP),
wobei das MPI-Signal vom Modulationsfeld erzeugt wird. Dies führt zu einer sehr lang-
samen Bilderfassung. Um den gesamten Prozess zu beschleunigen, kann man auch
elektromagnetische Felder verwenden, um anstelle des Messobjektes den FFP zu be-
wegen. Dies wurde zunächst für die zweidimensionale Bildgebung in [Gleich 2008]
und schließlich für die dreidimensionale Bildgebung [Weizenecker 2009] eingeführt.
Wenn man die besondere Form des Selektionsfeldes nach 󳶳Abb. 11.2 betrachtet,
wird klar, dass sich die Magnetisierungsrichtung einer Probe magnetischer Nanopar-
tikel verändert, wenn der FFP über die Probe geführt wird. Eine solche Änderung
vollzieht sich aber auch, wenn der FFP mit einem gewissen Abstand am Material vor-
beizieht. Der Wechsel der Magnetisierung hängt also von der relativen Position und
Bewegung des Objektes im Verhältnis zum FFP ab. Da dieser Wechsel in der Magneti-
sierung von der Aufnahmespule genauso erfasst wird wie eine durch das Anregungs-
feld induzierte Änderung, kann die explizite Verwendung des Modulationsfeldes un-
terlassen werden. Dieses neue, den FFP bewegende Feld wird als Anregungsfeld, im
Englischen als drive field, bezeichnet und ersetzt das Modulationsfeld. Tatsächlich
11 Magnetic Particle Imaging | 433

bewegt ein Modulationsfeld hinreichender Feldstärke den FFP bereits erheblich und
kann daher wie ein Anregungsfeld betrachtet werden. Bereits in der ersten Veröffentli-
chung über MPI wurde die Verwendung eines Anregungsfeldes als effizienzsteigernde
Möglichkeit für das bildgebende Verfahren vorgeschlagen. Spätere Varianten des MPI,
z. B. die in [Sattel 2009] vorgestellte einseitige MPI, arbeiten mit einem Anregungsfeld,
das den FFP bewegt und die Magnetisierung des Nanopartikel ändert, ohne dass hier
die langsame und aufwendige mechanische Bewegung des Messobjektes überhaupt
in Betracht gezogen wurde.
Aus dem Vergleich des Gradienten der Feldstärke des Selektionsfeldes im feldfrei-
en Punkt mit den maximalen Feldstärkewerten des Anregungsfeldes, wie sie in der
Literatur [Gleich und Weizenecker 2005] angegeben sind, kann geschlossen werden,
dass der durch eine elektromagnetische FFP-Bewegung abgedeckte Bereich einige we-
nige Zentimeter nicht überschreiten kann. Eine derartige Beschränkung des Untersu-
chungsbereiches ist für medizinische Anwendungen in der allgemeinen Diagnostik
offensichtlich nicht akzeptabel. Hier erwartet man Systeme, die einen ausreichenden
Ausschnitt aus dem menschlichen Körper abdecken, wie dies bei der Magnetresonanz-
tomographie (MRT) oder der Computertomographie (CT) der Fall ist.
Aufgrund der Natur der Maxwell-Gleichungen kann kein Feld mit einem FFP
aufgebaut werden, das in allen drei räumlichen Richtungen den gleichen Gradien-
ten aufweist. Nach 󳶳Abb. 11.2 hat ein Feld, das durch eine Maxwell-Konfiguration
von Spulen oder Permanentmagneten aufgebaut wird, in Längsrichtung einen hohen
Gradienten, z. B. 3 T/m, wenn man beim obigen Beispiel bleibt, und damit in den Axi-
alrichtungen einen Gradienten von 1,5 T/m. Damit ist der Untersuchungsbereich in der
Achse des hohen Gradienten nur halb so groß wie der in den anderen beiden Richtun-
gen. Dies führt zu nichtkubischen Volumenpixeln. Anders gesagt: Basierend auf der
Maxwell-Konfiguration ist die räumliche Auflösung, die vom Gradienten der Feld-
stärke des Selektionsfeldes abhängt, in der Achse des hohen Gradienten doppelt so
hoch wie in der Achse der beiden niedrigeren Feldstärkegradienten.

Steuerungsfeld: MPI-Verfahren zur räumlichen Verschiebung eines feldfreien Punktes.

11.3.4 Das Fokusfeld

Um die Limitierung durch kleine Untersuchungsbereiche zu überwinden, könnte man


einfach die Feldstärke des Anregungsfeldes steigern. Dies stellt bereits technisch eine
Herausforderung dar. Die Nutzung von Feldstärken im Bereich von mehreren Hun-
dert mT/𝜇0 bei Frequenzen von 25 kHz oder mehr führt außerdem zu Energieaufnah-
mewerten im Patienten (spezifische Absorptionsrate; SAR), die über annehmbare
Werte hinausgehen und außerdem eine periphere Nervenstimulation (PNS) verur-
sachen können. Für den Moment reicht die Erkenntnis aus, dass eine Steigerung der
434 | Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert

Amplitude durch eine Reduzierung der Frequenz kompensiert werden muss. Deshalb
wird neben dem Anregungsfeld, dessen Feldstärke auf ca. 20 mT/𝜇0 beschränkt ist,
ein weiterer Satz orthogonaler, homogener Felder aufgebaut, die sogenannten Fokus-
felder. Bei einer Stärke des Fokusfeldes im Bereich von 300 mT/𝜇0 ist das Aufnah-
mefeld in der Achse des stärkeren Feldgradienten von 3 T/m/𝜇0 etwa 20 cm groß, in
Richtung der niedrigen Feldgradienten etwa 40 cm. Die Frequenz des Fokusfeldes ist
jedoch im Vergleich zum Anregungsfeld niedrig. Sie liegt im Bereich von einigen weni-
gen Hertz. Damit kann das Feld nicht für die Bewegung des FFP im gesamten Bereich
der Bildgebung genutzt werden, was zu schlechten Ergebnissen führen würde. Statt-
dessen wird die Bewegung des FFP durch eine Kombination der Wirkung von Fokus-
und Anregungsfeld gesteuert. Dies kann im Multipositionsmodus erfolgen, bei dem
das Fokusfeld die Steuerung des gesamten vom Anregungsfeld abgedeckten quader-
förmigen Volumens an eine bestimmte Stelle im Aufnahmebereich übernimmt und es
dort fixiert, während das Anregungsfeld seine Aufgabe erfüllt.
Das Ergebnis ist die Abdeckung des Untersuchungsbereiches durch einzelne Un-
terbereiche, die jeweils kleine, eigenständige 3D-Bilder darstellen und zu einem kom-
pletten 3D-Datensatz zusammengefügt werden können. Eine weitere Möglichkeit liegt
in der Kombination einer gleichzeitigen Änderung von Fokus- und Anregungsfeld, um
so eine kontinuierliche Bewegung des FFP zu erhalten – den Kontinuitätsmodus. Im
Unterschied zum Multipositionsmodus ist das akquirierte Bild vollständig. Es umfasst
den gesamten Untersuchungsbereich, ist also keine Kombination kleiner Quader.
Neben der reinen Abdeckung des gesamten Untersuchungsbereiches kann das
Fokusfeld auch noch für die Realisierung eines anderen, überaus effektiven Bildge-
bungsmodus genutzt werden. Wenn der Untersuchungsbereich nur ein Teilvolumen
des gesamten Bildfeldes einnimmt und dieses Teilvolumen zudem nicht rechteckig,
sondern Teil einer eher unregelmäßigen 3D-Form ist, kann das Fokusfeld dazu ver-
wendet werden, nur genau jene Quader abzubilden, die im betreffenden Teilvolumens
enthalten sind. So muss ein wesentlich kleinerer Bereich gescannt werden, was die Ef-
fizienz der Bilderfassung steigert.

Fokusfeld: MPI-Verfahren zur räumlichen Verschiebung eines feldfreien Punktes für einen vergrö-
ßerten Erfassungsbereich.

11.4 Von Daten zu Bildern – Rekonstruktion


Die Aufgabe der Rekonstruktion ist es, die bei der Messung erfassten Daten in etwas
für den Anwender Aussagekräftiges zu verwandeln. Meistens ist das Ergebnis bei den
bildgebenden Verfahren ein geordneter Satz von Grauwerten, Triplets oder sogar Mul-
tiplets, welche die Farbe und andere Merkmale des Objektes oder des Phantoms be-
11 Magnetic Particle Imaging | 435

schreiben. Diese Werte werden auf eine Rechteck-Gitterstruktur übertragen und stel-
len im Falle eines 3D-Scans ein Volumen, bei einem 2D-Scan ein Bild dar.
Wenn MPI in seiner einfachsten Form ausgeführt wird, wie es im ersten Teil des
vorhergehenden Unterkapitels beschrieben wurde, ist die Rekonstruktion einfach. Die
Position jedes einzelnen Voxels wird zusammen mit den entsprechenden Konzentra-
tionswerten erfasst, die Daten lassen sich problemlos in einem Volumen bzw. einem
Bild darstellen, abhängig davon, ob die Bahn des feldfreien Punktes zwei- oder drei-
dimensional war.
Wenn MPI unter Berücksichtigung der Aspekte Leistung und Effektivität verwen-
det wird, etwa bei Nutzung eines Anregungsfeldes zur Bewegung des feldfreien Punk-
tes über das Objekt, dann wird ein spezifischer Rekonstruktionsalgorithmus benötigt.
Hauptgrund ist, dass, während der FFP über die Verteilung des magnetischen Mate-
rials bewegt wird, die Aufnahmespulen nicht nur das Signal von dem Material emp-
fangen, das sich direkt am feldfreien Punkt befindet, sondern auch von Material, das
außerhalb des FFP vorliegt.
Zum Verständnis genügt eine genaue Betrachtung des zweidimensionalen Fal-
les: Nimmt man die Geometrie des Selektionsfeldes aus 󳶳Abb. 11.2 wieder auf, kann
man leicht erkennen, dass sich die Feldrichtung des Selektionsfeldes abhängig davon
ändert, ob die beobachtete Position über oder unter einer horizontalen Linie durch
den FFP liegt. Die Einschränkung der Beobachtung auf die z-Komponente des Fel-
des legt darüber hinaus nahe, dass diese Komponente von einem negativen Wert (ge-
gen die Achsenrichtung) zu einem positiven Wert (in Achsrichtung) wechselt. Damit
entspricht der Wechsel der Position von oben nach unten effektiv dem Wechsel des
feldfreien Punktes von unten nach oben. Das Ergebnis des sich bewegenden FFP ist,
dass sich die z-Komponente der Magnetisierung entlang des externen Feldes ausrich-
tet, vorausgesetzt, dass dieses Feld stark genug ist und sich die Magnetisierung selbst
ändert, wie in 󳶳Abb. 11.3 dargestellt. Diese Änderung in der Magnetisierung wird na-
türlich von der z-Empfangsspule erfasst und liefert ein MPI-Signal. Es ist offensicht-
lich, dass ein solches Signal von jedem magnetischen Nanopartikel ausgehen kann,
das sich auf einer Linie befindet, die senkrecht zum Weg des FFP steht, auch wenn
das Signal schwächer wird, je weiter das Material von der FFP-Trajektorie entfernt ist.
Tatsächlich geht also das Signal, das während der Bewegung des FFP aufgezeichnet
wird, auf das gesamte magnetische Material auf dieser Linie zurück.
Um dies in die Rekonstruktion einzubeziehen, muss man sich auf die Tatsache
stützen, dass die MPI-Bildgebung mit einem approximativen linearen Bildgebungs-
modell beschrieben werden kann. Dies impliziert, dass der Einfluss einer Menge
magnetischen Materials auf das resultierende MPI-Signal proportional zu seiner Kon-
zentration ist, also die doppelte Menge zu einem doppelt so großen Signal führt. Dies
ist gerechtfertigt, solange die von der Magnetisierungsänderung im Messobjekt er-
zeugten Felder im Verhältnis zu den äußeren Feldern als klein angenommen werden
können. Die Wirkung eines einzelnen Depots magnetischen Materials auf das Signal
muss also bekannt und proportional zur Konzentration sein. In diesem Fall bildet
436 | Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert

das Gesamtsignal eine Überlagerung aller Signale durch kleine Depots magnetischen
Materials auf der Bahn, die entsprechend ihrer lokalen Konzentration gewichtet sind.
Wenn man dies einen Schritt weiterführt, kann die Kenntnis des Signals, das von
kleinen Depots magnetischen Materials überall innerhalb des Untersuchungsvolu-
mens oder zumindest an Punkten auf einem geeigneten Gitter, welches das Volumen
abdeckt, dazu genutzt werden, für ein unbekanntes Objekt die Konzentrationswerte
auf diesem Gitter zu berechnen. Die hierfür erforderlichen Informationen werden bei
der Kalibrierung mithilfe einer kleinen Sonde aus magnetischem Material gewonnen,
die an geeigneten Punkten innerhalb des Untersuchungsbereiches positioniert wird.
Die Daten, die bei einer einzelnen Messung n von N Gesamtmessungen ermittelt wer-
den, ergeben eine zeitliche Abfolge von K Messwerten, die während der Bewegung des
FFP entlang einer bestimmten Trajektorie gemessen werden. Die Aufnahme bei allen
N Positionen führt zu K × N Werten, die eine Matrix Gkn mit K × N bilden, und die
üblicherweise als Systemfunktion oder Systemmatrix bezeichnet wird.
Ein Objekt kann durch die unbekannten Konzentrationen Cn an allen N Positionen
dargestellt werden, und die Messung dieses unbekannten Objektes, das eine Zeitfol-
ge Uk von K Werten ist, kann als eine Entwicklung der Einträge der Systemfunktion Gkn
wie folgt ausgedrückt werden:
Ukmeasured = ∑ Gkn ⋅ Cn . (11.1)
n

Wenn die Cn so bestimmt werden können, dass die rechte Seite die gemessenen Werte
widerspiegelt, wurde die unbekannte Verteilung von Cn Konzentrationen rekonstru-
iert. Technisch wird dies durch die Minimierung der folgenden Terme im Hinblick auf
Cn im Sinne der kleinsten Quadrate erreicht. Es wird also
󵄩󵄩 󵄩󵄩2
󵄩󵄩 measured 󵄩󵄩
󵄩󵄩Uk − ∑ G ⋅ C n󵄩 󵄩󵄩 = min (11.2)
󵄩󵄩 kn
󵄩󵄩
󵄩 n

bestimmt, was der Lösung eines Satzes linearer Gleichungen Ax = b durch die Inver-
sion von A zu x = A−1 b entspricht.
Abhängig von der Anzahl rekonstruierter Voxel kann das beschriebene mathe-
matische Problem überbestimmt sein, da Gkn aufgrund der großen Anzahl an Mes-
sungen, die während der Erfassung der Systemfunktion zusammengetragen wurden,
mehr Information als nötig enthält – normalerweise ist Gkn keine quadratische Ma-
trix. Die Aufgabe fällt in die Kategorie schlecht gestellter inverser Probleme, daher
ist die Inversion nicht unproblematisch, und es ist nicht sicher, dass ein numerisches
Verfahren auf die eine Lösung hin konvergiert, welche der Verteilung von Cn tatsäch-
lich ähnelt, da Gkn systematische Fehler und Rauschen enthält. Um die Konvergenz
zur gewünschten Lösung sicherzustellen, d. h., das numerische Problem zu stabilisie-
ren, kann die Tikhonov-Regularisierung durch die Hinzufügung eines zusätzlichen
Terms angewandt werden [Press 1992], also die erweiterte Aufgabe
󵄩󵄩 󵄩󵄩2 󵄩󵄩 󵄩󵄩2
󵄩󵄩 measured 󵄩󵄩 󵄩 󵄩
󵄩󵄩Uk − ∑ G ⋅ C 󵄩󵄩 + 𝜆2 󵄩󵄩󵄩∑ 𝛤kn ⋅ Cn 󵄩󵄩󵄩 = min (11.3)
󵄩󵄩󵄩 n
kn n 󵄩
󵄩
󵄩
󵄩
󵄩
󵄩n 󵄩󵄩󵄩
11 Magnetic Particle Imaging | 437

formuliert werden. Die übliche Wahl für 𝛤 ist die Identitätsmatrix, die zu einer Lö-
sung führt, die im Sinne der Norm von Cn minimal ist und sich so in diesem Fall mit
einer Lösung mit der kleinstmöglichen Gesamtkonzentration deckt. Die Tikhonov-
Regularisierung (vgl. 󳶳Kap. 10.6) und vor allem die Wahl der Identitätsmatrix für 𝛤
wird manchmal im Sinne von Bayes verstanden, indem argumentiert wird, dass sie die
Konvergenz hin zu der wahrscheinlichsten Lösung sicherstellt, vorausgesetzt, dass
die in Gkn enthaltenen Fehler und der reale Messvorgang bestimmten statistischen
Regeln unterliegen. Um die Minimierung der letzten Gleichung und damit die Rekon-
struktion umzusetzen, wurden verschiedene Algorithmen wie das Konjugierten-Gra-
dienten-Verfahren sowie algebraische Rekonstruktionsmethoden vorgeschlagen und
analysiert, so beispielsweise in [Weizenecker 2009] und [Knopp 2009].¹

Quellenverzeichnis
Biederer S., Knopp T., Sattel T. F., Lüdtke-Buzug K., Gleich B., Weizenecker J., et al.: Magnetization
response spectroscopy of superparamagnetic nanoparticles for magnetic particle imaging.
Journal of Physics D: Applied Physics 2009; 42 (20): 1–7.
Biederer S., Sattel T. F., Knopp T., Lüdtke-Buzug K., Gleich B., Weizenecker J., et al.: A spectrometer
for magnetic particle imaging. Proc. 4th European Congress for Medical and Biomedical
Engineering. Springer IFMBE Series 2008; 22: 2313–2316.
Bohnert J., Gleich B., Weizenecker J., Borgert J., Dössel O.: Evaluation of induced current densities
and SAR in the human body by strong magnetic fields around 100 kHz. IFMBE Proceedings
2008; 2532–2535.
Bohnert J., Gleich B., Weizenecker J., Borgert J., Dössel O.: Optimizing coil currents for reduced SAR
in magnetic particle imaging. IFMBE Proceedings 2009; 249–252.
Bulte J. W. M., Gleich B., Weizenecker J., Bernard S., Walczak P., Markov D. E., et al.: Developing
cellular MPI: Initial Experience. ISMRM, Proceedings of the International Society for Magnetic
Resonance in Medicine 2008; 16: 1675.
Ferguson M. R., Minard K., Krishnan K. M.: Optimization of nanoparticle core size for magnetic
particle imaging; Journal of Magnetism and Magnetic Materials 2009; 10: 1548–1551.
Gleich B., Weizenecker J., Borgert J.: Experimental results on fast 2D-encoded magnetic particle
imaging. Phys Med Biol 2008; 53: N81–N84.
Gleich B., Weizenecker J.: Tomographic imaging using the nonlinear response of magnetic particles.
Nature 2005; 435: 1214–1217.
Gleich B.: German Patent No. DE-10151778-A1, 2001.

1 Danksagung: Die Autoren danken Sven Biederer, Maren Bobek, Claas Bontus, Marlitt Erbe, Jürgen
Kanzenbach, Tobias Knopp, Michael Kuhn, Kerstin Lüdtke-Buzug, Jürgen Rahmer, Timo Sattel, Ingo
Schmale, Joachim D. Schmidt, Jürgen Weizenecker und Oliver Woywode für wichtige Gespräche und
Hinweise. Die Autoren danken insbesondere für die finanzielle Unterstützung durch das Bundesmi-
nisterium für Bildung und Forschung (BMBF-Förderkennzeichen: 01EZ0912, 13N11086, 13N11090 In-
novationswettbewerb Medizintechnik), der Europäischen Union sowie dem Land Schleswig-Holstein
(Zukunftsprogramm Wirtschaft Förderkennzeichen: 122-10-004).
438 | Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert

Goodwill P., Lee G. C., Scott G., Stang P., Conolly S.: Direct imaging of ferumoxides using magnetic
particle imaging: sensitivity, and instrument construction. Proceedings 17th Scientific Meeting,
International Society for Magnetic Resonance in Medicine 2009; 1217: 3153.
Goodwill P., Scott C., Stang P., Conolly S.: Narrowband magnetic particle imaging. IEEE Transactions
on Medical Imaging 2009; 28 (8): 1231–1237.
Goodwill P., Scott G., Stang P., Lee G. C., Morris D., Conolly S.: Direct imaging of SPIOs in mice using
magnetic particle imaging: instrument construction and 3D imaging. Proceedings 17th
Scientific Meeting, International Society for Magnetic Resonance in Medicine 2009; 1217: 3153.
Knopp T., Biederer S., Sattel TF., Weizenecker J., Gleich B., Borgert J., Buzug T. M.: Trajectory analysis
for magnetic particle imaging. Phys Med Biol 2009; 54 (2): 385–397.
Knopp T., Sattel T. F., Biederer S., Rahmer J., Weizenecker J., Gleich B., Borgert J., Buzug T. M.:
Model-based reconstruction for magnetic particle imaging. IEEE Trans Med Imag 2010; 29 (1):
12–18.
Knopp T., Sattel T. F., Biederer S., Weizenecker J., Gleich B., Borgert J., Buzug T. M.: 2D model-based
reconstruction for magnetic particle imaging. Medical Physics 2010; 37: 485–491.
Lüdtke-Buzug K., Biederer S., Sattel T. F., Knopp T., Buzug T. M.: Particle-size distribution of dextran-
and carboxydextan-coated superparamagnetic nanoparticles for magnetic particle imaging.
World Congress on Medical Physics and Biomedical Engineering, Springer IFMBE Series 2009;
25/VIII: 226–229.
Markov D. E., Haex N. P. M., van Zanten J., Grull H., Boeve H. M. B.: Magnetic particle imaging:
quantitative assessment of tracer performance. 7th Int. Conf. on the Scientific and Clinical
Applications of Magnetic Carriers, Vancouver 2008.
Moreland J., Eckstein J., Lin Y., Liou S.-H., Ruggiero S.: Magnetic particle imaging with a cantilever
torque magnetometer; 2007 APS March Meeting,
meetings.aps.org/Meeting/MAR07/Event/62054, 2007, abstract #U38.010. Zugriff:
19.06.2012.
Press W., Teukolsky S., Saul W., Flannery B.: Numerical recepies in C: the art of scientific computing.
Cambridge, New York: Cambridge University Press, 1992.
Sattel T. F., Knopp T., Biederer S., Gleich B., Weizenecker J., Borgert J., Buzug T. M.: Single-sided
device for magnetic particle imaging. Journal of Physics D: Applied Physics 2009; 42 (2): 1–5.
Waever J. B., Rauwerdink A. M., Sullivan C. R., Baker I.: Signal dependence on frequency in magnetic
particle imaging. Med Phys 2007; 34 (6): 2361.
Weaver J. B., Hansen E. W., Rauwerdink A. M.: Estimating temperature from the magnetic
nanoparticle magnetization. Med Phys 2008; 35 (6): 2907–2908.
Weaver J. B., Rauwerdink A. M., Sullivan C. R., Baker I.: Frequency distribution of the nanoparticle
magnetization in the presence of a static as well as a harmonic magnetic field. Med Phys 2008;
35 (5): 1988–1995.
Weaver J. B., Rauwerdink A. M.: An alternative spatial encoding method for magnetic nanoparticle
imaging. Med Phys 2008; 35 (6): 2642.
Weizenecker J., Borgert J., Gleich B.: A simulation study on the resolution and sensitivity of magnetic
particle imaging. Phys Med Biol 2007; 52: 6363–6374.
Weizenecker J., Gleich B., Borgert J.: Magnetic particle imaging using a field free line. J Phys D: Appl
Phys 2008; 41: 105009.
Weizenecker J., Gleich B., Dahnke H., Rahmer J., Borgert J.: Three-dimensional real-time in vivo
magnetic particle imaging. Phys Med Biol 2009; 54: L1–L10.
11 Magnetic Particle Imaging | 439

Testfragen
1. Skizzieren Sie eine typische Magnetisierungskurve von magnetischen Nanopartikeln.
2. Wozu wird ein „feldfreier Punkt“ benötigt und wie wird er erzeugt?
3. Wozu benötigt man ein „Modulationsfeld“ und wozu benötigt man ein „Anregungsfeld“ (drive
field)? Warum kann man auf das Modulationsfeld auch verzichten?
4. Welche Trajektorien des feldfreien Punktes sind vorteilhaft?
5. Wie erreicht man eine quantitative Darstellung der Konzentration von Nanopartikeln? Was ist die
Systemfunktion und wie kann man sie bestimmen?
Olaf Dössel
12 Impedanztomographie

12.1 Die Impedanz von Körpergewebe | 442


12.2 Messsysteme mit Elektroden | 444
12.3 Bildrekonstruktion | 446
12.4 Alternative Messsysteme | 450
12.5 Anwendungen der Impedanztomographie in der Medizin | 451

Zusammenfassung: Der Körper des Menschen ist eine Leiter für elektrischen Strom. Je-
der Gewebetyp hat eine etwas andere Leitfähigkeit. Auch unterscheidet sich die Leit-
fähigkeit von gesundem und krankem Gewebe oft. Daraus resultiert die Motivation,
Bilder der Impedanz vom Körper zu erstellen. Die elektrische Impedanz von Körper-
gewebe und deren Frequenzabhängigkeit wird vorgestellt. Mit welchen Messverfahren
und Messsystemen arbeitet man bei der Impedanztomographie und was sind die wich-
tigsten Rekonstruktionsalgorithmen? Neuerdings werden auch alternative Verfahren
wie z. B. induktive Messsysteme untersucht. Das Kapitel endet mit den wichtigsten
Anwendungen der Impedanztomographie in der Medizin.

Abstract: The human body is a conductor for electric currents. Every type of tissue
has its own conductivity, and healthy tissue often shows different conductivities
from diseased tissue. Consequently depicting images of the electrical impedance of
the body can be used for diagnosis. Here, the electrical impedance of tissue and its
frequency dependence are presented. What methods and systems are employed to
measure in impedance tomography, and what are the most important reconstruction
algorithms? Lately, alternative techniques such as inductive measuring systems are
also being investigated. Finally the most important applications of impedance tomo-
graphy in medicine are shown in this chapter.
442 | Olaf Dössel

12.1 Die Impedanz von Körpergewebe


Der menschliche Körper leitet den elektrischen Strom. Die Ladungsträger sind hierbei
Ionen wie z. B. Na+ oder K+ und Cl− und nicht, wie in Metallen, einfache Elektronen.
Der Körper ist aus Zellen aufgebaut, deren Zellmembran sich wie ein Kondensator ver-
hält. Das führt dazu, dass das Körpergewebe eine komplexe Impedanz aufweist mit
einem Realteil (ohmscher Anteil) und einem negativen Imaginärteil (kapazitiver An-
teil). 󳶳Abb. 12.1 zeigt ein schematisches Bild von Körpergewebe mit einem vereinfach-
ten elektrischen Ersatzschaltbild.
Jede Gewebeart im Körper zeichnet sich durch einen charakteristischen Verlauf
von Realteil und Imaginärteil der Impedanz (alternativ: Leitfähigkeit und Dielektrizi-
tätskonstante) über der Frequenz aus. Der Zusammenhang zwischen diesen Größen
ist gegeben durch:
A
Y = Re(Y) + jIm(Y) = (𝜎 + j𝜔𝜀) (12.1)
d
mit: Y: Admittanz = 1/Impedanz, 𝜎: Leitfähigkeit, 𝜔: Kreisfrequenz, A: Querschnitts-
fläche der Probe und d: Abstand der Elektroden, wobei die Probe zwischen den Flä-
chen eines Plattenkondensators angeordnet ist.
In der Literatur findet man Messungen der Leitfähigkeit und Dielektrizitäts-
konstanten von vielen Gewebearten bei verschiedenen Frequenzen. Am bekanntes-
ten sind die Übersichtsarbeiten von Gabriel und Gabriel [Gabriel & Gabriel 1996]
(󳶳Abb. 12.2).
In 󳶳Abb. 12.2 ist auch die sogenannte 𝛽-Dispersion zu erkennen: Im Frequenzbe-
reich um 100 kHz steigt die Leitfähigkeit z. T. über mehr als eine Zehnerpotenz. Hier
wird die Zellmembran für den Wechselstrom durchlässig und der Strom kann unge-
hindert auch durch den Intrazellulärraum fließen.

Dispersion: bezogen auf die Impedanz die charakteristische Änderung der Impedanz von Gewebe
als Funktion der Frequenz.

20
R∞ R0
Im(Z) in kΩ

Rm Cm 0

Ri Re 2 Hz
–20
Rm Cm 200 Hz 20 Hz
0 20 40 60 80 100

(a) (b) Re(Z) in kΩ

Abb. 12.1: Schematisches Bild der Zellen mit einem vereinfachten Ersatzschaltbild von Körpergewe-
be (a) und eine typische Ortskurve (b).
12 Impedanztomographie | 443

1,E+02

1,E+01
γ-Dispersion
elektrische Leitfähigkeit in S/m

1,E+00

1,E–01
Spongiosa
1,E–02 Gehirn-Rückenmark-
β-Dispersion
Flüssigkeit
graue Substanz
1,E–03 Muskel
Rückenmarknerven
(Spinalnerven)
1,E–04
Haut (trocken)

1,E–05
1,E+01 1,E+02 1,E+03 1,E+04 1,E+05 1,E+06 1,E+07 1,E+08 1,E+09 1,E+10 1,E+11
(a) Frequenz in Hz

1E+08
Spongiosa
1E+07 Gehirn-Rückenmark-
Flüssigkeit
1E+06 Muskel
Rückenmarknerven
relative Permittivität

(Spinalnerven)
1E+05
Haut (trocken)
Fettgewebe (infiltiriert)
1E+04

1E+03
γ-Dispersion
1E+02
β-Dispersion
1E+01

1E+00
1E+01 1E+02 1E+03 1E+04 1E+05 1E+06 1E+07 1E+08 1E+09 1E+10 1E+11
(b) Frequenz in Hz

Abb. 12.2: Leitfähigkeit (a) und Dielektrizitätskonstante (b) einiger ausgewählter Körpergewebear-
ten über der Messfrequenz [Gabriel & Gabriel 1996].
444 | Olaf Dössel

Die Körperimpedanz wird auch in einigen Konsumerartikeln, z. B. Personenwaagen,


gemessen, um daraus den Körperfettgehalt abzuschätzen. Hierauf wird in diesem Ab-
schnitt nicht eingegangen.

Impedanztomographie: Messung und Darstellung von Bildern der elektrischen Impedanz des Kör-
pers.

Es ist naheliegend, dass erkranktes Gewebe eine andere Impedanz aufweisen wird als
gesundes Gewebe. Explizit nachgewiesen wurde dies bereits für Tumorgewebe z. B.
in der Mamma (weibliche Brust), für ischämisches Gewebe und für Lungengewebe,
welches nicht bei der Atmung belüftet wird. Dies ist die Motivation für die Impedanz-
tomographie (Electrical Impedance Tomography, EIT), deren Ziel es ist, Bilder der Im-
pedanz vom Körper zu erzeugen, um damit die Diagnose von krankhaften Gewebever-
änderungen zu unterstützen [Holder 2004].

12.2 Messsysteme mit Elektroden


Die meisten Messsysteme für die Impedanztomographie arbeiten mit Elektroden, die
am Körper angebracht werden. Andere Ansätze werden in 󳶳Abschnitt 12.4 vorgestellt.
Das erste Impedanztomographie-System (Sheffield Mark I) wurde 1984 von David Bar-
ber und Brian Brown aus Sheffield vorgestellt [Barber & Brown 1984].
󳶳Abb. 12.3 zeigt ein typisches Messsystem, dessen Komponenten im Folgenden
beschrieben werden sollen.
Am Körper werden auf einem Umfang viele Elektroden (z. B. 16) angebracht. Hin-
zu kommt meistens eine Referenzelektrode. Mithilfe einer Konstantstromquelle wird
über jeweils zwei Elektroden ein bekannter Strom in den Körper eingeprägt und mit
allen anderen Elektroden die Spannung gemessen. Dann wird ein anderes Elektro-
denpaar für die Stromeinspeisung ausgewählt usw.
Die Stromquelle erzeugt einen Strom bei der ausgewählten Frequenz. Typisch
sind Frequenzen im Bereich der 𝛽-Dispersion, also z. B. 100 kHz. Manchmal werden
auch zwei Frequenzen verwendet, um z. B. die Impedanz unterhalb und oberhalb der
𝛽-Dispersion zu bestimmen. Die Stromstärke liegt je nach Frequenz im Bereich einiger
Milliampere und ist damit völlig unschädlich.
Die Spannungsmessung erfolgt mit Differenzverstärkern, wie sie auch für die
Messung bioelektrischer Signale üblich sind. Sie müssen eine hohe Eingangsimpe-
danz, eine hohe Gleichtaktunterdrückung und ein niedriges Rauschen haben. Der ein-
zige Unterschied ist, dass diese Messverstärker z. B. mit Hilfe der „Lock-in-Technik“
auf genau eine Frequenz – nämlich die ausgewählte Messfrequenz – abgestimmt wer-
den. So sind die Messverstärker auch unempfindlich für bioelektrische Signale. Da
meistens mit denjenigen Elektroden die Spannung gemessen wird, die gerade keinen
Strom führen, ist die sonst sehr störende Elektrodenübergangsimpedanz hier nicht
12 Impedanztomographie | 445

DAC Konstantstrom

ADC Spannung

MUX
Objekt

Computer Monitor

Abb. 12.3: Messsystem für die Impedanztomographie mit Elektroden.

von Bedeutung. Mehr über die Messtechnik der Impedanztomographie, insbesonde-


re über geeignete Stromquellen, Multiplexer und Differenzverstärker, findet man im
Buch von D. S. Holder [Holder 2004].

Lock-in-Verstärker: Messtechnik, bei der der Verstärker nur eine Frequenz (sehr schmalbandig)
verstärkt und Signale mit anderen Frequenzen effektiv unterdrückt. In einer erweiterten Variante
kann auch die Phasenlage des Wechselsignals, das verstärkt werden soll, festgelegt werden.

Für die Stromeinspeisung gibt es zwei Strategien: Man kann den Strom über ge-
genüberliegende oder über benachbarte Elektroden einspeisen (natürlich sind auch
noch viele andere Varianten vorstellbar). Am verbreitetsten ist die Einspeisung über
benachbarte Elektroden. Betrachtet man alle möglichen Stromeinspeisungen und
Spannungsmessungen, so stellt man fest, dass nicht alle Messungen linear unabhän-
gig sind: Nach dem Reziprozitätstheorem muss sich das gleiche Ergebnis herausstel-
len, wenn man Stromeinspeisungselektroden und Spannungsmessungselektroden
vertauscht. So erhält man bei 16 Elektroden jeweils 13 und nach einem „Umlauf“
insgesamt 208 Spannungsmessungen, davon sind 104 linear unabhängig. Bei einer
Frequenz von z. B. 100 kHz kann man jede einzelne Messung gut in 1 ms abschließen,
so dass die 208 Messungen in ca. 0,2 Sekunden beendet sind. Damit ist es möglich,
auch relativ schnelle dynamische Vorgänge zu beobachten.
Ein Impedanztomographie-System dieser Art ist sehr preiswert, klein und mobil.
Es kann auch am Krankenbett für ein kontinuierliches Monitoring eingesetzt werden.
446 | Olaf Dössel

12.3 Bildrekonstruktion
12.3.1 Äquipotentiallinien im homogenen Zylinder

Bevor auf den Rekonstruktonsalgorithmus eingegangen wird, soll die Potentialvertei-


lung in einem Zylinder mit homogener Leitfähigkeit berechnet werden.
Nach der elektromagnetischen Feldtheorie ist eine Poisson-Gleichung mit Neu-
mannschen Randbedingungen zu lösen:
𝛥𝛷 = 0 (12.2)
𝜕𝛷 J
= − n bei den Elektroden
𝜕n 𝜎
𝜕𝛷
=0 sonst
𝜕n
wobei 𝛷 das elektrische Potential und Jn die in die Elektroden eingeprägte Stromdich-
te ist. (Genau genommen schafft die Elektrode eine Äquipotentialfläche und nicht ei-
ne gleichmäßige Stromdichteverteilung, aber diese Details sollen hier nicht diskutiert
werden).
Dieses Problem hat eine analytische Lösung:

󳨀 → 󳨀 2
1 ( r − p2 )
𝛷H = k ⋅ ⋅ ln ( ) (12.3)
2 →
󳨀 → 󳨀 2
(r −p ) 1

Die Lösung ist in 󳶳Abb. 12.4 dargestellt.


Die Bilder können wie folgt interpretiert werden: Da die Stromdichte proportional
zum Gradienten des Potentials ist, erhält man in den Bereichen mit dicht beieinander
liegenden Äquipotentiallinien die größten Stromdichten. Wenn sich dort ein Objekt
befindet, das eine vom homogenen Zylinder abweichende Impedanz hat, so wird sich
die Potentialverteilung insgesamt stark ändern. Dies ist offensichtlich in beiden An-
ordnungen für Gebiete auf dem Rand nahe der Elektroden der Fall. Ändert man die
Impedanz in einem Gebiet, in dem die Stromdichte sehr klein ist, wird sich die Poten-
tialverteilung an den Elektroden nur wenig ändern. Dies ist für Punkte in der Mitte des
Objektes der Fall. Es wird schwer sein, hier kleine Impedanzunterschiede abzubilden.

12.3.2 Rückprojektion

Um aus den gemessenen Spannungen ein Bild der Impedanzen zu rekonstruieren,


geht die Methode der „Rückprojektion“ wie folgt vor:
Zunächst werden alle Messwerte als relative Abweichung vom homogenen Zylin-
der dargestellt (m: Messwert und H: homogener Zylinder):
Vm − VH
Vr = mit
VH

󳨀 →
󳨀 →
󳨀 →
󳨀
VH = 𝛷H ( r1 ) − 𝛷H ( r2 ) und Vm = 𝛷m ( r1 ) − 𝛷m ( r2 ) (12.4)
12 Impedanztomographie | 447

Stromeinspeisung über benachbarte Elektroden


1

0,5

–0,5

–1
–1 –0,5 0 0,5 1 –1 –0,5 0 0,5 1 –1 –0,5 0 0,5 1

Stromeinspeisung über gegenüberliegende Elektroden


1

0,5

–0,5

–1
–1 –0,5 0 0,5 1 –1 –0,5 0 0,5 1 –1 –0,5 0 0,5 1

Abb. 12.4: Potentialverteilung im homogenen Zylinder bei Stromeinspeisung über benachbarte oder
gegenüberliegende Elektroden.

Diese relativen Messwerte lassen sich sofort umrechnen in relative Änderungen


des spezifischen Widerstands auf einem Segment im homogenen Zylinder (siehe
󳶳Abb. 12.5):
V − VH 𝜌 − 𝜌H
Vr = m = m (12.5)
VH 𝜌H
Diese relative Abweichung wird nun zu einer zuvor auf Null initialisierten Bildmatrix
addiert.
In gleicher Weise werden dann alle Messungen abgearbeitet. Am Ende entsteht
eine Schätzung der Abweichung des spezifischen Widerstands von einer homogenen
Widerstandsverteilung.

Rückprojektion: Rekonstruktionsmethode von Bildern aus Messdaten. Dabei werden eventuell ge-
filterte Messwerte in ein bestimmtes Gebiet des Bildes eingeschrieben.

Das Verfahren ist offensichtlich mathematisch inkonsistent: Beim Einschreiben der


Daten von der zweiten Stromeinspeisung ist die Leitfähigkeit des Zylinders nicht mehr
homogen, daher sind die Werte nicht ganz richtig. Außerdem gibt es leider keinen Fil-
448 | Olaf Dössel

Vr
rr
P

Abb. 12.5: Bildrekonstruktion mit der „Rückpro-


jektion“: Addieren der relativen Widerstandsab-
S weichung auf ein Segment.

ter, mit dem die Daten schon vor dem Zurückprojizieren so modifiziert werden können,
dass man eine mathematisch einwandfreie Lösung erhält. Weiterhin geht das Verfah-
ren von einem kreisförmigen Umfang des Patienten aus, was in der Regel nicht zutrifft.
Schließlich wird bei diesem Verfahren von einem 2D-Objekt ausgegangen, aber weder
der Körper des Patienten noch die angebrachten Elektroden sind 2D-Objekte. Trotz-
dem liefert das Verfahren erstaunlich gute Bilder und ist einfach und schnell.
Die Methode lässt sich auch auf andere relative Messgrößen anwenden. Beispiels-
weise kann man die Messwerte im eingeatmeten Zustand von den Messwerten im aus-
geatmeten Zustand abziehen und normieren:

(Veingeatmet − Vausgeatmet )
Vr = (12.6)
Veingeatmet

So erhält man Bilder der Impedanzänderung durch das Atmen („dynamic imaging“).
Schließlich können die Werte bei einer Messfrequenz von den Wertenbei einer ande-
ren Messfrequenz abgezogen und normiert werden:

(VFrequenz1 − VFrequenz2 )
Vr = (12.7)
VFrequenz1

So erhält man Bilder der „Dispersion“ der Impedanz (siehe 󳶳Kap. 12.1).

12.3.3 Finite-Elemente-Methode (FEM)

Mathematisch einwandfrei ist eine Methode, bei welcher der Körper in sehr viele klei-
ne Volumenelemente (würfelförmig oder tetraederförmig) aufgeteilt wird und die Leit-
fähigkeiten in allen Volumenelementen so lange verändert werden, bis die Messdaten
zu den berechneten Daten passen. Das funktioniert aber leider nicht so einfach, da
12 Impedanztomographie | 449

man für eine halbwegs gute Ortsauflösung einige tausend Volumenelemente in den
Körper legen muss. Man hat aber nur 104 linear unabhängige Messwerte (bei 16 Elek-
troden). Außerdem ist das Problem „schlecht gestellt“: Kleine Messungenauigkeiten
verursachen insbesondere im Inneren des Körpers große Fehler bei den rekonstruier-
ten Leitfähigkeiten. Schließlich benötigt man sehr lange Rechenzeiten, da jede Hy-
pothese für eine Leitfähigkeitsverteilung eine neue Lösung mithilfe der numerischen
Feldtheorie erfordert.
Das Abbildungsproblem ist nicht linear und nicht verschiebungsinvariant (vgl.
󳶳Kap. 21, Systemtheorie). Eine Änderung der Leitfähigkeit in einem Volumenelement
wirkt sich nicht linear auf die Potentialverteilung aus und die Änderung hängt stark
vom Ort der Leitfähigkeitsänderung ab. Geht man von kleinen Änderungen der Leit-
fähigkeit um den „normalen“ Wert herum aus, so kann man das Problem näherungs-
weise linearisieren (Taylor-Entwicklung). So erhält man eine Abbildungsmatrix A,
die von den Änderungen der Leitfähigkeiten x zu den Änderungen der gemessenen
Spannungen b führt.
A⋅x=b (12.8)

Mithilfe einer singulären Wertezerlegung (SVD) erfährt man, ob es sich um ein


schlecht gestelltes Problem handelt („ill-posed problem“). Leider ist das inverse
Problem der Impedanztomographie sehr schlecht gestellt (vgl. inverses Problem bei
der Rekonstruktion bioelektrischer Quellen, 󳶳Kap. 10.6). Es wurden verschiedene Re-
gularisierungstechniken ausprobiert, um zu stabilen Lösungen zu kommen wie z. B.
die Tikhonov-Regularisierung (vgl. 󳶳Kap. 10.6), die glatte Lösungen mit möglichst
kleinen Abweichungen von den normalen Werten bestimmt [z. B. Holder 2004]. Da-
mit verwandt sind Bayes-Schätzer [Nissinen 2011]. Mit einem iterativen Algorithmus
kann man die Lösung sukzessive (z. B. mit dem linearisierten Ansatz) korrigieren und
dann erneut um den neuen Lösungsvektor herum entwickeln oder einen nichtlinea-
ren Optimierer wie z. B. den Newton–Raphson-Algorithmus einsetzen. Alle diese
Algorithmen erfordern sehr lange Rechenzeiten.

Newton–Raphson-Methode: Algorithmus zur Bestimmung eines globalen Minimums einer mehr-


dimensionalen nichtlinearen Funktion.

Um diese Probleme zu umgehen, diskretisieren Teschner et al. [Teschner 2011] nur


eine Scheibe des Körpers und diese auch nur in 340 Volumenelemente. Für eine typi-
sche Körperform und Widerstandsverteilung wird nun eine „Empfindlichkeitsmatrix“
mithilfe der FE-Methode berechnet. Mit dieser Empfindlichkeitsmatrix wird die „Vor-
wärtsrechnung“ durchgeführt und ein nichtlinearer Optimierungsalgorithmus gestar-
tet, der die bestmöglichen spezifischen Widerstände für jedes Volumenelement be-
stimmt. Das Verfahren zeigt sehr gute Impedanz-Bilder der Lunge (s. 󳶳Kap. 12.5).
450 | Olaf Dössel

12.4 Alternative Messsysteme


12.4.1 Induktive Messsysteme

Der für eine Impedanzmessung notwendige Messstrom kann auch über Spulen, die
mit hochfrequenten Strömen angesteuert werden, erzeugt werden. Das dabei entste-
hende sich schnell ändernde Magnetfeld bewirkt Wirbelströme im Körper des Patien-
ten. Die durch diese Wirbelströme verursachten Spannungen an der Körperoberfläche
können dann gemessen werden (Induced Current Electrical Impedance Tomography,
ICEIT). Ebenso ist es möglich, mit weiteren Spulenanordnungen das von den Wirbel-
strömen im Körper erzeugte Magnetfeld auszumessen (Magnetic Induction Tomogra-
phy, MIT). Diese Messspulen müssen durch geschickte Gradiometerschaltungen un-
empfindlich gegenüber dem anregenden Magnetfeld gemacht werden [Gürsoy 2011].
Der Vorteil: Das Anbringen von Elektroden an den Körper entfällt und es sind andere
Strommuster möglich als mit der Stromeinspeisung durch Elektroden.

12.4.2 MRT-basierte Systeme

Mit der Magnetresonanztomographie lassen sich kleinste Abweichungen des Magnet-


feldes im Körper vom angelegten Grundfeld messen. Im Kapitel zur Magnetresonanz-
tomographie (s. 󳶳Kap. 9) wird dargestellt, dass in einem 1T-System Abweichungen von
1 μT Frequenzverschiebungen bei der Larmorfrequenz von 42,6 Hz verursachen. Prägt
man nun mit Spulen oder mit Elektroden einen Messstrom in den Körper des Pati-
enten ein, so wird dieser Strom nach dem Biot–Savart-Gesetz um sich herum ein
Magnetfeld erzeugen, das mit einem MRT-System gemessen werden kann (Magnetic
Resonance Electrical Impedance Tomography, MREIT) [Lee 2011]. Der Vorteil: Die in
󳶳Kap. 12.3.1 beschriebene Unempfindlichkeit der Impedanztomographie auf Wider-
standänderungen tief im Inneren des Körpers ist weniger stark ausgeprägt. Der Nach-
teil: Man benötigt für diese Messtechnik ein MRT-System.
Katscher et al. [Katscher 2009] machen einen ganz anderen Vorschlag: Bei der
Anregung der Kernspins in einem MRT-System werden rotierende Radiofrequenzfel-
der eingesetzt, das sogenannte B1 -Feld. Nun gibt es Pulssequenzen, mit denen sich
dieses B1 -Feld sehr genau ausmessen lässt. Aus diesen B1 -Maps berechnen Katscher
et al. mithilfe der Maxwell-Gleichungen die Leitfähigkeit und im Prinzip auch die
Dielektrizitätskonstante des Körpergewebes. Das Verfahren, das die Autoren „Electri-
cal Properties Imaging“, EPI nennen, hat eine räumliche Auflösung, die nur wenig
schlechter ist als die der MRT selber, und ist damit bezüglich der Auflösung allen an-
deren Impedanztomographie-Verfahren weit überlegen. Auch ermöglicht es, die abso-
lute Leitfähigkeit zu bestimmen und nicht nur die relative Leitfähigkeitsabweichung
von der Umgebung. Nachteilig ist, dass wiederum ein MRT-System benötigt wird. Auch
12 Impedanztomographie | 451

kann nur die Leitfähigkeit bei der Larmorfrequenz des verwendeten Tomographen be-
stimmt werden; das sind z. B. bei einem 1T-System 42,6 MHz.

12.5 Anwendungen der Impedanztomographie in der Medizin


Es wird untersucht, ob es möglich ist, mithilfe der Impedanztomographie Tumore in
der weiblichen Brust zu erkennen und eventuell sogar zu klassifizieren (Mammogra-
phie) [Assenheimer 2011].
Weiterhin wird vorgeschlagen, mithilfe der Impedanztomographie eine schnel-
le Schlaganfall-Diagnostik durchzuführen. Ischämisches Gewebe verändert sehr
schnell seine elektrischen Eigenschaften. Insbesondere die induktiven Messsysteme,
die leicht einen Wirbelstrom unterhalb der Schädeldecke erzeugen können, könnten
hier einen Gewinn bringen. Auch gibt es Vorschläge, die Funktion des Gehirns über
die Änderungen der Durchblutung mit der Impedanztomographie abzubilden [Holder
2004].
Die dynamische Impedanztomographie des Herzens könnte einen quantitativen
Zugang zum Schlagvolumen liefern [Vonk-Nordegraaf 2000].

Schlagvolumen: Blutvolumen, das bei jedem Herzschlag aus dem Herz in den Blutkreislauf ge-
pumpt wird.

Abb. 12.6: Impedanztomographiesystem für das regionale Beatmungsmonitoring (PulmoVista 500,


mit freundlicher Genehmigung durch Dräger Medical GmbH, Lübeck).
452 | Olaf Dössel

Die am weitesten fortgeschrittene Anwendung ist aber die Impedanztomographie für


das Beatmungsmonitoring. Das Unternehmen Dräger Medical hat ein System für
diese Anwendung entwickelt und erprobt [Teschner 2011]. Es hat sich herausgestellt,
dass die Impedanztomographie sehr gut in der Lage ist, akutes Lungenversagen (ALI)
frühzeitig zu erkennen und bei der Beatmung von Patienten die richtige Einstellung
des PEEP (positiver endexspiratorischer Druck) zu ermöglichen (󳶳Abb. 12.6).

Quellenverzeichnis
Assenheimer M., et al.: The T-scan technology: electrical impedance as a diagnostic tool for breast
cancer detection. Phys Meas 2001; 22 (1): 1–8.
Barber D. C., Brown B. H.: Applied Potential Tomography APT. J Phys E: Sci Instrum 1984; 17 (9):
723–733.
Cheney M., Isaacson D., Newell J. C.: Electrical Impedance Tomography. SIAM Review 1999; 41:
85–101.
Gabriel S., Lau R. W., Gabriel C.: The dielectric properties of biological tissues. Phys Med Biol 1996;
41: 2251–2269.
Gürsoy D., Mamatjan Y., Adler A., Scharfetter H.: Enhancing impedance imaging through multimodal
tomography. IEEE Trans Biomed Eng 2011; 58 (11): 3215–3224.
Katscher U., Voigt T., Findeklee C., Vernickel P., Nehrke K., Dössel O.: Determination of electrical
conductivity ans local SAR via B1 mapping. IEEE Trans Medical Imaging 2009; 28 (9): 1365–1374.
Lee C. O., Jeon K., Ahn S., Kim H. J., Woo E. J.: Ramp-preserving denoising for conductivity image
reconstruction in Magnetic Resonance Electrical Impedance Tomography. IEEE Trans Biomed
Eng 2011; 58 (7): 2038–2050.
Nissinen A., Kolehmainen V. P., Kaipio J. P.: Compensation of modelling errors due to unknown
domain boundary in electrical impedance tomography. IEEE Trans Med Imaging 2011; 30:
231–242.
Teschner E., Imhoff M.: Elektrische Impedanztomographie: von der Idee zur Anwendung des
regionalen Beatmungsmonitoring. Lübeck: Dräger Medical GmbH, 2011.
Vonk-Nordegraaf A., et al.: Determination of stroke volume by means of electrical impedance
tomography. Physiol Meas 2000; 21: 285–293.

Weiterführende Literatur
Holder D. S.: Electrical Impedance Tomography: Methods, History and Applications. London: Taylor
& Francis Physics, 2004
Eine Web-Seite mit vielen Beschreibungen und eine Liste der Forschungsprojekte und EIT-Systeme
findet man unter: www.eit.org.uk.
12 Impedanztomographie | 453

Testfragen
1. Skizzieren Sie qualitativ die Ortskurve der Impedanz von Körpergewebe und erklären Sie den
Verlauf.
2. Was versteht man unter der Beta-Dispersion? In welchem Frequenzbereich liegt sie?
3. Welche Strategien für die Stromeinspeisung und die Spannungsmessung für die Impedanztomo-
graphie kennen Sie (zwei Beispiele)?
4. Was versteht man unter einem Lock-in-Verstärker? Worin besteht der Vorteil?
5. Skizzieren Sie die Potentialverteilung bei einer Messung für die Impedanztomographie in einem
Zylinder mit homogener Leitfähigkeit.
6. Erläutern Sie die Bildrekonstruktion bei der Impedanztomographie, die den Namen „Rückpro-
jektion“ trägt.
7. Beschreiben Sie ein induktives Messsystem für die Impedanztomographie. Welchen Vorteil ver-
spricht man sich von induktiven Messsystemen?
Thomas Wittenberg
13 Endoskopie

13.1 Einführung | 456


13.2 Eine kurze Geschichte der Endoskopie | 457
13.3 Starre Endoskope | 459
13.4 Flexible Faserendoskope | 462
13.5 Videoendoskope | 465
13.6 Schluckkapselendoskope | 466
13.7 Farbkontrast und Marker | 468
13.8 Anwendungen der Endoskopie | 468

Zusammenfassung: Die Endoskopie beschreibt den Vorgang, Bilder mittels spezieller


optischer Systeme und Kameras vom Inneren des Körpers darzustellen. Mithilfe von
Linsensystemen oder miniaturisierten Bildsensoren werden starre oder flexible En-
doskope durch natürliche oder durch kleine Schnitte künstlich geschaffene Körperöff-
nungen in die Hohlräume und Hohlorgane des Patienten geschoben. Die Beleuchtung
erfolgt überwiegend über externe Lichtquellen mittels Glasfaserbündeln. Die Möglich-
keiten, krankhaft veränderte Organe und Gewebe auch im gleichen Arbeitsschritt mit
im Endoskopschaft vorgeschobenen Instrumenten zu behandeln, macht das Endo-
skop zu einem der wichtigsten Werkzeuge der minimalinvasiven Chirurgie.

Abstract: Endoscopy describes the process of producing internal images of patients


with special optical systems and cameras that are inserted into the human body. Using
lens systems or miniaturized imaging sensors, rigid or flexible endoscopes are inserted
into the hollow organs of the patient through natural orifices or small incisions. Illu-
mination is usually provided by external light sources, using bundles of glass fiber for
light transport into the body. At the same time it is possible to assess and treat organs
and tissue using instruments inserted into the body through the working channels of
the endoscopes, which makes endoscopy one of the most important tools of minimal
invasive surgery.
456 | Thomas Wittenberg

13.1 Einführung
Der Begriff „𝜀𝜈𝛿o𝜎𝜅ó𝜋𝜂𝜎𝜂“ entstammt dem Griechischen und bedeutet wörtlich über-
setzt „hineinsehen“. Geprägt wurde dieses Wort von dem Französischen Urologen An-
tonin Jean Desormeaux (1815. . . 1894), der den Begriff der „l’endoscopie“ am 20. Juli
1853 erstmalig bei der Vorstellung eines solchen Gerätes vor der Französischen Akade-
mie der Wissenschaften verwendete. Um Gewebe und Organe des Körperinneren mit
optischen Mitteln (im Gegensatz zu radiologischen Modalitäten) zu betrachten, wird
bei der Endoskopie entweder ein starres Rohr oder ein semistarrer Schlauch durch
natürliche Körperöffnungen (wie Mund, Nase oder Anus) oder durch kleine Schnitte
(beispielsweise auf der Bauchdecke für die Laparoskopie) in den Körper eingeführt.
Über dieses Rohr oder diesen Schlauch wird Licht in den Körper hinein projiziert, eine
optische Abbildung des untersuchten Gewebes oder Organs aus dem Körper erzeugt
und nach außen übertragen. Zur Beleuchtung der Hohlräume im Körperinneren wer-
den seit Mitte des 20. Jahrhunderts weitestgehend Glasfaserbündel verwendet, mit-
tels derer das Licht von einer extern stehenden sogenannte „Kaltlichtquelle“ in den
Körper hineingeleitet wird. Das im Körper erfasste Bild wird am distalen (dem Benut-
zer abgewandten) Ende des Endoskops über eine Objektivlinse erfasst und nach au-
ßen transportiert. Dieser Transport eines Bildes aus dem Körperinneren zurück in die
Außenwelt kann unterschiedlich realisiert werden. Bis heute haben sich dazu unter-
schiedliche Varianten etabliert, durch die auch die gängigen Typen von Endoskopen
geprägt werden [Litynski 1996]:
– starre optische Endoskope: optische Übertragung der Bildinformation über ein
System von sogenannte „Stablinsen“ (s. 󳶳Kap. 13.3),
– flexible Faserendoskope: optische Übertragung der Bildinformation über ein ko-
härentes Bündel von Glasfasern (s. 󳶳Kap. 13.4),
– flexible Videoendoskope: kabelgebundene elektronische Übertragung der von
einem Bildsensor erfassten Information (s. 󳶳Kap. 13.5) durch den Schlauch eines
flexibles Endoskops,
– Kapselendoskopie: kabellose elektronische Übermittelung der von einem Bild-
sensor erfassten Bildinformation über Funk an einen Satz von Empfängeranten-
nen (s. 󳶳Kap. 13.6.).

Während die ersten beiden Bauarten von Endoskopen eine rein optische Übertragung
von Bildern aus dem Körperinneren realisieren, sind die letztgenannten eng verwoben
mit elektronischen Bildsensoren, die direkt in das Endoskop eingebaut sind. Aller-
dings sind die überwiegende Anzahl der heute in der klinischen Routine verwendeten
optisch übertragenden Endoskope zusätzlich mit externen (am proximalen, dem Be-
nutzer zugewandten Ende der Endoskope montierten) Kamerasystemen ausgestattet,
deren Bilddaten auf einen oder mehrere Monitore übertragen und dargestellt werden.
Diese technologische Ergänzung erlaubt nicht nur ein ergonomischeres Arbeiten des
Endoskopikers, da das Auge nicht mehr an das Okular des Endoskops gehalten wer-
13 Endoskopie | 457

den muss, sondern unterstützt gleichermaßen die Betrachtung und Interpretation der
übertragenen Szene durch mehrere Beobachter. Zudem kann die Untersuchung bzw.
Intervention aufgezeichnet und damit dokumentiert werden.
Eng verbunden mit den drei erstgenannten Typen von Endoskopen sind auch die
Möglichkeiten, über die in den Endoskopschaft oder Endoskopschlauch integrierten
Arbeitskanäle starre oder biegsame Instrumente in das Körperinnere einzuführen, um
damit Biopsie-Proben von suspektem Gewebe für eine erweiterte Diagnostik zu ent-
nehmen. Gleichermaßen sind mit solchen Instrumenten auch therapeutische Eingriffe
möglich, z. B. eine Koagulation (Blutstillung) von Gewebe, eine Absaugung von Flüs-
sigkeiten, Laserbehandlungen, Unterspritzung von Gewebe zur besseren Betrachtung
oder eine schlingenbasierte Entfernung von Polypen. Speziell für die sogenannte mi-
nimalinvasive Chirurgie (MIC, auch als „Schlüssellochchirurgie“ bezeichnet) bil-
det die Endoskopie sowohl für die Bildgebung als auch für die schonende Intervention
ein unverzichtbares Werkzeug. Prominente Beispiele für MIC-Eingriffe unter Zuhilfe-
nahme starrer Endoskope sind die Laparoskopie (Eingriffe im Bauchraum), die robo-
tergestützte Prostatektomie (Entfernung der Prostata) oder transnasale Eingriffe an
der Hypophysendrüse.

Endoskopie: visuelle Untersuchung von Hohlorganen und Körperhohlräumen durch starre oder
schlauchartige optische Geräte (Endoskope) zwecks Diagnose und Intervention.

Distales Ende: dem Benutzer abgewandtes Ende eines Endoskops.

Proximales Ende: dem Benutzer zugewandtes Ende eines Endoskops.

13.2 Eine kurze Geschichte der Endoskopie


Die ersten bekannten endoskopischen Instrumente sind aus den Aufzeichnungen von
Hippokrates bekannt, der versuchte, den Enddarm mithilfe von Röhren zu untersu-
chen. Gleichmaßen zeigen die Funde eines dreiarmigen Spekulums (lat. Spiegel) zur
Vaginaluntersuchung und eines Mastdarmspekulums in den Ausgrabungen von Pom-
peji die technischen Möglichkeiten der Antike. Die Nutzung optischer Möglichkeiten,
z. B. die sogenannte Schusterkugel zur Erfassung, Bündelung und Konzentration von
Sonnenlicht auf einen Punkt zur Beleuchtung eines Arbeitsplatzes, sind seit dem Mit-
telalter bekannt.
Die Geschichte der sogenannten „modernen Endoskopie“ beginnt allerdings erst
mit dem Frankfurter Arzt Phillip Bozzini (1773. . . 1809), der 1806 ein technisches Ge-
rät, den sogenannten „Lichtleiter“ vorstellte, um damit unterschiedliche Körperöff-
nungen zu untersuchen. Dieser „Lichtleiter“ war das erste technische System, mit
dem gleichzeitig alle drei o. g. Probleme (Zugang, Lichteinkopplung, Bildübertragung)
prototypisch gelöst und damit klinische Untersuchungen an natürlichen Körperöff-
458 | Thomas Wittenberg

nungen demonstriert wurden. Beim Lichtleiter wurden Körperöffnungen mit unter-


schiedlich gestalteten Spekula (󳶳Abb. 13.1) aufgeweitet, um einen Zugang und einen
direkten Blick in das Körperinnere zu ermöglichen. Die Beleuchtung der Szene erfolgte
durch eine Kerze, deren Schein über Hohlspiegel in das Köperinnere geleitet wurde.
Allerdings gerieten Bozzinis Experimente und Erkenntnisse für lange Zeit in Ver-
gessenheit. Antonin Desormeraux setzte ein halbes Jahrhundert später die Experi-
mente von Bozzini fort und entwickelte dessen Ansatz weiter. Unter anderem ersetzte
er die Kerze im „Lichtleiter“ durch eine wesentlich hellere Gasbogenlampe und präg-
te mit seinem System 1853 den Begriff „l’endoscopie“. Aufgrund seiner Erfolge wird
Desormeaux als „Vater der Endoskopie“ bezeichnet. Durch die Nutzung unterschied-
licher Spiegel zur Fokussierung des Lichtes in den Körper hinein und zur Reflektion
der Szene aus dem Körper heraus hat sich für die Endoskopie im Deutschen auch der
Begriff der „Spiegelung“ eingebürgert.

(a) (b)

(c)

Abb. 13.1: (a) Erstes starres medizinisches Endoskop (1807) mit verschiedenen Spekula (den Körper-
öffnungen entsprechend), konstruiert von Philipp Bozzini; (b) Philipp Bozzini (1773–1809); (c) Be-
leuchtungsprinzip von Bozzinis „Lichtleiter“ bestehend aus einem Beleuchtungsapparat, einer
Wachskerze und einem Konkavspiegel.
13 Endoskopie | 459

Basierend auf der Erfindung der Glühbirne in 1879 durch Thomas Alva Edison
entwickelten der in Berlin gebürtige Arzt Maximilian Nitze (1848. . . 1906) zusammen
mit dem Wiener Instrumentenbauer Josef Leiter (1830. . . 1892) ein erstes starres En-
doskop. Dieses Instrument besaß eine am distalen Ende integrierte elektrische Licht-
quelle in Form eines Platindrahtes sowie ein Multi-Linsensystem zur optischen Über-
tragung des erfassten Bildes [Nitze 1879]. Allerdings war die in den Körper eingeführte
Lichtquelle mit einer hohen Hitzeentwicklung verbunden, so dass in das Endoskop
eine Wasserzirkulation zur Kühlung eingebaut war. Die Experimente von Nitze wa-
ren überwiegend im Bereich der Urologie angesiedelt, wurden aber von interessierten
Kollegen bald auf diagnostische Fragestellungen an anderen Organen wie Kehlkopf,
Enddarm oder Speiseröhre übertragen.

13.3 Starre Endoskope


Starre Endoskope sind die älteste Bauform von Endoskopen. Die Szene im Hohlraum
wird am distalen Ende eines Endoskops mithilfe einer Objektivlinse erfasst. Das
erfasste Bild wird mittels einer Aneinanderreihung sogenannter „Umkehrlinsen-
systeme“ entlang der Röhre (dem sogenannten Endoskopschaft) weitergeleitet, die
das Bild nahezu im Verhältnis 1:1 abbilden und optisch umkehren (sogenanntes
„Relay-System“). Als Relay-Systeme werden optische Systeme bezeichnet, die in der
Lage sind, Bilder von einer Position zu einer anderen zu übertragen. Die sogenannte
Lagrange-Invariante n ⋅ y ⋅ u = const beschreibt den Lichtleitwert bzw. die Energie-
erhaltung eines Relay-Systems, wobei n die Brechzahl des Mediums bezeichnet, y die
Bildhöhe des Objekts von der optischen Achse und u den Öffnungswinkel (Apertur-
winkel). Diese Konstante definiert somit die Eigenschaften eines Umkehrlinsensys-
tems, das die erfasste Bildinformation eines Objektivs weiter propagiert. Erzeugt das
Objektiv eine Abbildung mit der Höhe y in einem Medium mit dem Brechungsindex
n, dann muss das nachfolgende Relay-System aufgrund der Lagrange-Invariante die
gleichen Eigenschaften besitzen (z. B. Liang, 2010). Starre Endoskope weisen i. d. R.
drei bis fünf Relay-Systeme auf, mit Linsendurchmessern im Bereich von 3. . .12 mm.
Die Anzahl der verwendeten Umkehrsysteme bestimmt auch indirekt die Länge eines
starren Endoskops. Zwischen jeweils zwei Umkehrsystemen sind i. d. R. Feldlinsen
eingesetzt, die keine abbildende Funktion besitzen, jedoch divergente Strahlen kon-
vergieren, um damit Abschattungen zu vermeiden [Reling et al. 2001].
Am proximalen (dem Benutzer zugewandten) Ende des Endoskops sitzt das Oku-
lar mit dem Okulartrichter, durch den das übertragene Bild mit dem Auge betrachtet
werden kann. Oftmals besitzt das Okular noch eine optisch vergrößernde Wirkung,
man spricht hier auch von sogenannten Lupenendoskopen. Mit dem Okulartrichter
lassen sich mittels spezieller Objektivadapter (z. B. mit Bajonettverschlüssen) externe
Kameras verbinden.
460 | Thomas Wittenberg

Objekt O ca. 40° in


Wasser
O₁ O₂ O₃

Objektiv 1:1-System Feldlinsen 1:1-System Okular


(a)

Objekt O
ca. 70° in
Wasser
O₁ O₂ O₃

Objektiv 1:1-System 1:1-System Okular

(b)

Abb. 13.2: Prinzip der Bildübertragung in einem starren Endoskop mittels dünner Linsen (a) und mit
Stablinsen (b).

Da die Stabilität eines starren Endoskops durch die Aneinanderreihung sehr


vieler dünner Linsen sowie deren Montage für die praktische klinische Anwendung
mit extremen Anforderungen sehr ungeeignet sind, werden heute überwiegend so-
genannte „Stablinsen“ oder „Hopkins-Endoskope“ verwendet (󳶳Abb. 13.2). Diese
gehen auf den englischen Physiker Harold Horace Hopkins (1918. . . 1994) zurück,
der 1960 die langen, luftgefüllten Zwischenräume zwischen zwei dünnen Linsensys-
temen durch lange Stablinsen und die dünnen Linsen wiederum durch Lufträume
zu ersetzte. Neben einer erhöhten Stabilität bieten Stablinsenendoskope zudem
bessere optische Eigenschaften als Linsenendoskope.
Wird die Linse am distalen Ende des Endoskops zusätzlich mit einem Umlenk-
prisma kombiniert, ändert sich die Blickrichtung des aufgezeichneten Bildes. Bei
Prismen mit einer optischen Umlenkung von 90° oder 70° spricht man von sogenann-
ten Seitblickendoskopen. Die prominenteste Anwendung von Seitblickendoskopen
ist die Untersuchung des Kehlkopfes. Hier wird das Endoskop durch den Mund in den
Rachenraum bis zum Zäpfchen eingeführt, wobei das 70° oder 90° Prisma den tiefer
im Hals gelegenen Kehlkopf mit den Stimmbändern aufnimmt und abbildet. Weitere
gebräuchliche Umlenkprismen mit einer Blickrichtung von 5°, 10°, 30° oder 45° wer-
den für Schrägblickendoskope eingesetzt. Endoskope mit einer Blickrichtung entlang
der Schaftachse werden als 0° – oder „Vorausblick“-Endoskope bezeichnet und be-
sitzen kein solches Prisma. Typische Beispiele sind hier sogenannte Laparoskope für
Eingriffe im Bauchraum (󳶳Abb. 13.3).
13 Endoskopie | 461

Videokamera
Greifer
Licht-
quelle
CO2
Laparoskop

5 mm
Trokar 10 mm Trokar

(a) (c) (b)

Abb. 13.3: Prinzip eines laparoskopischen Eingriffs. (a) Schematische Darstellung einer Laparosko-
pie. (b) Der Chirurg betätigt langstielige chirurgische Instrumente zur Manipulation des Gewebes im
Körperinneren, die durch Trokare in den Bauchraum geschoben werden, und beobachtet dabei das
Bild aus dem Bauchraum (c), das über eine Kamera am Ende des Laparoskops aufgenommen und
auf einen Monitor übertragen wird.

Laparoskopie: endoskopische Untersuchung und Behandlung der Bauchhöhle und der darin ent-
haltenen Organe mithilfe eines Laparoskops.

Die Laparoskope, wie sie z. B. im beim chirurgischen Operations-Telemanipulator


„DaVinci“ für die minimalinvasive Prostatektomie zum Einsatz kommen, sind heut-
zutage fast alle als Stereo-Endoskop ausgelegt. Das heißt, im Schaft des Laparoskops
sind zwei vollständig parallele Anordnungen von Objektiven und Stablinsen verbaut,
deren Abstand (Disparität) der longitudinalen Achsen 6 mm beträgt [Munz et al.
2004]. Am proximalen Ende des Endoskops werden die aus dem Körperinneren über-
tragenen Bilder von zwei synchronisierten Kameras erfasst und die Bilddaten auf
ein Stereodisplay im Cockpit des Da-Vinci-Systems sowie an zusätzliche Monitore
übertragen und dargestellt.
Wegen der für die Patienten unangenehmen Hitzeentwicklungen von Leuchtmit-
teln im Körper befinden sich die Lichtquellen für die Endoskope heute überwiegend
außerhalb des Körpers (sogenannte „Kaltlichtquellen“). Zur Beleuchtung der Szene
im Körperinneren werden Glasfaserbündel im Endoskopschaft verwendet, mittels
derer Licht eingekoppelt wird. Zusätzlich werden zur Wärmeunterdrückung Hohlspie-
gel, Infrarot-Sperrfilter und Kühlungen für die Lichtquellen verwendet. Die Anzahl der
verbauten Lichtleitfasern bestimmt dabei die Menge des Lichtes, die in den Hohlraum
462 | Thomas Wittenberg

gelangt (s. dazu auch 󳶳Kap. 13.4). Als Lichtquellen werden überwiegend Halogen-
und Xenon-Hochdrucklampen eingesetzt, neuerdings werden auch sehr lichtstarke
Leuchtdioden (Light Emitting Diodes, LEDs) verwendet. Eine moderne Alternative da-
zu bilden LEDs, die direkt an der Spitze des Endoskops befestigt sind und mit in den
Körper geschoben werden.
Zusammenfassend lassen sich starre Endoskope im Wesentlichen durch folgende
Parameter charakterisieren:
– Außendurchmesser
– Nutzlänge
– Blickrichtung
– Blickwinkel
– integrierter Arbeitskanal
– Bildweiterleitungssystem
– Anzahl und Art der Lichtleitfasern

13.4 Flexible Faserendoskope


Die klinischen Anwendungen von flexiblen Faserendoskopen, auch als „Fiberskope“
bezeichnet, wurden 1958 erstmals von dem südafrikanischen Arzt Basil Hirscho-
witz (*1925) auf dem Weltkongress für Gastroenterologie vorgestellt. Bei diesen
Faserendoskopen erfolgt die optische Bildübertragung über ein kohärentes Bündel
feinster Glasfasern (dem „Bildleiter“; 󳶳Abb. 13.4). Bei dem Transport von Licht über
Glasfasern kommt das Brechungsgesetz von Snellius („Snells Law“) zum Tragen, das
besagt, dass an der Grenzfläche zwischen zwei unterschiedlichen Medien mit Bre-
chungsindizes n1 und n2 unter einem gewissen Winkel eine Brechung stattfindet, und
zwar entsprechend der Formel: n1 sin 𝜃1 = n2 sin 𝜃2 (Halliday und Resnick, 1991). Ein
Spezialfall tritt dann auf, wenn ein Lichtstrahl aus einem optisch dichteren Medium
in ein optisch dünneres Medium austritt, also n2 /n1 < 1 ist. Hier wird der Lichtstrahl
von der Senkrechten weg gebrochen. Diese Eigenschaft wird von Glasfasern ausge-
nutzt, die zum Transport von Licht aus zwei Glassorten mit unterschiedlichen Bre-
chungsindizes gezogen werden. Das Innere einer Glasfaser wird hierbei als Faserkern
bezeichnet und besitzt einen hohen Brechungsindex. Das Äußere der Glasfaser ist der
Fasermantel (cladding) und weist einen niedrigeren Brechungsindex auf. Durch die
Eigenschaft der Totalreflexion kann das eingekoppelte Licht dem gekrümmten Ver-
lauf der Glasfaser folgen, sofern deren Biegeradius die Totalreflexion am Kern-Mantel-
Übergang erlaubt.

Glasfaser: optischer Übertragungsleiter (auch Lichtwellenleiter genannt) aus einem dünnen, bieg-
samen Glasfaden mit hoher Lichtbrechung, ummantelt mit einem schwachen lichtbrechenden Ma-
terial.
13 Endoskopie | 463

Beschichtung
Mantel

n₂
θ
n₁

Kern

Abb. 13.4: Prinzip der Lichtleitung in einer Glasfaser. Die wichtigsten Eigenschaften zur Charakteri-
sierung von Glasfasern sind deren Durchmesser, die numerische Apertur (NA) und die Transmission
[Winter 2008].

Für optische Bildbündel werden Glasfasern mit Durchmessern von 6. . .15 μm verwen-
det, wobei die Ummantelung eine minimale Wandstärke von 2 μm aufweisen sollte.
Die Effizienz der Lichtübertragung kann durch Vergrößerung des Kernradius gestei-
gert werden, wirkt sich aber nachteilig auf die Biegsamkeit des Faserbündels aus.
Die numerische Apertur einer Glasfaser wird mit NA = n0 sin 𝜃 = (n21 − n22 )1/2
angegeben, wobei n1 und n2 die Brechungsindizes von Faserkern und -mantel und
n0 die Brechungszahl des Umgebungsmediums bezeichnen. Der Winkel 𝜃 wird auch
als Akzeptanzwinkel bezeichnet; das ist der maximale Winkel, unter dem Licht auf
das polierte Ende der Glasfaser treffen kann, um im Faserkern mittels Totalreflexion
propagiert zu werden. Alle Strahlen, die unter einem größeren Winkel auf das Fase-
rende treffen, können nicht durch die Glasfaser weitergeleitet werden und verlassen
den Kern. Typische Werte für die Brechungsindizes für Fasern aus Quarzglas sind z. B.
n1 = 1,475; n2 = 1,460; NA = 0,098; 𝜃 = 12°.
Die spektrale Transmission T(𝜆) einer Glasfaser beschreibt den Intensitätsverlust
eines Lichtstrahls (Lichtschwächung) mit der Wellenlänge 𝜆, ist abhängig von den
Absorbtionsverlusten im Faserkern und wird weiter bestimmt durch die nichtideale
Totalreflexion zwischen Faserkern und -mantel sowie durch Verluste beim Ein- und
Auskoppeln des Lichtes am Faserein- und -ausgang [Winter 2008].
Die Glasfasern werden zum Transport des Lichtes bzw. des Bildes zu Faserbündeln
zusammengefasst. Flexible Faserendoskope besitzen zwei Arten von Faserbündeln:
eines, um Licht von einer extern stehenden Lichtquelle in das Körperinnere hinein-
zuleiten, und ein weiteres Faserbündel, um das am distalen Ende durch eine Objek-
tivlinse aufgenommene Bild aus dem Inneren des Körpers an ein Okular (und ggf. an
eine daran angeschlossene Kamera) herauszuleiten. Die Fasern zum Einkoppeln des
Lichtes werden auch als „Lichtleiter“ bezeichnet und werden i. d. R. durch ein unge-
ordnetes Faserbündel realisiert. Lichtleiterbündel besitzen ca. 5000. . .10 000 Licht-
leitfasern mit einem Durchmesser von ca. 20. . .30 μm. Im Gegensatz dazu muss das
Faserbündel zum Transport des Bildes aus dem Körper heraus als kohärentes Faser-
464 | Thomas Wittenberg

Abb. 13.5: Prinzip des geordneten Bildleiterbündels.

bündel realisiert werden (dem sogenannten „Bildleiter“), damit die erfasste räumliche
Information des Bildes entlang des Übertragungsweges erhalten bleibt (󳶳Abb. 13.5).
Bildleiterbündel können aus bis zu 100 000 Fasern mit einem Durchmessern zwischen
5 und 15 μm bestehen.
Flexible Faserendoskope bestehen aus einer beweglichen Spitze, einem flexiblen
Schlauch/Schaft sowie einem Handgriff. Die starre Endoskopspitze mit der darin ent-
haltenen Objektivlinse besitzt eine Länge von ca. 25. . .30 mm und kann vom Hand-
griff aus mittels im Endoskopieschaft laufender Bowdenzüge abgewinkelt werden. Je
nach Ausführung besitzen flexible Faserendoskope entweder ein Paar Bowdenzüge
(Abwinkelung der Spitze in einer Ebene) oder zwei Paare von Bowdenzügen (Abwinke-
lung in zwei Ebenen). Je nach Steifigkeit und Bauform des Endoskops kann die Spitze
zwischen 90° und 180° (retrograder Blick, „Inversum“) mechanisch abgewinkelt wer-
den.
Wird ein Fiberskop in einen röhrenartigen Hohlraum wie z. B. in die Lunge oder
transnasal bis zum Kehlkopf eingeführt, ergeben sich damit bis zu vier Freiheitsgrade
für den Endoskopiker, das Instrument in den Hohlräumen zu bewegen und zum Si-
tus zu navigieren: Schieben und Ziehen entlang der Hauptachse des Endoskops, eine
vollständige (360°) Rotation um diese Hauptachse sowie die Abwinkelung der Endo-
skopspitze nach rechts und links bzw. oben und unten mittels der Bowdenzüge.
Typische Anwendungsgebiete für Fiberskope sind die Untersuchung des Nasen-
Rachenraums in der HNO-Heilkunde und Phoniatrie, bei der das Endoskop transna-
sal bis oberhalb des Kehlkopfs vorgeschoben wird, sowie die Bronchoskopie, d. h.
die Untersuchung der Lunge und Bronchien im Kontext einer Lungenuntersuchung
und in der Anästhesiologie. In jüngster Zeit lassen sich auch Gallen- und Pankreas-
gänge mittels sehr dünner faseroptischer Endoskopiesysteme untersuchen. Im Falle
der Pankreatiskoskopie wird ein Faserendoskop durch den Arbeitskanal eines gastro-
skopischen Videoendoskops (vgl. 󳶳Kap. 13.5) geschoben, um von dort aus in den we-
sentlich dünneren Pankreasgang eingeführt zu werden (sogenannte „Mutter-Toch-
ter-Endoskopie“).
Zusammenfassend lassen sich Fiberskope im Wesentlichen durch folgende Para-
meter charakterisieren:
– Außendurchmesser
– Arbeitslänge
– Arbeitskanal
– Abwinkelebenen
13 Endoskopie | 465

– Abwinkelbereich
– Blickwinkel
– Anzahl und Art der Lichtleitfasern
– Anzahl und Art der Bildleitfasern

13.5 Videoendoskope
Videoendoskope sind eine Weiterentwicklung der flexiblen Faserendoskope, bei
denen die optische Übertragungsstrecke anstatt über Glasfasern durch eine elek-
tronische Übertragung ersetzt wird (󳶳Abb. 13.6). In diesem Fall wird das von
einer Objektivlinse am distalen Ende erfasste Bild auf einen elektronischen CCD-
oder CMOS-Bildsensor abgebildet und dann kabelgebunden an ein elektronisches
Aufzeichnungs- und Wiedergabesystem übertragen. Mittels CCD- oder CMOS-Bildsen-
soren wird das einfallende Licht durch einer Matrix von Sensorelementen (Bildpunk-
ten, Pixeln) erfasst. Die räumliche Auflösung des erfassten Bildes hängt sowohl von
der Objektivlinse als auch von der Bildauflösung des Bildsensors ab und liegt heute
je nach System und verwendeten Bildsensoren zwischen 480 × 576 (PAL) bis zu ca.
1920 × 1080 (HDTV) Bildpunkten. Die Aufnahmegeschwindigkeit von Videoendosko-
pen entspricht üblicherweise der des verwendeten Fernseh-/Videoformats, d. h. in
Europa (PAL/SECAM) 25 Voll- bzw. 50 Halbbilder pro Sekunde, in den USA (NTSC)
30 Voll- bzw. 60 Halbbilder (sogenannte Frames). Bei den traditionellen Videosys-
temen sind die Aufnahmen daher auch mit sogenannten „Interlacing-Artefakten“
verbunden, da die Halbbilder zeitlich versetzt aufgenommen, aber dann zusammen
angezeigt werden. Durch die Entwicklung volldigitaler elektronischer Sensorsysteme
werden alternativ auch sogenannte „progressive scans“ realisiert, d. h., das Bild wird
nicht – wie früher in der Fernsehtechnik üblich – in zwei zeitlich versetzte Halbbilder
aufgespalten, sondern jedes Bild wird direkt blockweise aufgezeichnet.

Gastroskopie: Untersuchung von Speiseröhre, Magen und Zwölffingerdarm mithilfe eines Gastro-
skops.

Videoendoskope finden überwiegend in der Bronchoskopie bei der Untersuchung der


Luft- und Atemwege ihren Einsatz, im Bereich der Phoniatrie und HNO-Heilkunde bei
der Untersuchung des Kehlkopfes und den Nasennebenhöhlen sowie in der Gastroen-
terologie bei der Untersuchung und Intervention im oberen (Speiseröhre, Magen und
Zwölffingerdarm, Eingang des Dünndarms) und unteren (Dickdarm, Enddarm) Ga-
strointestinaltrakt. Die Durchmesser der Videoendoskope variieren zwischen 1,8 mm
(Bronchoskop) und 12,8 mm (Koloskop) (󳶳Abb. 13.6). Durch die fortschreitenden Her-
stellungstechniken für CCD- und CMOS-Bildsensoren sind in Zukunft auch noch dün-
nere Baugrößen möglich. Die Länge von Videoendoskopen kann bei Koloskopen bis
zu 2000 mm betragen.
466 | Thomas Wittenberg

(a) (b)

Abb. 13.6: (a) Videoendoskopie am Beispiel der Gastroenteroskopie: Der Untersucher navigiert
mittels Bowdenzüge im Handstück die Spitze des Endoskops und unter visueller Kontrolle (Übertra-
gung der Szene vom Bildsensor am distalen Ende) zum Situs, hier eine Läsion (auffälliges Gewebe)
in der Speiseröhre (b).

Um eine Übertragung von Mikroorganismen wie Bakterien, Viren, Pilze, Würmer


und Sporen auszuschließen, müssen die Endoskope und das zugehörige Instrumen-
tarium nach der Verwendung sorgfältig aufbereitet werden. Eine solche Aufbereitung
erfolgt je nach Endoskop durch Reinigung, Desinfektion, Sterilisation (Bronchosko-
pe) oder Autoklavieren. Da dieser Prozess aufwändig und kostenintensiv ist und zum
heutigen Zeitpunkt Bildsensoren für Handys und Kameras immer günstiger herzustel-
len sind, ist abzusehen, dass in naher Zukunft auch Einweg-Videoskope auf den Markt
kommen, bei denen die Ansprüche bzgl. Resistenz gegenüber einer Aufbereitung (z. B.
Beständigkeit gegenüber Hitze und Feuchtigkeit) zugunsten der Herstellungskosten
vernachlässigbar sind (z. B. Covi et al. 2010).

13.6 Schluckkapselendoskope
Etwa seit Ende des zweiten Jahrtausends werden verschluckbare Einweg-Kame-
ras, die sogenannten „Pillcams“ oder „Kapselendoskope“, in der klinischen Routine
verwendet und seit 2010 auch von den Krankenkassen nicht nur als private Zusatzleis-
tung, sondern bei einer entsprechenden Indikation auch regulär abgerechnet. Diese
„Endoskopiekapseln“ sind Endoskope in Tablettengröße. Sie sind ca. 30. . . 40 mm
lang mit einem Durchmesser von 8. . .12 mm und beinhalten neben einem kleinen
Bildsensor und einigen LEDs auch Batterien mit einer Laufzeit von bis zu 8 Stunden
sowie einen Sender, der die Bilder ca. alle 250. . .500 ms auf einer Frequenz von ca.
434 MHz zu einem am Körper getragenen Antennensystem aus dem Körper heraus
sendet (󳶳Abb. 13.7). Die Bilder mit einer Auflösung von ca. 640 × 480 Bildpunkten
(VGA-Auflösung) werden von einem Antennensystem empfangen, das der Patient
auf Bauch und Rücken trägt, und auf einer am Gürtel getragenen Speichereinheit
13 Endoskopie | 467

optisches
Fenster

Linse
Antenne
Beleuchtungs- CMOS- Batterien Sender
LED Kamera
(a) (b)

Abb. 13.7: Schemazeichnung einer Endoskopkapsel (a) sowie ein damit erfasstes Bild (b). Das rech-
te Bild zeigt eine aktive Blutung aus dem Dünndarm rechts unten im Bild. Oben normale Dünndarm-
schleimhaut mit regelrechten Zotten. (Bildquelle PD Dr. Uwe Seitz, Kreiskrankenhaus Bergstraße,
Heppenheim).

archiviert. Eine exakte externe Navigation der Kapsel in Magen und Darm durch den
Endoskopiker ist aktuell nicht möglich; der Transport bzw. die Fortbewegung der Kap-
sel von Mund zu Anus geschieht ausschließlich durch die Peristaltik der Hohlorgane
(s. auch Chen und Lee, 2012).
Eingesetzt werden diese Endoskopiekapseln sowohl für die Untersuchung des
Dünndarms (Endoskopkapseln mit einer Kamera), der mit konventionellen Videoen-
doskopen nur schwer zugänglich ist, als auch in jüngster Zeit vermehrt im Dickdarm.
Wegen des größeren Lumens des Dickdarms werden dort auch Kapselendoskope mit
Kameras und LEDs an beiden Enden und mit einem größeren Durchmesser eingesetzt.
Für die Diagnostik werden die im Körperinneren erfassten und abgespeicherten
Bildsequenzen im Nachhinein von Experten an Rechnern mit einer Wiedergabe- und
Analysesoftware angesehen und auf mögliche Auffälligkeiten hin untersucht. Wird
eine Läsion, z. B. ein Polyp, in den Bildsequenzen gefunden, muss dieser allerdings
unter zu Hilfenahme eines Videoendoskops (s. 󳶳Kap. 13.5) wiedergefunden und abge-
tragen werden.
Jüngste Forschungs- und Entwicklungstrends im Bereich der Kapselendoskopie
gehen in die Richtung von „steuerbaren“ Systemen, d. h., die Kapseln werden nicht
allein über die Peristaltik transportiert, sondern lassen sich aktiv von außen z. B. über
Magnete manuell (oder maschinell) steuern. Futuristische Szenarien beschreiben hier
auch Kapselendoskope mit steuerbaren Antrieben, unterschiedlichen Aktuatoren zur
Behandlung von Läsionen sowie kooperative „intelligente Kapselschwärme“.
Kapselendoskope lassen sich u. a. durch folgende Parameter charakterisieren:
– Außendurchmesser
– Länge
– Anzahl und Auflösung der Kameras
– Anzahl und Art der LEDs
468 | Thomas Wittenberg

13.7 Farbkontrast und Marker


Die diagnostische und interventionelle Endoskopie kommt in Wesentlichen ohne
Kontrastmittel aus. Allerdings werden in vielen Anwendungen zur optischen Kon-
trastanhebung die zu untersuchenden Organoberflächen mit verdünnter Essigsäure
besprüht.
Alternativ werden in der Gastroenterologie (Untersuchung von Magen und
Darm) zur Verbesserung der Detailerkennung und zur Erkennung rein optisch
nicht wahrnehmbarer Mukosaveränderungen Farbstoffe eingesetzt (sogenannte
„Chromoendoskopie“). Meistens handelt es sich hierbei um chemische Farbstof-
fe, die entweder mit intrazellulären Strukturen der Mukosa (Intravitalfärbung) oder
mit Bestandteilen der Mukosazelloberfläche reagieren (Kontrastfärbung) [Irion und
Leonhardt 2003]. Absorptive Farbsubstanzen sind u. a. Methylenblau, Toluidin-
blau und Cresylviolett. Z. B. wird Methylenblau von aktiv absorbierenden Zellen des
Dünndarmes und des Kolons sowie von metaplastischen Zellen aufgenommen und
markiert somit auffälliges Gewebe in Speiseröhre und Magen. Indigokarmin ist ein
kontrastgebender Farbstoff und wird in allen Darmabschnitten verwendet. Es wird
auf die Schleimhaut gesprüht und bildet einen farblich blauen Kontrast zur rötlichen
Darmmukosa. Durch die tiefblaue Färbung treten insbesondere flache, eingesunkene
Karzinome besonders deutlich hervor [Irion und Leonhardt 2003].
Seit ca. zehn Jahren wird auch gefiltertes Licht für eine verbesserte Kontrastbildge-
bung eingesetzt. Beim sogenannten Narrow-Band Imaging (NBI) wird bei der Beleuch-
tung ein schmalbandiger Farbfilter verwendet, der zu einer Reduktion des Lichtspek-
trums des oberflächlich eindringenden Lichtes führt und damit die Darstellung von
neoplastischem Gewebe unterstützt.
Neuere Entwicklungen kommen aus dem Bereich der biomolekularen Bildge-
bung: Ein systemisch oder lokal applizierter Biomarker kann sich beispielsweise
in einem Tumor anreichern oder umwandeln und dort zu einer starken Fluoreszenz
führen (endoskopgestützte Fluoreszenzdiagnostik und photodynamische Thera-
pie). So gelingt es heute, das Harnblasenkarzinom mit Hexaminolevulinat und den
Gebärmutterhalskrebs mit einem 5-Aminolävulinsäure-Marker (5-ALA) endoskopisch
sichtbar zu machen.

13.8 Anwendungen der Endoskopie


Entsprechend den unterschiedlichen Zugangswegen durch natürliche und künstlich
geschaffene Körperöffnungen sowie den damit verbundenen diagnostischen und the-
rapeutischen Fragestellungen werden unterschiedliche Endoskope hergestellt, deren
Anwendung u. a. im Namen erkenntlich ist. 󳶳Tab. 13.1 gibt einen Überblick über die
wichtigsten Typen von Endoskopen sowie deren Spektrum von Bauformen.
Tab. 13.1: Überblick über die wichtigsten Typen von Endoskopen sowie deren Bauformen.

Name Anwendung Primäre Bauart Mögliche Wichtige Blickwinkel in Länge in mm Abwinkelbar in


Durchmesser Blickrichtungen Grad x-Richtung
in mm in Grad

Arthroskop Gelenkhöhlen starr 2,4...4 0, 30, 70 90 100...200 nein


Bronchoskop Luftröhre und starr 3...9 0, 30, 90 90 300...450 nein
Bronchien
Videoendoskop 1,8...6,4 0 90 600 ja, auf/ab
Fiberskop 2,7...5,9 0 100...120 600 ja, auf/ab
Gastroskop Speiseröhre Videoendoskop 5,9...117,5 0 120...140 1.100...1.400 ja
Magen auf/ab
rechts/links
Koloskop (auch End- und Videoendoskop 8,0...12,8 0 120...170 1330...1990 ja
„Kolonoskop“) Dickdarm auf/ab
rechts/links
Kapsel- Dünndarm, Kapsel 8...12 0 ca. 100 30...40 nein
endoskop Dickdarm
(„Pillcam“)
Lupen- Kehlkopf starr 7...10 70, 90 90 145...180 nein
larygoskop
Videoendoskop 3,5 0 85 300 ja, auf/ab
Laparoskop Bauchraum starr 4...10 0, 15, 30, 70 75...90 300 nein
Zystoskop Blase starr ca. 4 0, 30, 70 70...80 280...300 nein
13 Endoskopie | 469
470 | Thomas Wittenberg

Quellenverzeichnis
Chen Y., Lee J.: A Review of Machine-Vision-Based Analysis of Wireless Capsule Endoscopy Video.
Hindawi Publishing Corporation Diagnostic and Therapeutic Endoscopy Volume 2012, Article ID
418037, 9 pages doi:10.1155/2012/418037.
Covi D., Cavallotti C., Vatteroni M., Clementel L., Valdastri P., Menciassi A., Dario P., Sartoria A.:
Miniaturized digital camera system for disposable endoscopic applications. Sensors and
Actuators A 162 (2010) 291–296.
Halliday D., Resnick R.: Fundamentals of Physics, John Wiley & Sons, New York, 1991, 2nd Edition.
Liang R.: Optical Design for Biomedical Imaging, 2010.
Litynski G. S.: Highlights in the history of laparoscopy: the development of laparoscopic techniques
– a cumulative effort of internists, gynecologists, and surgeons. Frankfurt/Main: Barbara
Bernert Verlag, 1996.
Munz Y., Moorthy K., Dosis A., Hernandez J. D., Bann S., Bello F., et al.: The benefits of stereoscopic
vision in robotic-assisted performance on bench models. Surg Endosc 2004; 18: 611–616.
Nitze M.: Eine neue Beobachtungs- und Untersuchungsmethode für Harnröhre, Harnblase und
Rectum. Wiener Medizinische Wochenschrift 1879; 29: 24.
Reling J., Flögel H. H., Werschy M.: Technische Endoskopie: Grundlagen und Praxis endoskopischer
Untersuchungen. Renningen: Expert-Verlag, 2001.
Winter V.: Automatische Bildrestaurierung für faseroptische Systeme am Beispiel von Fiberskopen.
Dissertation, Univ. Erlangen. Stuttgart: Fraunhofer IRB-Verlag, 2008.

Weiterführende Literatur
Feußner H., Schneider A., Meining A.: Endoskopie, minimal-invasive Chirurgie und navigierte
Systeme. In: Wintermantel E., Suk-Woo H. (Hrsg.): Medizintechnik: Life Science Engineering.
Berlin, Heidelberg: Springer, 2009: 915–955.
Irion K. M., Leonhardt M.: Endoskopie. In: Kramme R. (Hrsg.): Medizintechnik. 5. Aufl. Berlin:
Springer, 2011: 379–401.

Testfragen
1. Skizzieren Sie die vier Übertragungsmöglichkeiten, um Bilddaten aus dem Inneren des Körpers
nach außen zu leiten.
2. Auf welchem Prinzip basiert die Lichtübertragung von Glasfasern?
3. Was versteht man unter einem Hopkins-Endoskop?
4. Was versteht man unter Chromoendoskopie?
5. Welche Rolle spielt die Endoskope bei der Schlüssellochchirurgie?
Julia Walther, Edmund Koch
14 Optische Kohärenztomographie

14.1 Diagnostische Zielsetzung | 472


14.2 Physikalische Grundlagen | 473
14.3 Technik und Algorithmen | 475
14.4 Anwendungen in der Medizin | 482
14.5 Qualitätssicherung und Normen | 496
14.6 Nebenwirkungen/Grenzwerte | 496

Zusammenfassung: Die Optische Kohärenztomographie (OCT) ist ein relativ neues


(1991) bildgebendes Verfahren, welches auf dem Prinzip der Weißlichtinterferometrie
beruht. Aufgrund der Verwendung von nahinfrarotem Licht erreicht es Auflösungen
im Bereich von 1. . . 10 μm. Die Hauptanwendung liegt heute im Bereich der Augen-
heilkunde sowohl zur Diagnose bei verschiedenen Krankheiten und Verletzungen
der Netzhaut als auch zur Untersuchung des vorderen Augenabschnitts. Weiterhin
wird das Verfahren klinisch zur Beurteilung von Plaques in Blutgefäßen eingesetzt.
Das Verfahren erlaubt die Darstellung von zweidimensionalen Bildern (B-Scans) mit
Videorate. Verschiedene Erweiterungen der Methode ermöglichen die Darstellung
von Blutfluss und Doppelbrechung im Gewebe.

Abstract: Optical Coherence Tomography (OCT) is a relatively new imaging modality


(1991) that is based on white-light interferometry. The use of near-infrared light per-
mits a resolution in the range of 1. . . 10 μm. The most important application of OCT is
in ophthalmology, i.e., the diagnosis of various conditions of the human eye in the
anterior and posterior segments. Furthermore, OCT is clinically applied to diagnose
plaques in vessels. It allows video rate imaging of two-dimensional cross sections (B-
Mode), and extensions of the method are used to image blood flow and birefringence
in tissue.
472 | Julia Walther, Edmund Koch

14.1 Diagnostische Zielsetzung


Der Begriff Optische Kohärenztomographie (engl. Optical Coherence Tomography,
OCT) wurde erstmals 1991 in der Arbeit von Huang und Fujimoto aufgeführt [Huang
1991]. Die OCT ist eine nichtinvasive, kontaktlose Methode zur Bildgebung in streuen-
den Medien mit einer Auflösung im Bereich zwischen 1 und 15 μm. Sie füllt bezüglich
Auflösung und Eindringtiefe die Lücke zwischen Konfokalmikroskopie und Bildge-
bung mittels Ultraschall. Das Prinzip und auch die Bilder ähneln ebenfalls der Ultra-
schallbildgebung. Die OCT basiert auf der Weißlichtinterferometrie und misst die
Amplitude des rückgestreuten Lichtes als Funktion des optischen Weges. Ähnliche
Methoden wurden auch schon vorher zur Untersuchung von biologischem Gewebe,
insbesondere zur Untersuchung der Strukturen im Auge [Fercher 1988; Hitzenberger
1991], verwendet.

Optische Kohärenztomographie (OCT): interferometrische Methode mit Licht geringer Kohärenz-


länge, bei der Tiefeninformationen durch Abrasterung zu Schnittbildern oder auch Volumenscans
zusammengefasst werden.

Weißlichtinterferometrie: Methode, die die Interferenz von Proben- und Referenzstrahl einer breit-
bandigen Lichtquelle mit entsprechend kurzer Kohärenzlänge ausnutzt, um Weglängenunter-
schiede zu detektieren.

Die wichtigste Anwendung der OCT im klinischen Alltag liegt in der Ophthalmologie
zur Diagnostik von Schäden an der Retina. Der Durchbruch, den die OCT in diesem
Bereich erlangte, ist zum einen darauf zurückzuführen, dass es keine anderen bild-
gebenden Methoden gibt, die Detailinformationen über die Retina liefern, und zum
anderen, dass aufgrund der hohen Transparenz des Glaskörpers die Eindringtiefe der
OCT hier nicht auf einzelne Millimeter limitiert ist, sondern Informationen aus Gewe-
be hinter der RPE-Schicht (RPE: retinales Pigmentepithel) gewonnen werden können.
Die Diagnose von Netzhautablösungen, Löchern in der Netzhaut und den verschie-
denen Formen der altersbedingten Makuladegeneration (AMD) ist durch den Ein-
satz der OCT erheblich vereinfacht worden. Daneben wird die OCT auch zur Bildge-
bung am vorderen Augenabschnitt (anterior segment) eingesetzt, um beispielsweise
die Ursachen für einen erhöhten Augeninnendruck zu finden. Weiter wird die OCT
klinisch eingesetzt, um Plaques in Herzkranzgefäßen zu diagnostizieren. Andere An-
wendungen der OCT, auf die im späteren Abschnitt eingegangen wird, haben noch
keinen Eingang in den klinischen Alltag gefunden und liefern in Forschungsprojek-
ten neue Erkenntnisse für ein besseres Verständnis von Vorgängen im Körper. Neben
diesen Anwendungen in der Medizin und der biomedizinischen Forschung findet die
OCT auch immer mehr Anwendungen im industriellen Umfeld, insbesondere in der
zerstörungsfreien Materialanalyse.
14 Optische Kohärenztomographie | 473

14.2 Physikalische Grundlagen


Das klassische Prinzip der OCT beruht auf dem Michelson-Interferometer [Michel-
son 1881]. Licht wird an einem Strahlteiler in einen Referenz- und einen Probenstrahl
aufgespalten. Die Überlagerung der beiden Teilstrahlen führt zur Interferenz, aus der
die Information über die Stärke der Reflektion als Funktion der Tiefe ermittelt wird.
OCT-Systeme können in klassischer Freistrahl-Optik realisiert werden, doch erlaubt
die große Anzahl von faseroptischen Komponenten auch eine Realisierung mit Mo-
nomodefasern. Multimodefasern eignen sich aufgrund der Modenabhängigkeit der
Laufzeit generell nicht für die Realisierung von Interferometern. Ein faseroptisches
Michelson-Interferometer besteht aus einem 2 × 2-Koppler. An einem Arm erfolgt
die Einspeisung des Lichtes. Gegenüber befinden sich Referenz- und Probenstrahl.
Der vierte Arm wird zur Detektion des interferierenden Lichtes genutzt (󳶳Abb. 14.1).
Werden zum Aufbau normale Fasern verwendet, die immer eine gewisse Doppelbre-
chung aufweisen, so werden zur Erzeugung eines großen Interferenzkontrastes in
mindestens einem Arm des Interferometers Polarisationssteller benötigt, um die Po-
larisation von Referenz- und Probenstrahl anzupassen.

Doppelbrechung: Auftrennung eines Lichtbündels in zwei senkrecht zueinander polarisierte Teil-


bündel beim Durchgang durch bestimmte, optisch anisotrope Materialien. Ursache ist das Auftre-
ten von zwei unterschiedlichen Ausbreitungsgeschwindigkeiten des Lichts in diesen Materialien.

Monomodefaser: Lichtleitfaser mit einem so dünnen Kern, dass sich mit der gewünschten Wellen-
länge nur ein Wellentyp ausbreiten kann.

Multimodenfaser: Lichtleitfaser mit größerem Kerndurchmesser als die Monomodefaser, so dass


viele unterschiedliche Lichtwege im Kern der Faser möglich sind. Unterschiedliche Wege haben
unterschiedliche Längen.

Das Signal am Detektor IG setzt sich zusammen aus der Intensität des Strahls aus dem
Referenzarm IR und der Intensität des Signals aus dem Probenarm IP und dem Interfe-
renzterm 2𝛾√IR IP cos(𝜙). Der Interferenzterm ist über die Phase 𝜙 moduliert, die von
dem Gangunterschied zwischen Proben- und Referenzstrahl verursacht wird. Die Ab-
hängigkeit von der spektralen Verteilung der Lichtquelle kann durch die Kohärenz-
funktion 𝛾(𝜏), die vom Zeitversatz 𝜏 der interferierenden Strahlen abhängt, beschrie-
ben werden [Born 1999].

IG = IR + IP + 2 𝛾 √IR IP cos(𝜙). (14.1)

Wie man 󳶳Gl. (14.1) entnimmt, hängt der Interferenzterm im Detektorsignal von der
Amplitude (Wurzel der Intensität) der Welle im Probenarm ab. Dies ist der Grund da-
für, dass sich mittels OCT auch sehr geringe Probensignale detektieren lassen. Die
Empfindlichkeit (SNR) eines Systems wird in der OCT als die Reflektivität einer ebe-
nen Platte angegeben, die ein dem Rauschen äquivalentes Signal erzeugt. Typische
Werte liegen im Bereich von 10−10 , was einem SNR von 100 dB entspricht. Aufgrund
474 | Julia Walther, Edmund Koch

Referenzarm
L1
SLD

beweglicher
Faserschmelz- Spiegel
koppler

Probe
L3 L2

Detektor
(a) Probenarm

demoduliertes Signal
Detektorsignal

Position z Tiefe z
(b)

Abb. 14.1: Schema eines Time Domain OCT-Systems aufbauend auf einem faseroptischen 2 × 2-Faser-
schmelzkoppler. Das Licht einer Superlumineszenzdiode (SLD) wird durch den Koppler in Referenz-
und Probenstrahl aufgespalten. Im Probenarm wird von mehreren Grenzschichten Licht rückre-
flektiert. Im Referenzarm wird das Licht durch einen axial bewegten Spiegel zurückreflektiert und
interferiert im Strahlteiler. Als Funktion der Position des Spiegels im Referenzarm erhält man In-
terferenzen, aus denen man durch Demodulation das Signal gewinnt. L1 bis L3 sind verschiedene
Linsen bzw. Linsensysteme.

von Absorption und starker Streuung der meisten Gewebe erreicht die OCT trotz dieser
hohen Empfindlichkeit nur im sogenannten optischen Fenster von ca. 700 bis 1400 nm
eine Eindringtiefe im Bereich von 1. . .2 mm. Die kurzwellige Grenze wird durch Streu-
ung und Absorption von Hämoglobin und Melanin verursacht. Am langwelligen Ende
begrenzt die Absorption von Wasser die Eindringtiefe. Da die Wasserabsorption bei
1700 nm ein weiteres Minimum hat, wurde auch dieser Bereich für die OCT verwen-
det [Sharma 2008], was sich aber bis heute nicht durchsetzen konnte. Übliche OCT-
Systeme verwenden entweder den Bereich um 800 nm, da Silizium dort als Detektor-
element verwendet werden kann, oder den Bereich um 1300 nm, in dem Komponenten
aus der Telekommunikation verwendet werden können. In letzter Zeit gewinnt insbe-
sondere der Bereich um 1000 nm an Bedeutung [Povazay 2007; Unterhuber 2005], da
dieser aufgrund der langen Strecke durch den Glaskörper (dominierend aus Wasser
bestehend) für Untersuchungen am Augenhintergrund besser geeignet ist. Um eine
14 Optische Kohärenztomographie | 475

hohe axiale (in Strahlrichtung) Auflösung zu erreichen, sollte die Kohärenzfunktion


𝛾(𝜏) so schmal wie möglich sein. Üblicherweise gibt man statt der kompletten Kohä-
renzfunktion nur die Kohärenzlänge lc einer Lichtquelle an. Für eine Lichtquelle mit
Gauss-förmigem Spektrum der Breite Δ𝜆 und der Zentralwellenlänge 𝜆 0 (FWHM) er-
gibt sich die Kohärenzlänge zu:
2
2 ln 2 𝜆 0
lc = ⋅ (14.2)
𝜋 Δ𝜆
Aus dem Vorgenannten ergibt sich, dass Systeme um 800 nm meist eine bessere Auflö-
sung aufweisen, wogegen System um 1300 nm, aufgrund reduzierter Streuung, Struk-
turen in größerer Tiefe darstellen können. Da die Auflösung in Gewebe um den Faktor
n des Brechungsindexes besser (kleiner) wird, erreicht man mit Systemen sehr hoher
Bandbreite Auflösungen bis ca. 1 μm [Drexler 1999]. Die höchste Auflösung wird heute
mit Femtosekundenlasern erreicht, die aber nach wie vor relativ teuer sind. Deutlich
günstiger und einfacher im Betrieb sind dagegen Superlumineszenzdioden (SLD),
die spektrale Breiten zwischen 25 und 75 nm bei einer Leistung zwischen 1 und 50 mW
erreichen, was zu einer axialen Auflösung um 10 μm führt [Ko 2004]. Die Kombinati-
on von mehreren spektral verschobenen SLDs mit Strahlteilern oder Faserkopplern
erlaubt die Steigerung der spektralen Breite, kann jedoch zu Problemen durch unter-
schiedliche Polarisation führen. In den letzten Jahren wurden auch Superkontinu-
umlichtquellen in der OCT verwendet, die Strahlung zwischen 450 nm und 2 μm emit-
tieren [Szkulmowski 2005]. Zwar kann aufgrund des starken Pumppeaks um 1060 nm
im emittierten Licht nicht das gesamte Spektrum verwendet werden, doch erlaubt die
enorme Bandbreite die zeitgleiche Detektion in beiden Bändern [Cimalla 2009; Spöler
2007].

Femtosekundenlaser: Laser, der extrem kurze Lichtpulse mit hoher Energiedichte aussendet, die
eine Dauer im Bereich von Femtosekunden (10−15 s) haben.

Superkontinuumlichtquelle: sehr breitbandige Lichtquelle, die auch als weißer Laser bezeichnet
wird und auf nichtlinearen optischen Prozessen, angeregt durch einen Kurzpulslaser, basiert.

Superlumineszenzdiode (SLD): Lichtquelle mit großer spektraler Breite und hoher Ausgangsleis-
tung, die sich ähnlich einem Laserstrahl fokussieren lässt.

14.3 Technik und Algorithmen


Trägt man die Amplitude des OCT-Signals als Funktion der Tiefe auf, so bezeichnet
man dies in Analogie zur Ultraschalltechnik mit A-Scan. Bewegt man den Strahl quer
über die Probe und trägt die Amplitude des OCT-Signals als Funktion der beiden Orts-
koordinaten (Strahlposition, Tiefe) als Helligkeit (brightness) auf, so bezeichnet man
das Resultat als B-Bild oder B-Scan. Diese Bezeichnung verwendet man auch, wenn
476 | Julia Walther, Edmund Koch

statt der Grauwertskala eine Farbkodierung (z. B.: Schwarz-Grün-Gelb-Rot-Weiß) ge-


wählt wird, die in manchen Fällen Strukturen besser sichtbar macht. Zur Erfassung
dreidimensionaler Strukturen kann der Strahl in zwei Richtungen über die Probe ab-
gelenkt werden. Diese Daten werden manchmal als C-Scan bezeichnet. Wählt man in
einem solchen C-Scan eine Ebene senkrecht zur optischen Achse, so bezeichnet man
diesen Schnitt als ein En-face-Bild. Verzichtet man beim B-Scan auf die Bewegung des
Strahls über die Probe, so kann man die Bewegung längs der Strahlachse sichtbar ma-
chen, was als M-Scan (Motion) bezeichnet wird.
Zur Erfassung der tiefenabhängigen Signale wurden zwei unterschiedliche Tech-
nologien entwickelt, die im Weiteren erläutert werden.

14.3.1 OCT in der Zeit-Domäne – Time Domain OCT

Die erste Generation von OCT-Systemen wird heute als Time Domain OCT (TD OCT)
bezeichnet. Wie 󳶳Abb. 14.1 zu entnehmen, wird das Licht einer breitbandigen Licht-
quelle in Proben- und Referenzlicht aufgeteilt und nach Streuung im Probenarm bzw.
Reflexion am Spiegel im Referenzarm wieder zusammengeführt und auf den Detektor
geführt. Durch axiale Bewegung des Spiegels werden Interferenzen am Detektor nur
dann erzeugt, wenn sich die optische Länge zwischen Proben- und Referenzstrahl um
nicht mehr als die Kohärenzlänge lc der Lichtquelle unterscheidet. Bei vielen Refle-
xionen oder Streuern im Probenarm erhält man entsprechend viele Interferenzbursts.
Zur Aufnahme eines A-Scans wird die Position des Spiegels möglichst dreieckförmig
oder sägezahnförmig variiert. Die Modulationsfrequenz ergibt sich aus dem Quoti-
ent von doppelter Spiegelgeschwindigkeit und der Zentralwellenlänge der Lichtquel-
le und kann zur rauscharmen Demodulation verwendet werden. 2D- und 3D-Bilder
können parallel erfasst werden, wenn die Probe großflächig beleuchtet wird und das
Licht statt auf einem Einzeldetektor auf einen Zeilen- bzw. Array-Detektor abgebil-
det wird. Nachteil der großflächigen Systeme ist die geringe Quantumwellkapazität
der schnellen Detektoren, die zu einem geringen SNR führt. Zusätzlich kann sich die
transversale Auflösung reduzieren, da die Systeme nicht mehr konfokal sind und es so
zu einem Übersprechen durch Mehrfachstreuung kommen kann. Weiterhin sind sol-
che Systeme empfindlich auf Bewegung, da das Auslesen der Detektorzeile bzw. des
Array-Detektors (mindestens ein Datenpunkt pro 𝜆/4) die Verfahrgeschwindigkeit des
Spiegels stark limitiert.
Ein wichtiger Vorteil der TD OCT ist die Möglichkeit, den Fokus mit der Spiegel-
bewegung zu synchronisieren und damit eine hohe transversale Auflösung über den
gesamten Bereich zu erhalten [Qi 2004]. Hierbei muss jedoch berücksichtigt werden,
dass sich die optische Länge aus n ⋅ d berechnet, wobei n der Brechungsindex (Grup-
pengeschwindigkeit) des Mediums und d die Tiefe des Fokus ist, wogegen sich die
Fokusposition aufgrund der Bildhebung mit d/n ändert. Dies führt dazu, dass die
Geschwindigkeit der Spiegelverschiebung um den Faktor n2 größer sein muss als die
14 Optische Kohärenztomographie | 477

Geschwindigkeit der Fokusbewegung. Diese synchrone Veränderung kann zum einen


durch zwei unterschiedliche Antriebe erfolgen. Ein anderer Ansatz berücksichtigt,
dass der Brechungsindex von Gewebe ca. 1,4 beträgt, so dass n2 etwa 2 ist. Dies kann
durch eine gemeinsame Bewegung von Fokusoptik und Umlenkspiegel für den gefal-
teten Referenzarm realisiert werden [Schmitt 1997]. Der Vorteil solcher OCT-Systeme
ist, dass sich eine sehr hohe Auflösung in allen drei Dimensionen erreichen lässt und
dass der Messbereich theoretisch nicht begrenzt ist. Nachteil der Systeme ist jedoch,
dass die Geschwindigkeit dieser Systeme, angegeben in A-Scans pro Sekunde, durch
die mechanische Bewegung stark eingeschränkt ist [Kim 2010]. Zur Geschwindig-
keitssteigerung wurden viele Versuche über Multireflexion zwischen zwei Spiegeln
und ähnliche Konzepte verfolgt. Die größten Geschwindigkeiten mit einigen kHz
A-Scanrate wurden durch die Einführung von „Rapid Scanning Optical Delay Lines“
(RSOD) [Gao 2007] erreicht, die auf resonanten Galvanometerscannern beruhen. In
vielen dieser Systeme entkoppelt man mittels Gitteranordnung die Änderung des
optischen Weges von der Phasenänderung, um die Frequenz der Interferenzen zu
reduzieren [Rollins 1998].
Um auf die schnelle Bewegung des Spiegels zu verzichten, wurden auch Systeme
zur Abbildung der Interferenzen auf einen Zeilendetektor vorgeschlagen. Solche Sys-
teme sind als Lineare OCT (LOCT) in die Literatur eingegangen. Hier werden Referenz-
und Probenstrahl in eine Richtung mittels Zylinderlinse aufgeweitet und unter unter-
schiedlichem Winkel auf einen Zeilendetektor geführt, so dass für jeden Reflex aus der
Probe auf einem Punkt des Detektors die Länge von Proben- und Referenzweg gleich
ist und dort ein Interferenzburst zu finden ist [Hauger 2003]. Nachteil dieser Systeme
ist, dass man zur Auflösung eines Interferenzstreifens (Tiefe 𝜆 0 /2) mindestens zwei
Datenpunkte benötigt (Nyquist–Shannon-Theorem) und sich somit für einen Mess-
bereich von 2 mm mindestens 5000 Detektorelemente ergeben. Um die Frequenz der
Interferenzen und damit die Anzahl der Detektorelemente zu reduzieren, wurden Git-
ter eingesetzt [Koch 2004; Koch 2006; Watanabe 2009], doch haben sich auch die-
se Systeme nicht gegen die im folgenden Kapitel beschriebene Fourier Domain OCT
durchsetzen können, da die LOCT bezüglich SNR den gleichen Nachteil wie die zuvor
beschriebene TD OCT aufweist.

14.3.2 OCT in der Fourier-Domäne – Fourier Domain OCT

Ein Durchbruch in der Geschwindigkeit von OCT-Systemen wurde durch die Einfüh-
rung des Konzepts der Fourier Domain OCT (FD OCT) erreicht. Dieses Konzept wird
auch als spektrale Interferometrie [Fercher 1995], Kohärenz-Radar oder Spektral-
Radar bezeichnet [Bail 1996; Hausler 1998]. FD OCT basiert darauf, dass für jede
Wellenlänge in einem Interferometer bei jedem Gangunterschied Interferenzen zu
beobachten sind. Für einen definierten Weglängenunterschied zwischen Referenz-
und Probenarm wird das Interferenzsignal als Funktion der Wellenzahl (Kehrwert
478 | Julia Walther, Edmund Koch

der Wellenlänge) sinusförmig mit einer Frequenz oszillieren, die proportional zum
Weglängenunterschied ist. Kommt das Licht im Probenarm aus unterschiedlicher
Tiefe, so wird jeder Lichtanteil zu einer sinusförmigen Oszillation des Spektrums bei-
tragen. Damit ergibt eine Fourier-Transformation des Spektrums die Streuamplitude
als Funktion der Tiefe. Natürlich interferiert auch das Licht aus dem Probenarm mit
sich selbst, so dass im Spektrum auch Frequenzen auftreten, die dem Abstand von
verschiedenen Streuzentren entsprechen. Abhängig von der Stärke der Reflexionen
kann dies zu störenden Signalen im Bild führen und ist ein Nachteil dieses Verfahrens
gegenüber der TD OCT.
Das Interferenzspektrum kann auf zwei unterschiedliche Weisen erfasst wer-
den. In der Spektral-Domänen-OCT (SD OCT) wird das interferierende Signal mit
einem Spektrometer analysiert (󳶳Abb. 14.2). Verändert man die monochromatische
Eingangswellenlänge für das Interferometer als Funktion der Zeit und zeichnet die
Ausgangsintensität als Funktion der Wellenzahl auf, spricht man von Swept Source
OCT (SS OCT) oder „Optical Frequency Domain Imaging“ (OFDI) (󳶳Abb. 14.3). Die
Geschwindigkeit dieser Systeme ist nur durch die Ausleserate der Zeilenkameras
zur Erfassung des Spektrums bzw. durch die Durchstimmfrequenz der Laserquellen
limitiert. Wie eine Analyse ergibt, ist das erreichbare SNR bei gleicher Leistung und
Messzeit bei FD OCT um einen Faktor größer der mit der Wurzel aus Datenpunkten
pro A-Scan geht [Choma 2003; de Boer 2003; Leitgeb 2003a]. In Praxis ist dies ein um
20. . .30 dB besseres SNR bei gleicher Messzeit. Heute erreicht die SD OCT Geschwin-
digkeiten über 200 000 A-Scans pro Sekunde, und die Steigerung verläuft ähnlich wie
die der Rechenleistung von Computern. OFDI hat mit neuen Konzepten für schnell
durchstimmbare Laser bereits mehr als 20 Millionen A-Scans pro Sekunde erreicht
[Wieser 2010].

Spektrometerbasierte OCT – Spectral Domain OCT


Der Aufbau der SD OCT unterscheidet sich nur wenig von dem der TD OCT. Der Spie-
gel im Referenzarm wird nicht mehr bewegt, dafür wird der Einzeldetektor durch ein
Spektrometer mit Zeilenkamera ersetzt (󳶳Abb. 14.2). Der Vorteil der gezeigten Anord-
nung ist die hohe Flexibilität, die es erlaubt, Komponenten für die Kompensation von
Dispersion [Wojtkowski 2004] oder Phasenschieber [Wang 2007] in den Referenzarm
einzufügen. Verzichtet man jedoch auf das Licht aus diesem Arm und erzeugt die In-
terferenzen im Probenarm, so weisen solche Systeme eine deutlich höhere Phasensta-
bilität auf, und es kann auf die Polarisationssteller verzichtet werden. Während die
Bezeichnung „Common Path“ OCT zunächst nur für Systeme verwendet wurde, bei
denen ein Teilreflex im Probenarm als Referenzfläche verwendet wurde, werden heu-
te auch Systeme mit Strahlteiler in einem kompakten Messkopf so bezeichnet [Bach-
mann 2007; Kang 2010; Koch 2009a].
Um im Spektrometer eine ausreichende Auflösung zu erreichen, muss der Strahl
vor dem Gitter entsprechend aufgeweitet werden. Anschließend wird der Strahl auf
14 Optische Kohärenztomographie | 479

Referenzarm
L1
SLD

Spiegel
Faserschmelz-
koppler

Probe
L3 L2
G

L4 Probenarm
Zeilenkamera
(a)
Signalamplitude
Kamerasignal

FFT

Pixelnummer Tiefe z
(b)

Abb. 14.2: Schematische Darstellung eines Aufbaus für ein spektrometerbasiertes OCT-System.
Das Licht der SLD wird im Faserschmelzkoppler in Referenz- und Probenlicht aufgespalten. Im Refe-
renzarm befindet sich ein Spiegel. Das Licht aus dem Probenarm interferiert mit dem Licht aus dem
Referenzarm im Faserkoppler. Das Interferenzspektrum wird mittels Gitter (G) auf eine Zeilenkamera
abgebildet. Aus dem Signal der Zeilenkamera wird mittels FFT das tiefenabhängige Rückstreusignal
ermittelt. L1...L4 sind verschiedene Linsen bzw. Linsensysteme.

die Zeilenkamera fokussiert. Es kommen sowohl CCD- als auch CMOS-Kameras zum
Einsatz, wobei heute die CMOS-Kameras die höhere Geschwindigkeit bieten. Für den
Einsatz bei Wellenlängen zwischen 1000 nm und 1400 nm gibt es auch Zeilenkame-
ras aus InGaAs mit maximaler Zeilenfrequenz über 90 kHz. Leider sind diese Kame-
ras immer noch deutlich teurer im Vergleich zu ähnlich schnellen Kameras aus Sili-
zium. Jedes Auslesen der Zeilenkamera führt zu einem A-Scan. Dazu wird zunächst
vom Kamerasignal der Untergrund abgezogen, dann spektral gefiltert und die Daten
auf äquidistante Punkte in Wellenzahl umgerechnet. Die Skalierung auf Wellenzahl k
kann durch einfache Interpolation erfolgen [Bower 2007].
Deutlich bessere Ergebnisse werden jedoch durch ausgeklügelte Interpolati-
onsalgorithmen erreicht [Vergnole 2010]. Auf diese Transformation kann verzichtet
werden, wenn durch eine Kombination aus Gitter und Prisma, die von manchen
480 | Julia Walther, Edmund Koch

Autoren als „Grism“ [Hu 2007; Traub 1990] bezeichnet wird, das Spektrometer ei-
ne in k lineare Dispersion aufweist. Abschließend erhält man durch eine schnelle
Fourier-Transformation (󳶳FFT) die Streuamplitude als Funktion der Tiefe. In der
FD OCT hängt die Auflösung von der Breite und Form des Interferenzspektrums ab.
Bei SD OCT gilt darüber hinaus, dass das Verhältnis zwischen Auflösung und Messbe-
reich durch die Anzahl der Detektorelemente N begrenzt ist. Für ein Spektrum in der
Form eines Hanning- oder Hann-Fensters [Eigenwillig 2009], das eine gute Unter-
drückung von Nebenmaxima zeigt, ergibt sich das Verhältnis zu N/4. Es gibt zwar
Zeilendetektoren mit mehr als 10 000 Detektorelementen, doch weisen die schnellen
Kameras meist nur 1024 oder 2048 Elemente auf, so dass das Verhältnis hier auf 256
bzw. 512 begrenzt ist [Hauger 2003]. Zur Verbesserung dieses Verhältnisses wurden
deshalb Techniken entwickelt, die durch Kombination von zwei aufeinanderfolgen-
den A-Scans mit entsprechender Phasenverschiebung den Messbereich verdoppeln
[Jungwirth 2009]. Aufgrund der Ausdehnung der Einzeldetektoren, Übersprechen
zwischen benachbarten Detektorelementen, endlicher Auflösung der Spektrometer-
optik und nicht zuletzt durch die Skalierung auf Wellenzahl fällt die Empfindlichkeit
der SD OCT typischerweise um 10 bis 20 dB zum Ende des Messbereichs ab [Bajras-
zewski 2008].

Hanning- oder Von-Hann-Fenster: Fensterfunktion, um digitale Signale zu filtern (abgeleitet von


„to hann“ nach Julius von Hann, nicht zu verwechseln mit Hamming-Fenster). Im Intervall ±𝜋 hat
es die Form einer Kosinus-Funktion, die um eins addiert stets positiv ist.

OCT mit durchstimmbarer Lichtquelle – Optical Frequency Domain Imaging


Bei der OFDI verlegt man die spektrale Auflösung vom Ende des Interferometers an
den Eingang. Man benötigt dafür eine Lichtquelle, die in einem Zeitintervall, das mit
der Ausleserate der Detektorzeilen vergleichbar ist, über einen ausreichend großen
Wellenlängenbereich durchgestimmt werden kann. Während in der SD OCT das Spek-
trum als Funktion des Ortes aufgezeichnet wird, wird es in der OFDI als Funktion der
Zeit vermessen (󳶳Abb. 14.3).
Zwar gibt es Unterschiede zwischen den Konzepten in Bezug auf Bewegungsar-
tefakte, Signalabfall und weitere Parameter [Liu 2007; Walther 2008; Walther 2010],
aber die verwendeten Algorithmen ähneln sich sehr und liefern meist ähnliche Ergeb-
nisse. OFDI ist besonders interessant bei Wellenlängen über 1000 nm, da, wie bereits
erwähnt, InGaAs-Zeilenkameras deutlich teurer sind. Umgekehrt sind schnelle durch-
stimmbare Quellen unter 900 nm schwerer zu realisieren, da entsprechende Kompo-
nenten aus der Telekommunikation nicht zur Verfügung stehen. Die Abstimmung der
Laser erfolgt durch Prismen oder Gitter im Resonator in Verbindung mit Polygon-
Scannern, wie sie in Laserdruckern verwendet werden [Changho 2008]. Da diese Bau-
art relativ groß ist, wurden in den letzen Jahren durchstimmbare Laser auf Basis von
14 Optische Kohärenztomographie | 481

Referenzarm
L1

durchstimmbarer Spiegel
Faserschmelz-
Laser koppler

Probe
L3 L2

Detektor
(a) Probenarm
Signalamplitude
Detektorsignal

FFT

Zeit Tiefe z
(b)

Abb. 14.3: Prinzip eines OFDI-Systems. Das Licht einer durchstimmbaren Laserquelle wird auf
Proben- und Referenzarm aufgeteilt. Das rückreflektierte Licht interferiert im Faserschmelzkoppler.
Am Detektor wird das Interferenzsignal als Funktion der Zeit erfasst. Durch eine Fourier-Transfor-
mation wird daraus die Amplitude des tiefenabhängigen Rückstreusignals gewonnen. L1...L3 sind
unterschiedliche Linsen bzw. Linsensysteme.

piezoelektrischen Elementen oder mittels MEMS realisiert [Hughes 2010]. Aufgrund


der Länge des Resonators reduziert sich die Ausgangsleistung und Kohärenzlänge der
Laser bei Erhöhung der Durchstimmfrequenz. Die heutige Grenze liegt bei ca. 200 kHz
[Potsaid 2010]. Um noch schneller zu werden, wurde von R. Huber et al. [Huber 2006]
ein Konzept für einen Ringlaser mit langem Resonator vorgeschlagen, bei dem die
Umlaufzeit mit der Durchstimmfrequenz eines Filterelements übereinstimmt. Um ein
hohes SNR zu erreichen, müssen die Betriebsparameter sehr präzise einjustiert wer-
den [Biedermann 2009]. Durch dieses Konzept und Erweiterungen mittels „Buffering“
[Wieser 2010] scheint die Grenze der Geschwindigkeit der OCT nur noch durch die
Detektorgeschwindigkeit (einschließlich Wandler) und den Signalabfall durch die im-
mer weiter verringerte Photonenzahl pro A-Scan begrenzt zu sein. Praktische Grenzen
ergeben sich heute auch noch durch die Geschwindigkeit des Datentransfers in den
Rechner und die Verarbeitungs- und Speichergeschwindigkeit, insbesondere wenn
die Daten über Zeiten von mehreren Sekunden aufgezeichnet werden sollen.
482 | Julia Walther, Edmund Koch

Polygon-Scanner: rotierendes System von Spiegeln für die Auslenkung von Lichtwellen.

Micro-Electro-Mechanical System (MEMS; dt. Mikroelektromechanisches System): Mikroelektro-


mechanisches System, das typischerweise als Aktor oder Sensor eingesetzt wird.

14.4 Anwendungen in der Medizin


14.4.1 Klinische Anwendungen der OCT

OCT in der Ophthalmologie (Augenheilkunde)


Eines der klinischen Hauptanwendungsgebiete der OCT ist die nichtinvasive Bildge-
bung der Netzhaut. Die ihr vorgelagerten Schichten des Auges, wie Glaskörper, Linse
und Hornhaut, sind hochtransparent und erlauben somit einen einfachen optischen
Zugang zum Augenhintergrund. Diese Gegebenheit ermöglicht auch die Anwendung
von anderen ophthalmologischen Geräten wie Spaltlampe oder Funduskamera. Im
Gegensatz zu diesen Systemen erlaubt die OCT jedoch eine Schnittbilddarstellung der
retinalen Mikrostruktur unter In-vivo-Bedingungen (󳶳Abb. 14.4), was gegenwärtig mit
keinem anderen Bildgebungsverfahren möglich ist [Drexler 2008]. Sie stellt damit ein
wichtiges Diagnosewerkzeug für die Erkennung, Einstufung und Nachverfolgung von

Normalbefund Sehnerv
(blinder Fleck)
Fovea (gelber Fleck)

(a) (b)

retinale Nervenfaserschicht
Ganglienzellschicht
innere plexiforme Schicht
innere Körnerschicht
äußere plexiforme Schicht
äußere Körnerschicht
externe limitierende Membran
Schnittstelle Photorezeptorsegmente
retinales Pigmentepithel
(c) Aderhaut (Choroid)

Abb. 14.4: Bildgebung des Augenhintergrundes mittels Autofluoreszenz-Funduskopie (a) und inver-
tierte Schnittansicht der retinalen Mikrostruktur mittels OCT (b, c) unter Normalbedingungen. Mit
freundlicher Genehmigung der Heidelberg Engineering GmbH.
14 Optische Kohärenztomographie | 483

Augenerkrankungen wie der altersbedingten Makuladegeneration (medizinischer


Befund, der im Verlust der Sehkraft im Zentrum des Blickfeldes resultiert), verschie-
dene Formen der Retinopathie (allgemeiner Begriff für die nicht entzündliche Schä-
digung der Netzhaut) sowie dem Glaukom (grüner Star) dar (󳶳Abb. 14.5). Heutzutage
sind verschiedene kommerzielle ophthalmologische OCT-Systeme der vierten Gene-
ration erhältlich, die auf Basis einer schnellen Interferenzdetektion in der Spektral-
domäne arbeiten. All diese Systeme besitzen vergleichbare Leistungskenngrößen mit
einem axialen Auflösungsvermögen von 4. . . 6 μm im Spektralbereich um 800 nm und
einer Aufnahmegeschwindigkeit von 25 000. . . 40 000 A-Scans pro Sekunde [Wolf-
Schnurrbusch 2009], was eine 2D-Schnittbilddarstellung in Echtzeit erlaubt. Neben
der strukturellen Information an sich ist die Dicke der Netzhaut beziehungsweise ih-
rer Bestandteile, wie die retinale Nervenfaserschicht, von diagnostischem Interesse.
Die Hersteller von ophthalmologischen OCT-Geräten bieten daher auch Softwarelö-
sungen zur Vermessung von OCT-Daten an, wie beispielsweise deren automatische
Segmentierung zur Erstellung von Dickenkarten.
Als Erweiterung zur konventionellen ophthalmologischen OCT-Bildgebung um
800 nm arbeiten einige Forschungs- und Entwicklungssysteme in einem alternativen
Wellenlängenbereich um 1050 nm. Dieser Spektralbereich bietet einige Vorteile. Zum
einen ist die Lichtabschwächung durch Absorption und Streuung im Gewebe im
Vergleich zu kürzeren Wellenlängen geringer, insbesondere im Bereich des retinalen
Pigmentepithels. Gleichzeitig ist die Lichtabsorption durch das im vorderen Augen-
abschnitt sowie dem Glaskörper enthaltene Kammerwasser im Vergleich zu größeren
Wellenlängen noch verhältnismäßig klein. Daher erlaubt dieser Spektralbereich ei-
ne verbesserte Eindringtiefe und Visualisierung der stark durchbluteten Aderhaut,
die sich unterhalb der Netzhaut anschließt [Povazay 2003; Unterhuber 2005]. Von
einer gesteigerten Sichtbarkeit der Netzhaut bei Patienten mit getrübten Augen, bei-
spielsweise verursacht durch Katarakt (grauer Star), wird ebenfalls berichtet [Povazay
2007]. Nachteilig bei dieser Technologie ist, dass die üblichen Siliziumdetektoren auf-
grund ihrer begrenzten spektralen Sensitivität in diesem Wellenlängenbereich nicht
mehr verwendet werden können. Stattdessen muss in der spektrometerbasierten OCT
(SD OCT) auf die vergleichsweise teuren Zeilenkameras auf Indiumgalliumarsenid-
Basis zurückgegriffen werden. Alternativ kann der Übergang zur OCT mit durch-
stimmbarem Laser (OFDI) bei 1050 nm gewählt werden. Diese Lichtquellen liegen
preislich jedoch ebenfalls über den konventionellen Superlumineszenzdioden.
Eine besondere Eigenschaft der OCT ist die Entkopplung zwischen axialer und
lateraler Auflösung. Die axiale Auflösung wird hauptsächlich durch die Kohärenz-
länge der verwendeten Lichtquelle vorgegeben, wohingegen die laterale Auflösung,
wie in der konventionellen Lichtmikroskopie, durch die numerische Apertur der Fo-
kussieroptik, also durch Strahldurchmesser und Brennweite, definiert wird. Bei der
Bildgebung des Augenhintergrundes wird üblicherweise ein kollimierter Probenstrahl
über ein Linsenpaar oder Teleskop auf die Pupille des Auges abgebildet und durch die
484 | Julia Walther, Edmund Koch

geographische Atrophie

(a)

Drusen

(b)

choroidale Neovaskularisation

(c)

Abb. 14.5: Bildgebung des Augenhintergrundes mit verschiedenen Formen der Makuladegeneration.
Autofluoreszenz-Funduskopie (links) und OCT (rechts). Mit freundlicher Genehmigung der Heidel-
berg Engineering GmbH.

Brechkraft von Hornhaut und Augenlinse auf die Netzhaut fokussiert. Durch fächer-
förmige Ablenkung des Probenstrahls mittels Galvanometerspiegel können so Linien
oder Flächen auf der Netzhaut abgerastert und somit Schnittbilder beziehungsweise
Volumenscans generiert werden. Das laterale Auflösungsvermögen auf der Netzhaut
ist folglich durch den Pupillendurchmesser und die Brennweite des Auges begrenzt
und wird in der Praxis durch Abbildungsfehler der Augenoptik weiter reduziert.
Um diese Einschränkung zu überwinden, haben adaptive Optiken, die in der
Astronomie breite Anwendung finden, Einzug in die Forschung und Entwicklung
der OCT gehalten. Diese Systeme erfassen die durch die Abbildungsfehler des Auges
hervorgerufenen Verzerrungen der Wellenfronten und korrigieren diese mithilfe de-
formierbarer Spiegel oder Phasenmodulatoren auf Basis von Flüssigkeitskristallen.
Durch den Einsatz adaptiver Optiken kann das laterale Auflösungsvermögen signi-
fikant auf 2. . . 3 μm, verglichen zu erreichbaren 15. . . 20 μm in der konventionellen
14 Optische Kohärenztomographie | 485

ophthalmologischen OCT-Bildgebung, gesteigert werden [Povazay 2009]. Mit dieser


Technik ist es daher möglich, einzelne Photorezeptoren (Zapfen) aufzulösen, weshalb
die Kombination aus hochauflösender OCT und adaptiver Optik auch als Bildgebung
der Netzhaut auf zellulärer Ebene bezeichnet wird [Fernández 2008; Zhang 2006].
Aufgrund des gesteigerten apparativen Aufwands und der damit verbunde-
nen Kosten sind derzeit jedoch noch keine kommerziellen opthalmologischen OCT-
Systeme mit adaptiver Optik erhältlich. Gleiches gilt für die Bildgebung im Wellen-
längenbereich um 1050 nm. Neueste Entwicklungen im kommerziellen Bereich zielen
eher auf eine multimodale Bildgebung mit OCT und anderen etablierten Verfah-
ren der Augenheilkunde wie Scanning-Laser-Ophthalmoskopie (SLO), Fluores-
zenzangiographie und Autofluoreszenz-Funduskopie ab, die zusätzlich zur struk-
turellen Information auch Rückschlüsse auf funktionelle Parameter, wie Blutfluss
und Stoffwechsel, erlauben. Eine simultane topografische Fundusbildgebung per
SLO ermöglicht dabei die Erfassung lateraler Augenbewegungen, gemäß denen dann
der OCT-Probenstrahl aktiv und in Echtzeit nachgeführt werden kann (aktives eye
tracking). Dadurch können Bewegungsartefakte, insbesondere bei Volumenscans, re-
duziert sowie die Bildqualität durch Mittelung mehrerer Schnittbilder an identischer
Position verbessert werden. Ein automatisches Wiederfinden der Lage eines bestimm-
ten OCT-Schnittes für Folgeuntersuchungen wird dadurch ebenfalls möglich, da das
topografische Fundusbild als eine Art Fingerabdruck fungiert.

Fluoreszenzangiographie: Bildgebungsverfahren zur Untersuchung der Blutzirkulation der Netz-


haut unter Verwendung von fluoreszierenden Markern, siehe auch Angiographie.

Scanning-Laser-Ophthalmoskopie (SLO): konfokales Bildgebungsverfahren zur Untersuchung


von Netz- und Hornhaut des menschlichen Auges.

OCT in der Endoskopie


Die Endoskopie, als ein weiteres Bildgebungsverfahren, eröffnet nunmehr die Mög-
lichkeit, Untersuchungsgebiete zu erschließen, zu denen der Zugang vorher aufgrund
der voluminösen Optiken nicht möglich war. Daher hat sich die Endoskopie als wich-
tiges Verfahren etabliert, um Aufnahmen von Hohlorganen und Organhöhlen zu er-
möglichen und bei operativen Eingriffen minimalinvasive Unterstützung zu gewähr-
leisten. In Verbindung mit der OCT lassen sich die Vorteile beider Verfahren vereinen
und die Detektion von oberflächennahen strukturellen Veränderungen innerhalb von
Hohlorganen in einem frühen Stadium realisieren. Die Endoskope für die OCT lassen
sich im Allgemeinen in zwei Gruppen einteilen: Systeme für die seitliche Bildgebung
und Systeme zur Bildgebung an der Vorderseite.
Die OCT-Systeme mit der Möglichkeit zur seitlichen Bildgebung nutzen meist eine
optische Faser, eine fokussierende Linse und ein Prisma am distalen Ende der Optik
486 | Julia Walther, Edmund Koch

zur seitlichen Ablenkung des OCT-Probenstrahls. Demnach eignet sich diese Variante
vorwiegend zur Untersuchung von röhrenförmigen Organen. Ein großer Vorteil ist,
dass diese flexiblen Optiken mit einem sehr geringen Durchmesser realisiert werden
können – aus der Literatur sind Durchmesser bis zu 400 μm bekannt – und sich somit
für den Einsatz in kleinen Blutgefäßen nutzen lassen. Die besten Spezifikationen, die
mit unterschiedlichen Systemen erreicht werden, sind laterale Auflösungen bis unge-
fähr 8 μm, axiale Auflösungen bis 2,4 μm, Arbeitsabstände von 9. . . 12 mm und ein 360°
Bildfeld [Fu 2008; Herz 2004; Li 2000; Tumlinson 2006; Xi 2009]. Für die 2D- bzw.
3D-Bildgebung werden allerdings zusätzliche Motoren benötigt, die den endosko-
pischen OCT-Katheter innerhalb des Untersuchungsobjektes rotieren lassen und
zurückziehen können.
Endoskopische Systeme zur Bildgebung an der Vorderseite werden prinzipiell zur
Orientierung während operativer Eingriffe genutzt oder um Gewebe am Ende eines
Hohlraumes, der nur über einen schmalen Zugang erreicht werden kann, darstellen
zu können. Ein Vorteil dieser Optiken in Kombination mit der OCT ist, dass sich die
2D- bzw. 3D-OCT-Darstellung beispielsweise über die Probenstrahlablenkung mittels
Galvanometern am proximalen Ende der Endoskopoptik ermöglichen lässt und somit
keine elektronischen Komponenten mit in das Untersuchungsgebiet geführt werden
müssen. Die Entwicklungen dieser Optiken sind generell vielfältiger. Es existieren
OCT-Systeme bestehend aus Gradientenindexlinsen, faseroptischen Bildleitungs-
bündeln oder kommerziellen Linsen. Zurzeit sind diese Optiken allerdings noch recht
groß dimensioniert und benötigen weitere Optimierungen. Aus der Literatur sind
derzeit minimale Durchmesser von ungefähr 1,65 mm bekannt. Hier werden laterale
Auflösungen von etwa 10 μm, axiale Auflösungen von 9,3 μm, Arbeitsabstände bis
7,5 mm und Bildfelder bis 6 mm erreicht [Pan 2003; Wu 2006; Xie 2006]. Die auf einer
Faseroptik basierenden Systeme sind allerdings aufgrund ihrer optischen Eigenschaf-
ten beispielsweise durch ein schlechtes Signal-Rausch-Verhältnis gekennzeichnet,
welches mit zunehmender Faserlänge und steigendem Dämpfungskoeffizienten der
Fasern abnimmt [Wang 2009].

Gradientenindexlinse (GRIN-Linse): Linse, bei der die Brechzahl eine radiale oder axiale Funktion
des Ortes ist.

Zwei Hauptanwendungsgebiete der endoskopischen OCT sind die Krebsfrüherken-


nung und die bereits erwähnte Gefäßdarstellung. Im Bereich der Gefäßuntersu-
chung wird zurzeit das Hauptaugenmerk auf die Darstellung von Plaques und die
Überwachung von eingesetzten Stents gelegt, um Verschlüsse zu vermeiden bzw.
einem erneuten Verschluss vorbeugen zu können. Es existieren bereits kommerziel-
le OCT-Systeme, welche speziell für den intravaskulären katheterbasierten Einsatz
entwickelt wurden und nach dem Prinzip der seitlichen Bildgebung funktionieren
[Bezerra 2009]. Somit lassen sich kreisförmige Schnittbilder bzw. röhrenförmige 3D-
14 Optische Kohärenztomographie | 487

Darstellungen der Gefäße erzeugen und Störquellen innerhalb dieser Gefäße detek-
tieren. Jüngste Untersuchungen zeigen zudem, dass die OCT eine vielversprechende
Technologie sein könnte, um präoperativ den Grad von oberflächigem Speiseröhren-
plattenepithelkarzinom festzustellen. Die exakte Differenzierung zwischen malignen
Krebszellen und benignen Entzündungszellen ist allerdings noch nicht möglich, le-
diglich eine Veränderung der Schichtstruktur kann aufgezeigt werden [Hatta 2010].
Durch die fortwährende Weiterentwicklung der OCT-Bildgebungssysteme hinsichtlich
Bildaufnahmegeschwindigkeit und räumlicher Auflösung ist eine Verbesserung der
Klassifizierung einzelner Krankheitsbilder in naher Zukunft denkbar.

OCT in der Dermatologie (Hautheilkunde)


Die OCT als hochauflösendes Bildgebungsverfahren oberflächennaher Strukturen fin-
det weiterhin klinische Anwendung auf dem Gebiet der Dermatologie. Im Gegensatz
zu den hochtransparenten Strukturen des Auges, die für die Bildgebung des Augen-
hintergrundes von großem Vorteil sind, stellt die humane Haut ein inhomogenes,
hoch streuendes und komplexes Gewebe dar. Jedoch erlaubt das optische Fenster
der Haut, im Spektralbereich von 700. . . 1400 nm aufgrund der geringeren Absorption
der Chromophore Melanin und Hämoglobin die OCT-Bildgebung [Roggan 1999]. Die
optische Inhomogenität der Haut führt dennoch zu einem nicht vernachlässigba-
ren Einfluss der Streuung, insbesondere der stark vorwärtsgerichteten Streuung an
Zellbestandteilen. Dies resultiert in einer maximalen Tiefe von 1,5. . . 2 mm für die
Hautbildgebung mit OCT, anhand derer die Epidermis und Teile der Dermis hochauf-
gelöst dargestellt werden können.

Chromophor: Teil eines Moleküls, der für die Farbigkeit verantwortlich ist.

In 󳶳Abb. 14.6 (a) und (b) werden 2D-OCT-Schnittbilddarstellungen der gesunden


menschlichen Haut in vivo gezeigt, welche simultan in den Wellenlängenbereichen
um 800 nm und 1250 nm detektiert wurden [Cimalla 2009]. Dabei sind eine höhere
Auflösung bei 800 nm und eine vergrößerte Eindringtiefe bei 1250 nm zu erkennen.
Die Bildgebung der spektroskopischen Eigenschaften dieser Hautprobe wird mit
der farbkodierten Differenzdarstellung beider Signale in 󳶳Abb. 14.6 (c) erreicht, in
der die Farben blau und orange die erhöhte Rückstreuung im 800 nm bzw. 1250 nm
Wellenlängenband repräsentieren. Durch die pixelweise Mittellung der Intensitäten
der B-Scans beider Spektralbänder wird das Speckle-Rauschen (󳶳Speckle) deutlich
reduziert. Eine bidirektionale Ablenkung des Probenstrahls auf der Hautoberfläche
ermöglicht die 3D-Bildgebung, dargestellt in 󳶳Abb. 14.6 (d).
Aus 󳶳Abb. 14.6 wird deutlich, dass die Hautoberfläche generell das stärkste
Rückstreusignal bewirkt, begründet durch die große Differenz der Brechungsindi-
zes von Luft und Hautoberfläche. Die darunter liegenden Strukturen und Schichten
488 | Julia Walther, Edmund Koch

(a) (b)
Schweißdrüsenkanal

Str. corneum
Str. granulosum
Str. basale Blutgefäße
Stratum papillare
0,3 mm 0,3 mm

(c) (d)

0,3 mm

Abb. 14.6: Schnittbilddarstellung der Haut bei 800 nm (a) und 1250 nm (b) sowie die berechnete
Differenzansicht 2D (c) und 3D (d) kodiert in den Farben blau und orange für die Darstellung der
erhöhten Streuung bei 800 nm bzw. 1250 nm.

können anhand der OCT-Darstellung sehr gut differenziert werden. So stellt die Horn-
schicht (Stratum corneum) eine homogen und gering streuende Gewebeschicht dar,
die stark streuende und spiralförmig verlaufende Schweißdrüsen enthält. Die angren-
zende stärker streuende Körnerzellenschicht (Stratum granulosum) und sehr gering
reflektierende Basalschicht (Stratum basale) können ebenfalls hochaufgelöst und
differenziert dargestellt werden. Die darunter liegende Papillarenschicht (Stratum
papillare) der Dermis besteht vorwiegend aus inhomogen erscheinenden Bindege-
websfasern, wie Elastin- und Kollagenfasern, mit eingelagerten signalschwachen
Blutgefäßen.
Nachdem die OCT für die Bildgebung gesunder Haut geeignet ist, haben klini-
sche Hautstudien gezeigt, dass die OCT durchaus Potential für die in vivo nichtinvasive
Diagnose und Therapiekontrolle pathologischer Hautveränderungen besitzt [Gladko-
va 2000; Welzel 2001] und damit eine Alternative zur invasiven Gewebebiopsie dar-
stellt. Da das Streuvermögen der Epidermis maßgeblich durch die enthaltenen horn-
bildenden Keratinozyten bestimmt wird, können Störungen der Keratinisierung, wie
beispielsweise die Hyper- bzw. die Parakeratose mit einhergehender Verdickung des
Stratum corneum, mit OCT dargestellt und differenziert werden. Im Falle der Hyperke-
ratose weist die äußere Hornschicht eine verstärkte Rückstreuung im Vergleich zu dar-
unterliegenden Zellschichten des Stratum corneum auf. Bei der Parakeratose kann die
unvollständige Differenzierung der Epithelzellen als geringes Rückstreusignal umge-
14 Optische Kohärenztomographie | 489

ben von hochstreuenden Keratinozyten mit OCT detektiert werden. Ebenfalls können
Entzündungen der Haut, wie Infiltration und Ödembildung, sowie Nekrosen (frühzei-
tiger, pathologischer Tod einer Zelle im lebenden Gewebe innerhalb der Dermis) über
das veränderte Rückstreuverhalten bzw. anhand der aufgehobenen Grenzen zwischen
Epidermis und Dermis mit OCT diagnostiziert werden. So zeigen Ödeme in der OCT
eine verminderte Streuung im Vergleich zur gesunden Dermis und verschwommene
Grenzen zum umliegenden Gewebe.
Die hochaufgelöste Darstellung der mit OCT differenzierbaren Hautschichten fand
darüber hinaus für die Bestimmung des Einflusses der epidermalen Verdickung als
wesentliche Komponente des natürlichen Sonnenschutzes der menschlichen Haut ge-
gen UV-Strahlung Verwendung und stellt damit eine nichtinvasive Alternative zur Me-
thodik der Erythemschwellendosis dar, die Hautrötungen bis hin zu Sonnenbrand
verursacht. Die für diese Studien entwickelten automatischen Algorithmen zur Seg-
mentierung und Schichtdickenbestimmung der Epidermis basieren auf der Detektion
der Luft-Haut-Grenze, als erster signifikanter Reflex im A-Scan, und der Epidermis-
Dermis-Grenze, die durch die signalarme Basalschicht gut detektierbar ist [Gambich-
ler 2005; Krüger 2007; Welzel 2004]. Die Erweiterung der Polarisationssensitiven OCT
(PS OCT, vgl. 󳶳Kap. 14.4.2) für die kontrastreiche Darstellung von gerichteten, doppel-
brechenden Strukturen, wie die beispielsweise in der Dermis enthaltenen Kollagenfa-
sern und -faserbündeln, wurde in dermatologischen Studien zur Bestimmung der Re-
lation von dermaler Doppelbrechung und Hautelastizität/morphologie im Falle der
extrinsischen Hautalterung eingesetzt [Sakai 2008; Sakai 2009]. Ferner findet man Ar-
beiten, in denen die PS OCT Aussagen über Wundheilung, Verbrennungen und Narben
der Haut anhand der veränderten Kollagenstruktur der Dermis liefert [Oh 2011; Park
2001; Pierce 2004].
Auch wenn der erfahrene Dermatologe viele Hautkrankheiten bereits mit bloßem
Auge erkennt, zeichnet sich die OCT als nützliches nichtinvasives Werkzeug mit der
Möglichkeit zur frühzeitigen dynamischen Bildgebung von aufflammenden patholo-
gischen Veränderungen ab. Für die frühzeitige Diagnose von malignem Gewebe stellt
jedoch die konventionelle Biopsie in Kombination mit einem erfahrenen Histologen
nach wie vor den Goldstandard dar. Fortgeschrittene Tumoren der Dermis können
durch ihr abgegrenztes homogenes Erscheinungsbild gut mit der OCT abgebildet wer-
den [Gambichler 2007] und eignen sich demnach für die intraoperative Überwachung
mit OCT.

14.4.2 Erweiterte Methoden der OCT

Doppler-OCT
In Ergänzung zu den vorangegangenen klinischen Anwendungen der OCT, welche
weitestgehend auf der unspezifischen Rückstreuung von Gewebe basieren, wird
die Integration zusätzlicher Algorithmen und Optiken angestrebt, um neben den
490 | Julia Walther, Edmund Koch

strukturellen auch funktionelle und physiologische Informationen des untersuchten


Gewebes zu erhalten. Ein Hauptanwendungsgebiet der funktionellen Bildgebung mit
OCT ist die Doppler-OCT (DOCT) oder optische Doppler-Tomographie (engl.
Optical Doppler Tomography, ODT) für die Quantifizierung von Blutflussgeschwin-
digkeiten in kleinen Blutgefäßen mit Durchmessern von einigen bis wenigen hun-
dert Mikrometern. Generell stellt die Doppler-OCT ein Verfahren dar, welches die
axiale Geschwindigkeitskomponente von schräg durch den Probenstrahl bewegten
Streuzentren misst. Dabei wird die durch die bewegten Streuzentren hervorgerufene
Doppler-Frequenzverschiebung des detektierten Interferenzsignals zur Auswertung
herangezogen.
In den Anfängen der OCT wurde die Doppler-OCT zunächst für TD-basierte Sys-
teme vorgestellt, bei denen für jede Tiefe eine zum Streuvermögen und zur Anzahl an
Streuzentren proportionale Interferenzmodulation detektiert wird [Chen 1997a; Chen
1997b; Izatt 1997; Wang 1995]. Bei dem Vergleich der in dem modulierten Interferenz-
signal enthaltenen Frequenz mit der durch die Bewegung des Referenzspiegels ver-
ursachten kann die entsprechende Doppler-Frequenzverschiebung, welche propor-
tional zur axialen Bewegungskomponente der untersuchten Probe ist, ermittelt wer-
den [Xu 2008]. Für die heutzutage vorwiegend genutzten Systeme basierend auf der
FD OCT wird ein Interferenzsignal als Funktion der Wellenlänge detektiert, das ein-
zelne, tiefenabhängige, überlagerte Interferenzmodulationen unterschiedlicher Fre-
quenz und willkürlicher Phase enthält [Leitgeb 2003b; Mariampillai 2007; Schmoll
2009; Vakoc 2005; Walther 2009b; White 2003]. Da das Ergebnis der für die Darstel-
lung eines A-Scans berechneten FFT ein komplexes Signal beinhaltet, kann die axiale
Komponente der Probengeschwindigkeit direkt aus der Phasenverschiebung aufein-
anderfolgender A-Scans ermittelt werden, weshalb das Verfahren auch phasenaufge-
löste Doppler-OCT genannt wird. Für die Vereinfachung wird im Nachfolgenden nur
auf die Signalkette und -verarbeitung in der SD OCT eingegangen, wobei sich die der
OFDI nur geringfügig unterscheidet. Das komplexe tiefenkodierte Signal, als Ergebnis
der FFT des detektierten Interferenzsignals, beinhaltet sowohl die Amplitude A(z) als
auch die Phase 𝜙(z) des von dem Untersuchungsobjekt zurückgestreuten Lichtes und
wird in 󳶳Gl. (14.3) aufgeführt. Der Parameter z stellt dabei die optische Weglängendif-
ferenz zwischen der Referenz und einer einzelnen, streuenden Probenstruktur dar.

𝛤 (z) = A (z) ⋅ ei𝜙(z) (14.3)

Während die strukturelle Bildgebung direkt auf Basis der Amplituden des Rückstreu-
signals erfolgt, wird die Bewegungs- bzw. Flussinformation über die Berechnung der
Phasendifferenz Δ𝜙(z) zwischen Positionen gleicher Tiefe benachbarter A-Scans er-
halten. Für die erfolgreiche Doppler-Prozessierung müssen jedoch zwei Bedingungen
vonseiten der Signaldetektion erfüllt werden. Die erste Maßgabe ist die Phasenstabi-
lität des Spektrums des OCT-Systems. Der zweite Punkt beinhaltet die Korrelation der
rückgestreuten Signale, die zur Berechnung der Phasenverschiebung herangezogen
werden. Um diese zweite Bedingung zu erfüllen, darf einerseits die transversale Ge-
14 Optische Kohärenztomographie | 491

schwindigkeit der Streuzentren nicht zu hoch sein und andererseits der Probenstrahl
nicht zu schnell über die Probe abgelenkt werden. Letzteres wird entweder durch die
Aufnahme zweier aufeinanderfolgender A-Scans an identischer lateraler Position der
Probenoberfläche [Zhang 2005] oder durch die Separierung der beiden A-Scans um ei-
ne Distanz kleiner der Halbwertsbreite (engl. Full Width Half Maximum, FWHM) des
OCT-Probenstrahls durch ein sogenanntes Überabtasten in transversaler Richtung
erfüllt. Damit werden für die Doppler-OCT deutlich mehr Daten benötigt.
Die Messgeometrie des auf die Probe einfallenden Probenstrahls und die Ori-
entierung des Geschwindigkeitsvektors werden in 󳶳Abb. 14.7 (a) gezeigt. Das zur
Vereinfachung einzeln dargestellte, bewegte Streupartikel befindet sich während der
Detektion zweier zeitlich aufeinanderfolgender A-Scans im Probenstrahl und wird
demzufolge sowohl im Zeitintervall T1 als auch T2 , welche jeweils der Belichtungszeit
der Detektorzeilen im Spektrometer entsprechen, detektiert. Die axiale Bewegungs-
komponente Δz zwischen beiden benachbarten A-Scans resultiert in der in 󳶳Gl. (14.4)
dargestellten Doppler-Phasenverschiebung Δ𝜙(z). Unter Berücksichtigung des mitt-
leren zeitlichen Abstands beider A-Scans TA-Scan ergibt sich 󳶳Gl. (14.5), in der n den
Brechungsindex und vz die axiale Geschwindigkeit der Probe darstellt.
4𝜋n ⋅ Δz
Δ𝜙 (z) = (14.4)
𝜆
4𝜋n ⋅ vz TA-Scan
Δ𝜙 (z) = (14.5)
𝜆
Mit bekanntem Winkel 𝛽 zwischen der Bewegungs- und horizontalen Richtung kann
dann die absolute Probengeschwindigkeit v ermittelt werden. Die Berechnung der
Phasendifferenz Δ𝜙(z) erfolgt durch die Multiplikation eines komplexen A-Scans
𝛤j+1 (z) mit dem benachbarten konjugiert komplexen Signal 𝛤j∗ (z) nach 󳶳Gl. (14.6),
in der 𝜙i (z) der Phase von 𝛤j (z) und j dem Laufindex der detektierten A-Scans ent-
sprechen. Da einzelne Phasendifferenzen stark streuen, werden meist mehrere Da-
tenpunkte gemittelt. Eine rauscharme Ermittlung von Δ𝜙(z) erfolgt durch die Mittel-
wertbildung der Produkte von 𝛤j+1 (z) und 𝛤j∗ (z) nach 󳶳Gl. (14.6) und anschließender
Phasenberechnung.

𝛤j+1 (z) ⋅ 𝛤j ∗ (z) = Aj+1 (z) Aj (z) ei[𝜙j+1 (z)−𝜙j (z)] (14.6)

In den letzen Jahren konnte gezeigt werden, dass eine wesentliche Ursache für das
Phasenrauschen in der Doppler-OCT die transversale Geschwindigkeit von Pro-
benbewegung und Probenstrahlgeschwindigkeit ist [Vakoc 2005; Walther 2009a].
Darüber hinaus gilt bei hohen transversalen Geschwindigkeiten in der SD OCT nicht
mehr der lineare Zusammenhang zwischen axialer Geschwindigkeit und Phasen-
verschiebung [Koch 2009b]. In 󳶳Abb. 14.7 (b) werden exemplarisch Ergebnisse zur
phasenaufgelösten DOCT im In-vitro-Flussphantom sowie im In-vivo-Rattenmodell
aufgezeigt. Die Farbdarstellung der Geschwindigkeitsverteilung des Intralipid- bzw.
Blutflusses wird durch die Multiplikation der Geschwindigkeitsfarb- und der Ampli-
tudengrauwertskala berechnet.
492 | Julia Walther, Edmund Koch

fokussierter
Probenstrahl 100 μm

β
Δz v vz
vx

Streuzentrum mit der


Geschwindigkeit v T₁ T₂

(a)

50 dB 48 mm/s Geschwindigkeit v
in mm/s
0 15 30 45
0
Geschwindigkeit
log. Amplitude

Tiefe z in μm
160

320

0 dB 0 mm/s (c)
(b)

Abb. 14.7: (a) Orientierung des Geschwindigkeitsvektors der Probenbewegung relativ zum Proben-
strahl mit dem dazwischenliegenden Doppler-Winkel 𝛽. (b) OCT- und DOCT-Schnittbild der innerhalb
einer 320-μm-Glaskapillare fließenden 1 % Intralipid-Emulsion. Der Doppler-Winkel dieser Messung
beträgt 3° und die mittlere Flussgeschwindigkeit 17,2 mm/s. (c) Schnittbilddarstellung einzelner,
gegenläufiger, retinaler Gefäße detektiert in einer Studie zur Retinadegeneration im Rattenmodell.

Intralipid: Öl-in-Wasser-Emulsion, die zur künstlichen Ernährung verwendet wird.

In kürzlich veröffentlichten Arbeiten wurden verschiedene Entwicklungen für die


qualitative und quantitative Flussgeschwindigkeitsmessung in der Doppler-FD OCT
präsentiert. Die Kartographie von Blutgefäßen mit dem Verfahren der OCT hat dabei
großes Potential gezeigt, angiographische Bilder, insbesondere des menschlichen
Augenhintergrundes, mit einer Auflösung von wenigen Mikrometern zu erstellen.
Die Mehrheit der publizierten Forschungsarbeiten basiert dabei auf der oben vorge-
stellten phasenaufgelösten Doppler-OCT [Makita 2006]. Eine Erweiterung der auf
der phasenaufgelösten DOCT basierten Angiographie stellt die Auswertung der Va-
rianz der Doppler-Phasenverschiebung dar, welche auf der Annahme beruht, dass
die Phasendifferenz der Rückstreusignale durch die Bewegung der Streuzentren im
Probenvolumen variiert [Yasuno 2007]. Des Weiteren wurden intensitätsbasierte Me-
14 Optische Kohärenztomographie | 493

thoden zur Angiographie veröffentlicht. Beeindruckende Ergebnisse haben dabei A.


Bachmann et al. mit dem Verfahren der resonanten Doppler-OCT gezeigt, bei der
ein variabler Phasenoffset durch einen elektrooptischen Phasenmodulator im Refe-
renzarm des Interferometers erzeugt wird, um die Rückstreusignale der bewegten
Strukturen zu verstärken [Bachmann 2007]. Eine alternative Technik mit der Verwen-
dung eines Phasenoffsets wurde von R. Wang et al. vorgestellt [Wang 2007]. Dabei
wird ein Geschwindigkeitsgrenzwert durch die Bewegung des Referenzspiegels einge-
stellt und die mathematischen Eigenschaften der Hilberttransformation ausgenutzt,
um statische von bewegten Strukturen im untersuchten Objekt zu separieren.

Polarisationssensitive OCT
Bei der Standard-OCT kann eine Differenzierung unterschiedlicher Gewebe nur an-
hand des Streuverhaltens und der sichtbaren strukturellen Unterschiede erfolgen.
Mit der Polarisationssensitiven OCT (PS OCT) ist es möglich, durch die Visualisie-
rung optischer Eigenschaften der Probe einen zusätzlichen Kontrast zu erreichen.
Beispielsweise sind gerichtete Strukturen wie Muskeln, Sehnen, Fasern doppelbre-
chend und verändern die Polarisation des Lichtes, welches das Gewebe bei der
OCT-Bildgebung durchläuft. Diese Polarisationsänderungen werden mit der PS OCT
detektiert und erlauben eine tiefenaufgelöste Darstellung der polarisationsändernden
Eigenschaften. Die meisten PS OCT-Systeme detektieren simultan zwei orthogonale
Polarisationszustände, vertikal und horizontal polarisiertes Licht. Dabei wird linear
polarisiertes Licht in das Interferometer geleitet. Durch Anordnung einer 𝜆/4-Platte
im Referenzarm wird die Intensität in beiden Detektionskanälen angeglichen. Eine
im Winkel von 45° angeordnete 𝜆/4-Platte im Probenarm gewährleistet die zirkulare
Polarisation des auf die Probe einfallenden Lichtes. Die Doppelbrechung [de Boer
1997; Hee 1992] und die Orientierung der optischen Achse [Hitzenberger 2001] kann
aus dem Amplitudenverhältnis bzw. der Phasendifferenz der beiden Interferenzsigna-
le berechnet werden. Die Integration in FD-OCT-Systeme erlaubt dabei einen direkten
Zugang zur Phaseninformation nach der Fourier-Transformation unter Nutzung der
SNR- und Geschwindigkeitsvorteile. Die Realisierung der PS OCT mit Bulkoptiken
ermöglicht eine unproblematische Justierung der einzelnen Komponenten und repro-
duzierbare Polarisationszustände, allerdings mit dem Nachteil einer eingeschränkten
Flexibilität. Gerade für Anwendungen in der biomedizinischen Forschung oder bei
endoskopischen Applikationen steht deshalb gegenwärtig die Entwicklung von fa-
sergekoppelten PS-OCT-Systemen im Vordergrund [Al-Qaisi 2010; Götzinger 2009;
Yamanari 2008], die eine einfache Anordnung des Messkopfes über der Probe er-
möglichen. Durch die Bewegung der Fasern wird allerdings der Polarisationszustand
verändert und macht damit die Verwendung von polarisationserhaltenden Lichtleit-
fasern erforderlich. Ohne die Verwendung dieser Fasern kann man zwar nicht die
Lage der optischen Achse, jedoch Informationen über die Stärke der Doppelbrechung
und Depolarisation der Probe erhalten.
494 | Julia Walther, Edmund Koch

Die Hauptanwendung der PS OCT ergibt sich in der Ophthalmologie zur Darstel-
lung der retinalen Schichtstrukturen [Baumann 2010; Götzinger 2009]. Besonderes
Interesse gilt dabei der Segmentierung der depolarisierenden RPE-Schicht, da diese
gerade bei AMD-Patienten zurückgebildet oder stark verworfen erscheint und deshalb
mit der Standard-OCT schwer zu identifizieren ist. Die PS OCT bietet hier den Vorteil
der Visualisierung der Homogenität der Polarisation, der sogenannten DOPU (engl.
degree of polarization uniformity), und ermöglicht damit einen zusätzlichen Kontrast.
Weitere Anwendungen nutzen ebenfalls die Vorteile der PS OCT zur Differenzierung
unterschiedlicher Gewebe, zum Beispiel zur Visualisierung von Karzinomen.

Kombination mit anderen optischen Bildgebungsmethoden


Den bis hier beschriebenen OCT-Verfahren fehlt es an Informationen über die in
der Probe eingelagerten molekularen Bestandteile. Um diese zu erhalten, haben
Forschungsarbeiten die Kombination der OCT mit komplementären optischen Bild-
gebungsverfahren, wie beispielsweise der Fluoreszensbildgebung [Beaurepaire 1999;
Yazdanfar 2007; Yuan 2010] oder auch der kohärenten Anti-Stokes–Raman-
Streuung (engl. coherent anti-Stokes–Raman scattering, CARS) [Hoffmann 2011],
präsentiert und gezeigt, dass durch diese Vereinigung neben den strukturellen Infor-
mationen der OCT zusätzlich Informationen über die chemische Zusammensetzung
von Gewebsstrukturen bereitgestellt werden können. Zudem erlaubt die En-face-
Bildgebung durch Techniken wie die konfokale Fluoreszenzmikroskopie die genauere
Orientierung und Positionierung des OCT-Scanfeldes.
Für die Integration zusätzlicher optischer Bildgebungsmethoden in ein kon-
ventionelles OCT-System wird über dichroitische Spiegel die spektrale Kopplung
des Anregungslichtes der zu ergänzenden Modalität zur nahinfraroten Strahlung
der OCT erreicht. Für den Fall der Fluoreszenzbildgebung sind sowohl die lineare
Einzelphotonen- als auch die nichtlineare Multiphotonenanregung unter Verwen-
dung von Femtosekundenlasern möglich. Für die kohärente Anti-Stokes–Raman-
Streuung sind zwei Laser unterschiedlicher Wellenlänge zu integrieren, wobei die Fre-
quenzdifferenz der beiden Anregungsfelder, die sogenannte Stokes-Verschiebung,
auf einen Raman-aktiven Schwingungszustand des bildzugebenden Moleküls ab-
gestimmt ist. In Abhängigkeit von der Verwendung von zusätzlichen Fluoreszenz-
farbstoffen wie ALA (Aminolävulinsäure) und ICG (Indocyaningrün) oder endogenen
Fluorophoren, wie zum Beispiel NADH (reduzierte Form von Nicotinamid-Adenin-
Dinukleotid), Elastin, Kollagen und Lipiden, wird die Lichtquelle entsprechend der
Anregungs- und Übergangsspektren des abzubildenden Moleküls gewählt.
Als Beispiel für eine kombinierte molekulare und geometrische Fluoreszenz-OCT-
Bildgebung ist der gewonnene Datensatz einer subpleuralen alveolaren Gewebeprobe
einer fixierten Kaninchenlunge in 󳶳Abb. 14.8 aufgezeigt. Für die Fluoreszenzanregung
wurde das freipräparierte Gewebe mit dem an das Biomolekül Elastin bindenden
Farbstoff Sulforhodamin B (SRB) gefärbt. In 󳶳Abb. 14.8 (a) wird ein repräsentativer
14 Optische Kohärenztomographie | 495

50 μm
(a)

50 μm
(c) (b)

Abb. 14.8: Kombinierte OCT- und Fluoreszenzbildgebung des fixierten Lungengewebes eines Kanin-
chens ex vivo. (a) 2D-OCT-Darstellung der subpleuralen Alveolen. (b) 3D-Bildgebung der geometri-
schen Struktur des fixierten subpleuralen Lungengewebes mittels OCT in der Grauwertdarstellung
mit überlagerter 3D-Information des Elastinfasernetzwerkes detektiert mithilfe der SRB-Fluoreszenz
in grün. (c) Aus dem kombinierten 3D-Datenstapel erzeugte En-face-Ansicht der subpleuralen Alveo-
len.

OCT-B-Scan des fixierten Lungengewebes gezeigt, in dem die Geometrie der Alveolen
dargestellt wird. Der detektierte OCT-Volumenscan mit der graphisch überlagerten
SRB-Fluoreszenz und die aus diesem 3D-Datenstapel erzeugte En-face-Ansicht sind
in 󳶳Abb. 14.8 (b) und (c) dargestellt. Wie an diesem Beispiel zu erkennen ist, wird
die geometrische Information der OCT durch die Bildgebung der Lokalisation der
Elastinfasern durch die konfokale Fluoreszenzmikroskopie erweitert.
Ein zweites Beispiel für die multimodale optische Bildgebung ist die simultane
Durchführung der ICG-Angiographie, der Scanning-Laser-Ophthalmologie (SLO) und
der retinalen OCT [Rosen 2009] in Kombination mit der Fluorescein-Angiographie
(FAG) und der Fundus-Augenfluoreszenz (FAF) [Helb 2009; Issa 2010] in der Augen-
heilkunde. Diese Funktionen sind bereits im System Spectralis® HRA+OCT von
Heidelberg Engineering als Hilfsmittel für die Diagnose von Krankheiten wie der
Makuladegeneration und dem akuten Arterienverschluss der Netzhaut [Helb 2009]
integriert. Neben der Ophthalmologie als Hauptanwendungsgebiet für die Kombina-
tion der OCT mit anderen Bildgebungsverfahren, sind auch Veröffentlichungen auf
dem Forschungsgebiet der frühzeitigen Detektion von malignen Geweben zu finden.
Als ein weiteres repräsentatives Beispiel zeigten J. A. Jo et al. kürzlich oberflächenna-
496 | Julia Walther, Edmund Koch

he Fluoreszenzbilder von karzinogenem Epithelialgewebe der Mundhöhle, die einer


3D-OCT-Darstellung überlagert wurden [Jo 2010].

14.5 Qualitätssicherung und Normen


Neben den aufgezeigten Anwendungen in der biomedizinischen Technik wird die OCT
zwar in der Fertigung und der zerstörungsfreien Materialanalyse zur Qualitätssiche-
rung verwendet, doch existiert bisher kein allgemeinverbindlicher Standard für die
Qualitätssicherung für OCT-Geräte. Es wurde versucht, sogenannte Kalibriertargets
oder Phantome herzustellen, mit denen die einwandfreie Funktion von Geräten über-
prüft werden kann, doch hat dies bisher nicht den Status einer Norm erhalten. Ein
wesentliches Problem besteht darin, dass es sehr schwierig ist, reproduzierbar ein
langlebiges 3D-Target mit entsprechend feinen Strukturen herzustellen.
OCT-Geräte zur Verwendung am Menschen sind Medizinprodukte und unterlie-
gen dementsprechend den Bedingungen des Medizinproduktegesetzes an bildgeben-
de Verfahren ohne Verwendung von ionisierender Strahlung.

14.6 Nebenwirkungen/Grenzwerte
OCT-Geräte senden einen gut fokussierten Lichtstrahl auf die Probe. Auch wenn es
sich dabei nicht immer um Laserstrahlung handelt, müssen zum Schutz des Patienten
die Grenzwerte der Laserschutzverordnung auch für Strahlung aus SLDs oder anderen
breitbandigen Lichtquellen sinngemäß eingehalten werden. Nahinfrarot-Strahlung
ist nicht ionisierend, solange die Pulsleistungen nicht für eine Mehrphotonenanre-
gung ausreichen. Es ist zwar bisher nicht gelungen, hierfür Grenzwerte anzugeben, da
keine allgemeinen Grenzwerte für die Nichtlinearität von Gewebe angegeben werden
können, doch besteht bei der schwachen Fokussierung der Lichtstrahlen, die in der
OCT allgemein angewendet wird, bis hinunter zu ps-Pulsen kein Gefährdungspoten-
tial. Insofern beruht das Schädigungspotential der Infrarot-Strahlung der OCT auf
der Erwärmung des Gewebes. Hierbei ist zu unterscheiden zwischen Systemen für
den Augenhintergrund, die den Strahl auf die Netzhaut fokussieren, und Systemen,
die für anderes Gewebe vorgesehen sind, da die Empfindlichkeit der Retina durch die
stark absorbierende RPE-Schicht besonders hoch ist. Für die Bestrahlung des Auges
mit Laserstrahlung beträgt die maximal zulässige Bestrahlung (MZB) ca. 0,8 mW für
860 nm und ca. 15 mW bei 1300 nm. Ist bei OCT-Systemen eine Ortsmodulation des
Lichtstrahls sichergestellt, so können abhängig vom Scanmuster auch größere Licht-
leistungen appliziert werden. Die entsprechenden MZB-Werte für die Haut betragen
40 mW und nahezu 100 mW, jedoch sollte berücksichtigt werden, dass auch diese
Strahlung unbeabsichtigt ins Auge des Untersuchers oder des Patienten treffen kann.
Da das Auge eines Erwachsenen nicht auf Entfernungen unter 100 mm fokussieren
14 Optische Kohärenztomographie | 497

kann und die Iris einen maximalen Durchmesser von 7 mm aufweist, wird diese Geo-
metrie zur Festlegung des Grenzwertes der fokussierten Laserstrahlung berücksichtigt
[BGV B2 2007].

Quellenverzeichnis
Al-Qaisi M. K., Akkin T.: Swept-source polarization-sensitive optical coherence tomography based on
polarization-maintaining fiber. Opt Express 2010; 18: 3392–3403.
Bachmann A. H., Villiger M. L., Blatter C., Lasser T., Leitgeb R. A.: Resonant Doppler flow imaging and
optical vivisection of retinal blood vessels. Opt Express 2007; 15: 408–422.
Bail M. A., Haeusler G., Herrmann J. M., Lindner M. W., Ringler R.: Optical coherence tomography with
the “spectral radar”: fast optical analysis in volume scatterers by short-coherence
interferometry. In: Benaron D. A., Chance B., Mueller G. J. (Eds.): Photon Propagation in Tissues
II. Wien: SPIE 1996: 298–303.
Bajraszewski T., Wojtkowski M., Szkulmowski M., Szkulmowska A., Huber R., Kowalczyk A.:
Improved spectral optical coherence tomography using optical frequency comb. Opt Express
2008; 16: 4163–4176.
Baumann B., Gotzinger E., Pircher M., Sattmann H., Schutze C., Schlanitz F., et al.: Segmentation
and quantification of retinal lesions in age-related macular degeneration using polarization-
sensitive optical coherence tomography. J Biomed Opt 2010; 15: 061704–061709.
Beaurepaire E., Moreaux L., Amblard F., Mertz J.: Combined scanning optical coherence and
two-photon-excited fluorescence microscopy. Opt Lett 1999; 24: 969–971.
Bezerra H. G., Costa M. A., Guagliumi G., Rollins A. M., Simon D. I.: Intracoronary optical coherence
tomography: a vomprehensive review: clinical and research applications. J Am Coll Cardiol Intv
2009; 2: 1035–1046.
BGV B2. Durchführungsanweisungen zur BG-Vorschrift Laserstrahlung. Köln: Carl Heymanns Verlag,
2007.
Biedermann B. R., Wieser W., Eigenwillig C. M., Klein T., Huber R.: Dispersion, coherence and noise of
Fourier domain mode locked lasers. Opt Express 2009; 17: 9947–9961.
Born M., Wolf E.: Principles of optics: electromagnetic theory of propagation, interference and
diffraction of light; 7th ed. Cambridge University Press, 1999.
Bower B. A., Zhao M., Zawadzki R. J., Izatt J. A.: Real-time spectral domain Doppler optical coherence
tomography and investigation of human retinal vessel autoregulation. J Biomed Opt 2007; 12:
041214.
Changho C., Morosawa A., Sakai T.: High-speed wavelength-swept laser source with high-linearity
sweep for optical coherence tomography. IEEE J Quantum Electron 2008; 14: 235–242.
Chen Z., Milner T. E., Dave D., Nelson J. S.: Optical Doppler tomographic imaging of fluid flow velocity
in highly scattering media. Opt Lett 1997a; 22: 64–66.
Chen Z., Milner T. E., Srinivas S., Wang X., Malekafzali A., van Gemert M. J. C., et al.: Noninvasive
imaging of in vivo blood flow velocity using optical Doppler tomography. Opt Lett 1997b; 22:
1119–1121.
Choma M., Sarunic M., Yang C., Izatt J.: Sensitivity advantage of swept source and Fourier domain
optical coherence tomography. Opt Express 2003; 11: 2183–2199.
Cimalla P., Walther J., Mehner M., Cuevas M., Koch E.: Simultaneous dual-band optical coherence
tomography in the spectral domain for high resolution in vivo imaging. Opt Express 2009; 17:
19486–19500.
498 | Julia Walther, Edmund Koch

de Boer J. F., Cense B., Park B. H., Pierce M. C., Tearney G. J., Bouma B. E.: Improved signal-to-noise
ratio in spectral-domain compared with time-domain optical coherence tomography. Opt Lett
2003; 28: 2067–2069.
de Boer J. F., Milner T. E., van Gemert M. J. C., Nelson J. S.: Two-dimensional birefringence imaging in
biological tissue by polarization-sensitive optical coherence tomography. Opt Lett 1997; 22:
934–936.
Drexler W., Morgner U., Kärtner F. X., Pitris C., Boppart S. A., Li X. D., et al.: In vivo ultrahigh-
resolution optical coherence tomography. Opt Lett 1999; 24: 1221–1223.
Drexler W., Fujimoto J. G.: State-of-the-art retinal optical coherence tomography. Prog Retin Eye Res
2008; 27: 45–88.
Eigenwillig C. M., Biedermann B. R., Wieser W., Huber R.: Wavelength swept amplified spontaneous
emission source. Opt Express 2009; 17: 18794–18807.
Fercher A. F., Hitzenberger C. K., Kamp G., El-Zaiat S. Y.: Measurement of intraocular distances by
backscattering spectral interferometry. Opt Commun 1995; 117: 43–48.
Fercher A. F., Mengedoht K., Werner W.: Eye-length measurement by interferometry with partially
coherent light. Opt Lett 1988; 13: 186–188.
Fernández E. J., Hermann B., Povazay B., Unterhuber A., Sattmann H., Hofer B., et al.: Ultrahigh
resolution optical coherence tomography and pancorrection for cellular imaging of the living
human retina. Opt Express 2008; 16: 11083–11094.
Fu H. L., Leng Y., Cobb M. J., Hsu K., Hwang J. H., Li X.: Flexible miniature compound lens design for
high-resolution optical coherence tomography balloon imaging catheter. J Biomed Opt 2008;
13: 060502–060503.
Gambichler T., Känzlberger B., Paech V., Kreuter A., Boms S., Bader A., et al.: UVA1 and UVB
irradiated skin investigated by optical coherence tomography in vivo: a preliminary study.
Clinical and Experimental Dermatology 2005; 30: 79–82.
Gambichler T., Orlikov A., Vasa R., Moussa G., Hoffmann K., Stücker M., et al.: In vivo optical
coherence tomography of basal cell carcinoma. J Dermatol Sci 2007; 45: 167–173.
Gao W.: Dispersion properties of grating-based rapid scanning optical delay lines. Appl Opt 2007;
46: 986–992.
Gladkova N. D., Petrova G. A., Nikulin N. K., Radenska-Lopovok S. G., Snopova L. B., Chumakov Y., et
al.: In vivo optical coherence tomography imaging of human skin: norm and pathology. Skin
Research and Technology 2000; 6: 6–16.
Götzinger E., Baumann B., Pircher M., Hitzenberger C. K.: Polarization maintaining fiber based
ultra-high resolution spectral domain polarization sensitive optical coherence tomography. Opt
Express 2009; 17: 22704–22717.
Hatta W., Uno K., Koike T., Yokosawa S., Iijima K., Imatani A., Shimosegawa T.: Optical coherence
tomography for the staging of tumor infiltration in superficial esophageal squamous cell
carcinoma. Gastrointest Endosc 2010; 71: 899–906.
Hauger C., Wörz M., Hellmuth T.: Interferometer for optical coherence tomography. Appl Opt 2003;
42: 3896–3902.
Hausler G., Lindner M. W.: “Coherence Radar” and “Spectral Radar” – new tools for dermatological
diagnosis. J Biomed Opt 1998; 3: 21–31.
Hee M. R., Huang D., Swanson E. A., Fujimoto J. G.: Polarization-sensitive low-coherence
reflectometer for birefringence characterization and ranging. J Opt Soc Am B 1992; 9: 903–908.
14 Optische Kohärenztomographie | 499

Helb H. M., Issa P. C., Fleckenstein M., Schmitz-Valckenberg S., Scholl H. P. N., Meyer C. H., et al.:
Clinical evaluation of simultaneous confocal scanning laser ophthalmoscopy imaging
combined with high-resolution, spectral-domain optical coherence tomography. Acta
Ophthalmol 2009; 88: 842–849.
Herz P. R., Chen Y., Aguirre A. D., Schneider K., Hsiung P., Fujimoto J. G., et al.: Micromotor endoscope
catheter for in vivo, ultrahigh-resolutionoptical coherence tomography. Opt Lett 2004; 29:
2261–2263.
Hitzenberger C. K.: Optical measurement of the axial eye length by laser Doppler interferometry.
Invest Ophthalmol Vis Sci 1991; 32: 616–624.
Hitzenberger C., Goetzinger E., Sticker M., Pircher M., Fercher A.: Measurement and imaging of
birefringence and optic axis orientation by phase resolved polarization sensitive optical
coherence tomography. Opt Express 2001; 9: 780–790.
Hoffmann C., Hofer B., Unterhuber A., Poavzay B., Morgner U., Drexler W.: Combined OCT and CARS
using a single ultrashort pulse Ti:Sapphire laser. In: Azar FS., Intes X (Eds.): Multimodal
Biomedical Imaging VI. San Francisco: SPIE, 2011: 78920B.
Hu Z., Rollins A. M.: Fourier domain optical coherence tomography with a linear-in-wavenumber
spectrometer. Opt Lett 2007; 32: 3525–3527.
Huang D., Swanson E. A., Lin C. P., Schuman J. S., Stinson W. G., Chang W., et al.: Optical coherence
tomography. Science 1991; 254: 1178–1181.
Huber R., Wojtkowski M., Fujimoto J. G.: Fourier Domain Mode Locking (FDML): A new laser operating
regime and applications for optical coherence tomography. Opt Express 2006; 14: 3225–3237.
Hughes M., Spring M., Podoleanu A.: Speckle noise reduction in optical coherence tomography of
paint layers. Appl Opt 2010; 49: 99–107.
Issa P. C., Fleckenstein M., Helb H. M., Scholl H. P. N., Schmitz-Valckenberg S., Holz F. G.:
Simultaneous SD-OCT and confocal SLO-imaging. In: Holz F. G., Spaide R. (Eds): Medical retina.
Berlin, Heidelberg: Springer, 2010: 11–18.
Izatt J. A., Kulkarni M. D., Yazdanfar S., Barton J. K., Welch A. J.: In vivo bidirectional color Doppler
flow imaging of picoliter blood volumes using optical coherence tomography. Opt Lett 1997; 22:
1439–1441.
Jo J. A., Applegate B. E., Park J., Shrestha S., Pande P., Gimenez-Conti I. B., Brandon J. L.: In vivo
simultaneous morphological and biochemical optical imaging of oral epithelial cancer. IEEE
Trans Biomed Eng 2010; 57: 2596–2599.
Jungwirth J., Baumann B., Pircher M., Götzinger E., Hitzenberger C. K.: Imaging of the whole anterior
eye segment with full-range complex spectral domain optical coherence tomography. In:
Anderson P. A. B. (Ed.): Optical coherence tomography and coherence techniques IV. Optical
Society of America 2009: 7372.
Kang J. U., Han J. H., Liu X., Zhang K.: Common-path optical coherence tomography for biomedical
imaging and sensing. J Opt Soc Korea 2010; 14: 1–13.
Kim Y. K., Kim Y. P.: High-speed time-domain optical coherence tomography with an imaging speed of
ten frames per second with 2000 A-scan. Opt Eng 2010; 49: 055601.
Ko T., Adler D., Fujimoto J., Mamedov D., Prokhorov V., Shidlovski V., Yakubovich S.: Ultrahigh
resolution optical coherence tomography imaging with a broadband superluminescent diode
light source. Opt Express 2004; 12: 2112–2119.
Koch E., Hammer D., Wang S., Cuevas M., Walther J.: Resonant Doppler imaging with common path
OCT. In: Andersen P. E., Bouma B. E. (Eds.): Optical Coherence Tomography and Coherence
Techniques IV. München: SPIE, 2009a: 737220.
Koch E., Walther J., Cuevas M.: Limits of Fourier domain Doppler-OCT at high velocities. Sens
Actuator A-Phys 2009b; 156: 8–13.
500 | Julia Walther, Edmund Koch

Koch P., Hellemanns V., Hüttmann G.: Linear optical coherence tomography system with extended
measurement range. Opt Lett 2006; 31: 2882–2884.
Koch P., Hüttmann G., Schleiermacher H., Eichholz J., Koch E.: Linear optical coherence tomography
system with a downconverted fringepattern. Opt Lett 2004; 29: 1644–1646.
Krüger A., Schwabe T., Cuevas M., Knuschke P., Koch E.: Measurement of the epidermal thickness
with Fourier domain optical coherence tomography in an occupational health study on natural
sun protection of the human skin. In: Buzug TM., Holz D., Weber S., Bongartz J., Kohl-Bareis M.,
Hartmann U. (Eds.): Proceedings in Physics 114: Advances in Medical Engineering. Berlin:
Springer, 2007: 349–354.
Leitgeb R., Hitzenberger C., Fercher A.: Performance of fourier domain vs. time domain optical
coherence tomography. Opt Express 2003a; 11: 889–894.
Leitgeb R., Schmetterer L., Drexler W., Fercher A., Zawadzki R., Bajraszewski T.: Real-time
assessment of retinal blood flow with ultrafast acquisition by color Doppler Fourier domain
optical coherence tomography. Opt Express 2003b; 11: 3116–3121.
Li X., Chudoba C., Ko T., Pitris C., Fujimoto J. G.: Imaging needle for optical coherence tomography.
Opt Lett 2000; 25: 1520–1522.
Liu B., Brezinski M. E.: Theoretical and practical considerations on detection performance of time
domain, Fourier domain, swept source optical coherence tomography. J Biomed Opt 2007; 12:
044007.
Makita S., Hong Y., Yamanari M., Yatagai T., Yasuno Y.: Optical coherence angiography. Opt Express
2006; 14: 7821–7840.
Mariampillai A., Standish B. A., Munce N. R., Randall C., Liu G., Jiang J. Y., et al.: Doppler optical
cardiogram gated 2D color flow imaging at 1000 fps and 4D in vivo visualization of embryonic
heart at 45 fps on a swept source OCT system. Opt Express 2007; 15: 1627–1638.
Michelson A. A.: The relative motion of the earth and the lumniferous ether. Am J Sci 1881; 22:
120–129.
Oh J.-T., Lee S.-W., Kim Y.-S., Suhr K.-B., Kim B.-M.: Quantification of the wound healing using
polarization-sensitive optical coherence tomography. J Biomed Opt 2011; 11: 041124.
Pan Y., Li Z., Xie T., Chu C. R.: Hand-held arthroscopic optical coherence tomography for in vivo high-
resolution imaging of articular cartilage. J Biomed Opt 2003; 8: 648–654.
Park B. H., Saxer C., Srinivas S. M., Nelson J. S., de Boer J. F.: In vivo burn depth determination by
high-speed fiber-based polarization sensitive optical coherence tomography. J Biomed Opt
2001; 6: 474–479.
Pierce M. C., Sheridan R. L., Hyle Park B., Cense B., de Boer J. F.: Collagen denaturation can be
quantified in burned human skin using polarization-sensitive optical coherence tomography.
Burns 2004; 30: 511–517.
Potsaid B., Baumann B., Huang D., Barry S., Cable A. E., Schuman J. S., et al.: Ultrahigh speed
1050nm swept source / Fourier domain OCT retinal and anterior segment imaging at 100,000 to
400,000 axial scans per second. Opt Express 2010; 18: 20029–20048.
Povazay B., Bizheva K., Hermann B., Unterhuber A., Sattmann H., Fercher A., et al.: Enhanced
visualization of choroidal vessels using ultrahigh resolution ophthalmic OCT at 1050 nm. Opt
Express 2003; 11: 1980–1986.
Povazay B., Hofer B., Torti C., Hermann B., Tumlinson A. R., Esmaeelpour M., et al.: Impact of
enhanced resolution, speed and penetration on three-dimensional retinal optical coherence
tomography. Opt Express 2009; 17: 4134–4150.
Povazay B., Hermann B., Unterhuber A., Hofer B., Sattmann H., Zeiler F., et al.: Three-dimensional
optical coherence tomography at 1050 nm versus 800 nm in retinal pathologies: enhanced
performance and choroidal penetration in cataract patients. J Biomed Opt 2007; 12: 041211.
14 Optische Kohärenztomographie | 501

Qi B., Himmer A. P., Gordon L. M., Yang X. D. V., Dickensheets L. D., Vitkin I. A.: Dynamic focus control
in high-speed optical coherence tomography based on a microelectromechanical mirror. Opt
Commun 2004; 232: 123–128.
Roggan A., Beuthan J., Schründer S., Müller G.: Diagnostik und Therapie mit dem Laser.
Physikalische Blätter 1999; 55: 25–30.
Rollins A. M., Kulkarni M. D., Yazdanfar S., Ung-arunyawee R., Izatt J. A.: In vivo video rate optical
coherence tomography. Opt Express 1998; 3: 219–229.
Rosen R. B., Hathaway M., Rogers J., Pedro J., Garcia P., Dobre G. M., Podoleanu A. G.: Simultaneous
OCT/SLO/ICG Imaging. Invest Ophth Vis Sci 2009; 50: 851–860.
Sakai S., Nakagawa N., Yamanari M., Miyazawa A., Yasuno Y., Matsumoto M.: Relationship between
dermal birefringence and the skin surface roughness of photoaged human skin. J Biomed Opt
2009; 14: 044032.
Sakai S., Yamanari M., Miyazawa A., Matsumoto M., Nakagawa N., Sugawara T., et al.: In vivo three-
dimensional birefringence analysis shows collagen differences between young and old
photo-aged human skin. J Invest Dermatol 2008; 128: 1641–1647.
Schmitt J. M., Lee S. L., Yung K. M.: An optical coherence microscope with enhanced resolving power
in thick tissue. Opt Commun 1997; 142: 203–207.
Schmoll T., Kolbitsch C., Leitgeb R. A.: Ultra-high-speed volumetric tomography of human retinal
blood flow. Opt Express 2009; 17: 4166–41676.
Sharma U., Chang E. W., Yun S. H.: Long-wavelength optical coherence tomography at 1.7 μm for
enhanced imaging depth. Opt Express 2008; 16: 19712–19723.
Spöler F., Kray S., Grychtol P., Hermes B., Bornemann J., Först M., Kurz H.: Simultaneous dual-band
ultra-high resolution optical coherence tomography. Opt Express 2007; 15: 10832–10841.
Szkulmowski M., Wojtkowski M., Bajraszewski T., Gorczynska I., Targowski P., Wasilewski W., et al.:
Quality improvement for high resolution in vivo images by spectral domain optical coherence
tomography with supercontinuum source. Opt Commun 2005; 246: 569–578.
Traub W. A.: Constant-dispersion grism spectrometer for channeled spectra. J Opt Soc Am A 1990; 7:
1779–1791.
Tumlinson A. R., Povazay B., Hariri L. P., McNally J., Unterhuber A., Hermann B., et al.: In vivo
ultrahigh-resolution optical coherence tomography of mouse colon with an achromatized
endoscope. J Biomed Opt 2006; 11: 064003–064008.
Unterhuber A., Povazay B., Hermann B., Sattmann H., Chavez-Pirson A., Drexler W.: In vivo retinal
optical coherence tomography at 1040 nm – enhanced penetration into the choroid. Opt
Express 2005; 13: 3252–3258.
Vakoc B., Yun S., de Boer J., Tearney G., Bouma B.: Phase-resolved optical frequency domain
imaging. Opt Express 2005; 13: 5483–5493.
Vergnole S., Levesque D., Lamouche G.: Experimental validation of an optimized signal processing
method to handle non-linearity in swept-source optical coherence tomography. Opt Express
2010; 18: 10446–10461.
Walther J., Koch E.: Transverse motion as a source of noise and reduced correlation of the Doppler
phase shift in spectral domain OCT. Opt Express 2009a; 17: 19698–196713.
Walther J., Krüger A., Cuevas M., Koch E.: Effects of axial, transverse, oblique sample motion in FD
OCT in systems with global or rolling shutter line detector. J Opt Soc Am A 2008; 25: 2791–2802.
Walther J., Mueller G., Morawietz H., Koch E.: Analysis of in vitro and in vivo bidirectional flow
velocities by phase-resolved Doppler Fourier-domain OCT. Sens Actuator A-Phys 2009b; 156:
14–21.
Walther J., Mueller G., Morawietz H., Koch E.: Signal power decrease due to fringe washout as an
extension of the limited Doppler flow measurement range in spectral domain optical coherence
tomography. J Biomed Opt 2010; 15: 041511.
502 | Julia Walther, Edmund Koch

Wang R. K., Jacques S. L., Ma Z., Hurst S., Hanson S. R., Gruber A.: Three dimensional optical
angiography. Opt Express 2007; 15: 4083–4097.
Wang W., Zhang K., Ren Q., Kang J. U.: Comparison of different focusing systems for common-path
optical coherence tomography with fiber-optic bundle as endoscopic probe. Opt Eng 2009; 48:
103001–103008.
Wang X. J., Milner T. E., Nelson J. S.: Characterization of fluid flow velocity by optical Doppler
tomography. Opt Lett 1995; 20: 1337–1339.
Watanabe Y., Sajima F., Itagaki T., Watanabe K., Shuto Y.: High-speed linear detection time domain
optical coherence tomography with reflective grating-generated spatial reference delay. Appl
Opt 2009; 48: 3401–3406.
Welzel J., Reinhardt C., Lankenau E., Winter C., Wolff H. H.: Changes in function and morphology of
normal human skin: evaluation using optical coherence tomography. Br J Dermatol 2004; 150:
220–225.
Welzel J.: Optical coherence tomography in dermatology: a review. Skin Research and Technology
2001; 7: 1–9.
White B., Pierce M., Nassif N., Cense B., Park B., Tearney G., et al.: In vivo dynamic human retinal
blood flow imaging using ultra-high-speed spectral domain optical coherence tomography. Opt
Express 2003; 11: 3490–3497.
Wieser W., Biedermann B. R., Klein T., Eigenwillig C. M., Huber R.: Multi-Megahertz OCT.: High quality
3D imaging at 20 million A-scans and 4.5 GVoxels per second. Opt Express 2010; 18:
14685–14704.
Wojtkowski M., Srinivasan V., Ko T., Fujimoto J., Kowalczyk A., Duker J.: Ultrahigh-resolution,
high-speed, Fourier domain optical coherence tomography and methods for dispersion
compensation. Opt Express 2004; 12: 2404–2422.
Wolf-Schnurrbusch U. E. K., Ceklic L., Brinkmann C. K., Iliev M. E., Frey M., Rothenbuehler S. P., et al.:
Macular thickness measurements in healthy eyes using six different optical coherence
tomography instruments. Invest Ophthalmol Vis Sci 2009; 50: 3432–3437.
Wu J., Conry M., Gu C., Wang F., Yaqoob Z., Yang C.: Paired-angle-rotation scanning optical
coherence tomography forward-imaging probe. Opt Lett 2006; 31: 1265–1267.
Xi J., Huo L., Wu Y., Cobb M. J., Hwang J. H., Li X.: High-resolution OCT balloon imaging catheter with
astigmatism correction. Opt Lett 2009; 34: 1943–1945.
Xie T., Guo S., Chen Z., Mukai D., Brenner M.: GRIN lens rod based probe for endoscopic spectral
domain optical coherence tomography with fast dynamic focus tracking. Opt Express 2006; 14:
3238–3246.
Xu Z., Carrion L., Maciejko R.: A zero-crossing detection method applied toDoppler OCT. Opt Express
2008; 16: 4394–4412.
Yamanari M., Makita S., Yasuno Y.: Polarization-sensitive swept-source optical coherence
tomography with continuous source polarization modulation. Opt Express 2008; 16:
5892–5906.
Yasuno Y., Hong Y., Makita S., Yamanari M., Akiba M., Miura M., et al.: In vivo high-contrast imaging
of deep posterior eye by 1-um swept source optical coherence tomography andscattering
optical coherence angiography. Opt Express 2007; 15: 6121–6139.
Yazdanfar S., Chen Y. Y., So P. T. C., Laiho L. H.: Multifunctional imaging of endogenous contrast by
simultaneous nonlinear and optical coherence microscopy of thick tissues. Microsc Res Tech
2007; 70: 628–633.
Yuan S., Roney C. A., Wierwille J., Chen C. W., Xu B., Griffiths G., et al.: Co-registered optical
coherence tomography and fluorescence molecular imaging for simultaneous morphological
and molecular imaging. Phys Med Biol 2010; 55: 191–206.
14 Optische Kohärenztomographie | 503

Zhang J., Chen Z.: In vivo blood flow imaging by a swept laser source based Fourier domain optical
Doppler tomography. Opt Express 2005; 13: 7449–7457.
Zhang Y., Cense B., Rha J., Jonnal R. S., Gao W., Zawadzki R. J., Werner J. S., et al.: High-speed
volumetric imaging of cone photoreceptors with adaptive optics spectral-domain optical
coherence tomography. Opt Express 2006; 14: 4380–4394.

Testfragen
1. Skizzieren und erläutern Sie den Aufbau eines Time-Domain-OCT-Systems. Beschreiben Sie die
Entstehung des Interferenzsignals am Detektor.
2. Skizzieren Sie das Konzept der Fourier-Domain-OCT und beschreiben Sie dabei den wesentli-
chen Unterschied zur OCT in der Zeitdomäne. Welche Vorteile bieten die Systeme im Vergleich
zueinander?
3. Beschreiben Sie die zwei Möglichkeiten der Detektion des Interferenzspektrums in der Fourier-
Domäne. Zeigen Sie die Vorteile der jeweiligen Verfahren auf. Welche Detektionsgeschwindig-
keiten werden derzeit für einen Tiefenscan (A-Scan) erreicht.
4. Welcher Wellenlängenbereich wird vorzugsweise für die OCT verwendet und warum? Benennen
Sie den Zusammenhang zwischen der axialen Auflösung eines OCT-Systems und der verwen-
deten Lichtquelle. Welcher Kompromiss entsteht zwischen axialer Auflösung und Messtiefe für
OCT-Systeme in der Fourier-Domäne?
5. Benennen Sie die Vor- und Nachteile der OCT gegenüber anderen konventionellen Bildgebungs-
verfahren.
6. In welchem Teilgebiet der Medizin findet die OCT ihre Hauptanwendung? Welche Zentralwellen-
länge wird dabei neben den 800-nm-Systemen alternativ verwendet? Benennen Sie die Vorzüge
beider Wellenlängenbereiche.
7. Mit welcher Erweiterung können Blutflussgeschwindigkeiten in der OCT bildlich dargestellt und
quantifiziert werden? Welche Bedingungen müssen dafür bei der Bildaufnahme erfüllt werden?
Beschreiben Sie den Zusammenhang zwischen der axialen Geschwindigkeitskomponente der
Probe und der Doppler-Phasenverschiebung.
Dirk Grosenick, Rainer Macdonald
15 Diffuse optische Bildgebung

15.1 Einleitung | 506


15.2 Lichtausbreitung in Gewebe | 507
15.3 Transilluminationsbildgebung | 510
15.4 Diffuse optische Tomographie | 513

Zusammenfassung: Bilder vom Inneren des Körpers mit Licht – geht das? Der Kör-
per ist doch undurchsichtig! Wer einmal einen roten Laser-Pointer auf die eine Seite
seiner Hand hält erkennt, dass doch ein messbarer Anteil Licht auf der anderen Sei-
te der Hand wieder austritt. In der diffus optischen Bildgebung wird Gewebe mithilfe
von nahinfrarotem Licht durchleuchtet, um daraus wichtige diagnostische Informa-
tionen abzuleiten. In diesem Kapitel werden die Grundlagen der Lichtausbreitung in
Gewebe erläutert. Anhand der optischen Mammographie werden die Transilluminati-
onsbildgebung, die diffuse optische Tomographie und die optische Tomosynthese als
Beispiele für Untersuchungsmethoden zur Charakterisierung der Hämoglobinvertei-
lung und zur Bestimmung der Anreicherung eines fluoreszierenden Kontrastmittels
in Läsionen vorgestellt.

Abstract: Using light to obtain images from the inside of the body – is this possible?
Isn’t the human body optically opaque?! Anybody who has directed a red laser pointer
to his or her hand before will have noticed that a considerable amount of light is in-
deed transmitted through the hand. In Diffuse Optical Imaging tissue is transillumi-
nated by near-infrared light in order to obtain images of diagnostic value. This chapter
discusses the basics of light propagation in tissue. Optical Mammography is discussed
as an example to illustrate several methods such as Two-dimensional Transillumina-
tion Imaging, diffuse Optical Tomography, and Optical Tomosynthesis. The methods
are applied to characterize the hemoglobin concentration or the enrichment of a flu-
orescent contrast agent in lesions of the breast.
506 | Dirk Grosenick, Rainer Macdonald

15.1 Einleitung
Mithilfe einer Taschenlampe lässt sich ohne Weiteres feststellen, dass rotes Licht mü-
helos zentimeterdicke Gewebeschichten, z. B. die Finger, durchdringt. Bereits dieses
einfache Experiment legt nahe, dass es bei Verwendung bestimmter Wellenlängen
des Lichtes möglich sein sollte, ein Stück weit in den menschlichen Körper hinein-
zusehen und somit optische Bildgebungsverfahren in vivo realisieren zu können.
Bei genauerer Betrachtung fällt jedoch ebenfalls auf, dass die durchleuchteten Finger
das eingestrahlte Licht auch seitlich wieder abgeben und in Transmission recht ver-
schwommen oder „diffus“ leuchten. Dies liegt daran, dass optische Photonen an den
Zellen und Zellbestandteilen des Gewebes stark gestreut werden. Da die Wahrschein-
lichkeit für Streuvorgänge bei rotem und nahinfrarotem Licht sehr viel größer ist als
für die Absorption, wird die Lichtausbreitung in ausgedehnten Gewebeschichten oft
als „diffusionsartig“ beschrieben [Ishimaru 1989].

Diffusion (lat. diffundere – ausgießen, verstreuen, ausbreiten): physikalischer Prozess, der bei
ungleichmäßiger Verteilung von Teilchen zu einem Transport der Teilchen bis zu ihrer gleichmä-
ßigen Durchmischung führt.

Nahinfrarotspektrum (NIR): Spektralbereich des kurzwelligen Infrarotlichts mit Wellenlängen zwi-


schen 700 nm und 2500 nm.

Vorteilhaft ist die Verwendung von Licht im Spektralbereich mit Wellenlängen zwi-
schen etwa 650 und 900 nm. Dieser Bereich wird aus den genannten Gründen auch
als gewebeoptisches Fenster bezeichnet. Je nach Gewebe sind damit Eindringtie-
fen von einigen Zentimetern mit effektiven Weglängen von mehreren 10 cm (bedingt
durch die Streuung) möglich. Die Energie der Photonen ist dabei so gering, dass kei-
ne ionisierende Wirkung auftritt. Die vergleichsweise starke Lichtstreuung in Gewe-
be führt allerdings dazu, dass das räumliche Auflösungsvermögen optischer In-vivo-
Mess- und Bildgebungsverfahren in der Regel deutlich geringer ausfällt als bei den
meisten anderen medizinischen Bildgebungsverfahren (typisch nicht besser als 5 bis
10 mm). Die medizinisch-optische Bildgebung ist deshalb vornehmlich für die funk-
tionelle Diagnose, jedoch nicht für die Diagnose krankhafter Veränderungen anhand
morphologischer Eigenschaften prädestiniert.
Optische Bildgebungsverfahren bieten vielfältige neue Anwendungsmöglichkei-
ten für die medizinische Diagnostik und Therapiekontrolle. Durch Ausnutzung op-
tisch-spektroskopischer Messsignale können unter anderem Informationen über den
biochemischen metabolischen Zustand von Gewebe nichtinvasiv erfasst und darge-
stellt werden, was mit vielen anderen Bildgebungsverfahren nicht möglich ist. Durch
den Einsatz fluoreszierender Kontrastmittel lassen sich darüber hinaus sehr empfind-
lich und nahezu untergrundfrei pathologische Veränderungen der Durchblutung (Per-
fusion) von Gewebe optisch darstellen und für die Erkennung von Tumoren oder ent-
zündlichen Erkrankungen nutzbar machen. Durch die Entwicklung fluoreszenzmar-
15 Diffuse optische Bildgebung | 507

kierter, krankheitsspezifischer molekularer Sonden eröffnet sich die Perspektive, in


Kombination mit optischen Technologien wichtige Beiträge zur molekularen Medizin
beisteuern zu können [Weissleder 1999].

Fluoreszenz: kurzzeitige, spontane Lichtemission beim Übergang eines elektronisch angeregten


Systems in einen Zustand niedrigerer Energie, wobei das emittierte Licht im Regelfall energieär-
mer ist als das vorher absorbierte. Fluoreszenzübergänge erfolgen zwischen Zuständen mit glei-
chem Spin.

Optisch bildgebende Verfahren wurden beispielsweise erfolgreich für die Darstellung


der Durchblutung sowie der relativen Sauerstoffsättigung des Gehirns [Jobsis 1977,
Villringer 1997], zur Detektion von Brustkrebs [Franceschini 1997, Götz 1998, Colak
1999, Grosenick 1999, Taroni 2004] sowie zur Früherkennung rheumatisch entzündli-
cher Erkrankungen der Fingergelenke [Scheel 2002, Fischer 2010] entwickelt und er-
probt.

15.2 Lichtausbreitung in Gewebe


Wird Licht in Gewebe eingestrahlt, so wird ein Teil davon an der Oberfläche aufgrund
des Brechzahlunterschiedes zwischen dem Gewebe und der Umgebung (meistens
Luft) reflektiert (Fresnel-Reflexion). Die in das Gewebe eintretenden Photonen
werden an den Zellen und Zellbestandteilen vielfach gestreut und breiten sich mehr-
heitlich auf komplizierten Trajektorien aus, wie in 󳶳Abb. 15.1 schematisch dargestellt.
Die Streuung erfolgt an den Zellmembranen, an makromolekularen Aggregaten und
Kollagenfasern (Rayleigh-Streuung) sowie an Vesikeln und Lysosomen, Mitochon-
drien, dem Zellkern oder den Zellen selbst (Mie-Streuung). Der Streukoeffizient
von Gewebe im hier diskutierten Spektralbereich beträgt größenordnungsmäßig
𝜇s = 100 cm−1 , d. h., die mittlere freie Weglänge zwischen zwei Streuereignissen be-
trägt typisch ls = 100 μm. Die einzelnen Streuvorgänge erfolgen dabei stark anisotrop
in Vorwärtsrichtung. Nach etwa zehn Streuereignissen geht diese Richtungsinforma-
tion verloren und die Streuung wird scheinbar isotrop. Die Weglänge bis zum Verlust
der Anisotropie der Streuung wird als mittlere reduzierte freie Weglänge l󸀠s bezeichnet,
die dazugehörige inverse Größe heißt reduzierter Streukoeffizient 𝜇s󸀠 . Ein typischer
Zahlenwert für den reduzierten Streukoeffizient in Gewebe ist z. B. 𝜇s󸀠 = 10 cm−1 .
Ist die Dicke des Gewebes deutlich größer als die mittlere freie Weglänge zwischen
den Streuereignissen, ist die Wahrscheinlichkeit für die Detektion von ballistischen
Photonen (siehe 󳶳Abb. 15.1) verschwindend gering. Es ist vielmehr davon auszuge-
hen, dass nahezu alle Photonen, die das Gewebe an irgendeiner Stelle wieder verlas-
sen, vielfach gestreut wurden.
Treffen die Photonen während ihrer stochastischen Ausbreitung durch das Gewe-
be auf bestimmte Chromophore, können sie absorbiert werden. Wesentliche Absorber
508 | Dirk Grosenick, Rainer Macdonald

Fresnel-Reflexion

diffuse Reflexion

innere
Total- Streuung
reflexion
Absorption

diffuse Transmission

kollimierte Transmission
„ballistische Photonen”

Abb. 15.1: Schematische Darstellung der Effekte bei der Lichtausbreitung in einem diffus streuenden
Medium.

im Spektralbereich des optisch diagnostischen Fensters sind der Blutfarbstoff Hämo-


globin sowie Wasser und Lipide. Der Absorptionskoeffizient für rotes und nahinfra-
rotes Licht ist jedoch deutlich kleiner als der Streukoeffizient und beträgt größenord-
nungsmäßig 𝜇a = 1 cm−1 . Die Wahrscheinlichkeit, absorbiert zu werden, ist für Licht
des hier betrachteten Spektralbereiches also deutlich geringer als die, gestreut zu wer-
den.
Anhand charakteristischer Streu- und Absorptionseigenschaften lassen sich po-
tentiell verschiedene Gewebe oder insbesondere auch krankhafte Gewebeverände-
rungen differenzieren und als Kontrastmechanismus in der optischen Bildgebung von
Gewebe nutzen.
In 󳶳Tab. 15.1 sind exemplarisch die optischen Eigenschaften einiger Gewebe-
arten zusammengestellt, um dieses Potential zu verdeutlichen.
Aufgrund der starken Streuung und der von den Photonen zurückgelegten sto-
chastischen Trajektorien lassen sich strukturell oder funktionell bedingte Verände-
rungen der gewebeoptischen Eigenschaften mithilfe von Licht nur sehr diffus darstel-
len. Dies ist in 󳶳Abb. 15.2 erläutert. Hier sind für zwei Anordnungen von Quelle und
Detektor diejenigen Bereiche in Falschfarben dargestellt, die von den Photonentra-
jektorien mit hoher Wahrscheinlichkeit durchlaufen wurden und quasi das optisch
erfasste Volumen für diese Anordnung repräsentieren. Das abgetastete Volumen wird
wegen seiner Form (insbesondere bei diffuser Reflexion) auch als „Photonen-Bana-
ne“ bezeichnet [Feng 1995]. Die Ausdehnung der Photonen-Banane hat zwei wesentli-
che Konsequenzen für die gewebeoptische Bildgebung: Erstens wird die räumliche Lo-
kalisierung von gewebeoptischen Inhomogenitäten durch das ausgedehnte Volumen
der Banane begrenzt. Zweitens werden optische Inhomogenitäten, die eine geringere
räumliche Ausdehnung haben als die Photonen-Banane, kontrastgemindert erfasst,
da neben der Inhomogenität selbst auch vergleichsweise viel Umgebungsgewebe mit
15 Diffuse optische Bildgebung | 509

Tab. 15.1: Absorptions- und reduzierte Streukoeffizienten von weiblichem Brustgewebe in vitro bei
jeweils zwei verschiedenen Wellenlängen (nach [Tuchin 2007]).

Art 𝜆 in nm 𝜇a in cm−1 𝜇s󸀠 in cm−1


Drüsengewebe 700 0,47 14,2
900 0,62 9,9
Fettgewebe 700 0,70 8,6
900 0,75 7,9
Fibrocystome 700 0,22 13,4
900 0,27 9,5
Fibroadenome 700 0,52 7,2
900 0,72 5,3
Karzinome 700 0,45 11,8
900 0,50 8,9

⋅10–4 ⋅10–4
0 4 0 4

1 1
z/cm

z/cm

2 2
2 2

3 0 3 0
0 1 2 3 –1 0 2
x/cm x/cm

Abb. 15.2: Darstellung der Wahrscheinlichkeit, mit der ein am Detektor nachgewiesenes Photon aus
einer kontinuierlichen Lichtquelle ein bestimmtes Volumenelement der Größe 1 mm3 durchlaufen
hat (Schnitt durch die Photonen-Banane). Links: Reflexionsmessung, rechts: Transmissionsmes-
sung. In der Nähe der Lichtquelle und des Detektors (Pfeile) nähert sich die Wahrscheinlichkeit dem
Wert 1 (Werte > 4 ⋅ 10−4 sind braun dargestellt).

abgetastet wird und das Signal dadurch „verdünnt“ wird. Die Kontrastverdünnung ist
stark ausgeprägt, wenn sich die Inhomogenität tief im Gewebe befindet und vom aus-
gedehnten Bereich der Banane abgetastet wird, während sie umso weniger relevant
ist, je näher die Inhomogenität an der Oberfläche liegt.
Um aus den an der Gewebeoberfläche detektierten diffus transmittierten oder
reflektierten Photonen optische Eigenschaften (Streuung, Absorption) sowie deren
räumliche Verteilung bestimmen zu können, sind modellgestützte Datenanalysever-
fahren erforderlich. Die Lichtausbreitung in dicken Gewebeschichten lässt sich wegen
der Vielfachstreuung der Photonen an zufällig verteilten Streuern verschiedener Grö-
ße im Rahmen der Maxwell’schen Elektrodynamik praktisch nicht modellieren.
Vielmehr hat sich die Verwendung der Strahlungstransport-Gleichung [Chandra-
sekar 1950, Ishimaru 1978] als Ausgangsmodell sehr gut bewährt. Die Modellierung
510 | Dirk Grosenick, Rainer Macdonald

erfolgt entweder durch Monte-Carlo-Simulation [Jacques 1995] oder oft durch eine
isotrope Näherung der Strahlungstransport-Gleichung, die optische Diffusionsglei-
chung [Ishimaru 1989]:
1 𝜕 q (r,⃗ t)
∇ ⋅ D (r)⃗ ⋅ ∇𝛷 (r,⃗ t) − 𝜇a (r)⃗ 𝛷 (r,⃗ t) − ⋅ 𝛷 (r,⃗ t) = − 0 (15.1)
c 𝜕t c
Dabei ist 𝛷(r,⃗ t) die Photonendichte im streuenden Medium am Ort r ⃗ zur Zeit t. Der
Diffusionskoeffizient D ergibt sich aus dem reduzierten Streukoeffizienten 𝜇s󸀠 und
dem Absorptionskoeffizienten 𝜇a zu D(r)⃗ = [3(𝜇s󸀠 (r)⃗ + 𝜇a (r))] ⃗ −1 . Der Quellterm q0 (r,⃗ t)
beschreibt die am Ort r ⃗ zur Zeit t eingestrahlte Anzahl von Photonen pro Zeit und
Volumen, c ist die Lichtgeschwindigkeit im Medium. Für den Fall eines unendlich
ausgedehnten Streumediums mit homogenen optischen Eigenschaften und einer
deltaförmige Quellfunktion q0 (r,⃗ t) = 𝛿(r0⃗ )𝛿(t0 ) lautet die Lösung von 󳶳Gl. (15.1):

1 󵄨󵄨󵄨r ⃗ − r0⃗ 󵄨󵄨󵄨2


𝛷 (r,⃗ t) = ⋅ exp (− 󵄨 󵄨 ) ⋅ exp (−𝜇 c (t − t )) (15.2)
a 0
(4𝜋Dc (t − t0 ))
3/2 4Dc (t − t0 )

Die Fouriertransformierte 𝛷(̂ r,⃗ 𝜔) der Photonendichte aus 󳶳Gl. (15.2) hat die Form
einer Kugelwelle. Daher bezeichnet man die Frequenzraumlösungen der Diffusi-
onsgleichung auch als Photonendichtewellen. Analytische Lösungen der optischen
Diffusionsgleichung sind für eine Reihe von experimentellen Bedingungen und Geo-
metrien des Streumediums bekannt [Patterson 1989, Feng 1995, Gibson 2005]. Nume-
rische Lösungsverfahren finden insbesondere als Vorwärtsmodell bei der optischen
Tomographie Anwendung (s. 󳶳Kap. 15.4.).

15.3 Transilluminationsbildgebung
Eine einfache Möglichkeit zur Untersuchung von Gewebeschichten stellt die Transil-
luminationsbildgebung dar. Diese Verfahren sind insbesondere für die Abbildung und
Charakterisierung von Tumoren in der weiblichen Brust entwickelt worden [Gros 1972,
Carlsen 1982]. Wie in 󳶳Abb. 15.3 (a) skizziert, wird bei den modernen Weiterentwick-
lungen dieser Verfahren die zu untersuchende Brust zwischen zwei parallelen Glas-
platten positioniert und mithilfe einer Sende- und einer Empfangsfaser durchleuchtet
[Grosenick 1999].
Werden die beiden Fasern simultan rasterförmig über das Gewebe geführt, so las-
sen sich Transmissionsbilder erzeugen, in denen Tumoren als dunkle Gebiete mit er-
höhter Absorption erkennbar sind. Durch die im Tumor erhöhte Hämoglobinkonzen-
tration ist die gemessene Transmission im nahinfraroten Spektralbereich geringer als
beim umliegenden Gewebe. Da das Lichtsignal aber auch empfindlich von lokal ver-
änderten Streueigenschaften des Gewebes beeinflusst wird, wurden Verfahren entwi-
ckelt [Patterson 1989], um die Absorptions- und Streueigenschaften des Gewebes tren-
nen zu können. Ein möglicher Ansatz ist das in 󳶳Abb. 15.3 (a) dargestellte zeitaufge-
löste Messverfahren [Grosenick 1999]. Hierbei werden Pikosekunden-Laserimpulse
15 Diffuse optische Bildgebung | 511

Pikosekunden- 0,61 1,67 0,5 1,67 0,9 1,43


Laserimpuls
Scanner

Glasplatten

Photonen-
Laufzeitverteilung

2 cm
Zeitfenster
(a) (b) (c) (d)

Abb. 15.3: Transilluminationsbildgebung der weiblichen Brust zur Tumordetektion. (a) Messprinzip
bei Verwendung von Pikosekunden-Laserimpulsen; (b) Durchleuchtungsbild einer Brust bei einer
Wellenlänge von 660 nm (relative Photonenzahlen im Zeitfenster der Photonenlaufzeitverteilungen,
vgl. Abb. (a). Der Pfeil kennzeichnet die Position eines invasiv duktalen Karzinoms mit erhöhter Ab-
sorption. (c) Fluoreszenzmessung an derselben Brust unter Verwendung des Kontrastmittels Indo-
cyaningrün – der Kontrast an der Tumorposition ist ausgelöscht; (d) Fluoreszenzbild nach Korrektur
der Gewebegrundabsorption – das Karzinom ist mit hohem Kontrast erkennbar.

in das Brustgewebe eingestrahlt und die Laufzeiten der detektierten Photonen gemes-
sen. Die Laufzeitverteilung der detektierten Photonen repräsentiert einen gegen-
über dem Laserimpuls deutlich verbreiterten transmittierten Impuls. Bei der Durch-
leuchtung von Brustgewebe liegt die Halbwertsbreite typischerweise bei einigen
Nanosekunden. Lokale Änderungen in der Gewebestreuung beeinflussen vor allem
die Vorderflanke dieses Impulses, während absorbierende Inhomogenitäten die Im-
pulsform praktisch nicht ändern. Bestimmt man für alle Rasterpositionen die relative
Photonenzahl in einem festen Zeitfenster auf der Rückflanke der Photonenlaufzeitver-
teilungen (󳶳Abb. 15.3 (a)), so erhält man ein qualitatives Bild der Gewebeabsorption.
󳶳Abb. 15.3 (b) zeigt als Beispiel ein optisches Mammogramm für eine Patien-
tin mit einem Karzinom. Eine genauere Analyse der gemessenen Laufzeitverteilun-
gen, z. B. mithilfe des Diffusionsmodells für den Photonentransport, ermöglicht die
Bestimmung der Absorptionskoeffizienten 𝜇a und der reduzierten Streukoeffizienten
𝜇s󸀠 des Tumors und des gesunden Gewebes [Grosenick 2004]. Wird die Untersuchung
mit mehreren ausgewählten Wellenlängen im nahinfraroten Spektralbereich durchge-
führt, so lassen sich aus den Absorptionskoeffizienten die Konzentrationen von Oxy-
und Desoxyhämoglobin bestimmen. Bei ausreichender Empfindlichkeit kann auch
der relative Anteil von Wasser und Lipiden im Gewebe abgeleitet werden. Die Wel-
lenlängenabhängigkeit des reduzierten Streukoeffizienten ermöglicht weiterhin Aus-
sagen über die mittlere Größe der Streuzentren [Taroni 2005].
Alternativ zum zeitaufgelösten Messverfahren lassen sich die Photonenlaufzei-
ten auch mithilfe intensitätsmodulierter Laserstrahlung aus der Phasenverschiebung
512 | Dirk Grosenick, Rainer Macdonald

der modulierten Signale abschätzen [Chance 1998]. Im einfachsten Fall kommt dabei
nur eine Modulationsfrequenz aus dem Fourierspektrum der Photonenlaufzeitvertei-
lung zur Anwendung. Damit erhält man zwar nicht den vollen Informationsgehalt der
zeitaufgelösten Messungen, der experimentelle Aufwand wird jedoch wesentlich ge-
ringer. Formal stehen mit der Demodulation und der Phasenverschiebung zwei un-
abhängige Messgrößen zur Verfügung, so dass auch bei Beschränkung auf nur ei-
ne Modulationsfrequenz eine Trennung der beiden gesuchten Größen Absorption 𝜇a
und Streuung 𝜇s󸀠 prinzipiell möglich ist. Besser ist jedoch der Einsatz eines breiten
Spektrums an Modulationsfrequenzen, wodurch allerdings der Aufwand wieder grö-
ßer wird.
Die Transilluminationsbildgebung lässt sich mit gewissen Modifikationen auch
für den Nachweis eines fluoreszierenden Kontrastmittels im Gewebe verwenden.
Die Anregung der Fluoreszenz erfolgt mit nahinfrarotem Laserlicht, welches spek-
tral an die Absorption des Kontrastmittels angepasst sein muss, und es werden neben
den gestreuten Laserphotonen zusätzlich Fluoreszenzphotonen detektiert und analy-
siert. 󳶳Abb. 15.3 (c) und 15.3 (d) zeigen als Beispiel ein Untersuchungsergebnis aus der
optischen Mammographie [Hagen 2009]. Der Patientin wurde bei der Untersuchung
über einen Zeitraum von ca. 20 min das sehr gut verträgliche Kontrastmittel Indocya-
ningrün (ICG) intravenös verabreicht. Dieses Kontrastmittel bindet sehr schnell und
nahezu vollständig an die Plasmaproteine des Blutes. Dadurch kann es beim Zirku-
lieren durch den Körper nur aus solchen Blutgefäßen austreten, die eine pathologisch
erhöhte Permeabilität für Makromoleküle aufweisen. Dies ist in Karzinomen der Fall,
so dass sich der Farbstoff hier anreichert und für einige Zeit liegen bleibt.

Indocyaningrün (ICG): fluoreszierender Farbstoff, der in der Medizin u. a. als Indikatorsubstanz für
die photometrische Leberfunktionsdiagnose und Fluoreszenzangiographie bei Herz-, Kreislauf-,
Leber- und Augenerkrankungen eingesetzt wird.

Da das Kontrastmittel ICG mit einer Halbwertszeit von ca. 5 min über die Leber aus
dem Blut ausgewaschen und abgebaut wird, wurde die Fluoreszenzmessung erst ca.
20 min nach Ende der Infusion durchgeführt. Zu diesem Zeitpunkt befindet sich kaum
noch ICG in den Blutgefäßen, sehr wohl aber im Karzinom, so dass hier Fluoreszenz-
photonen emittiert werden. Aufgrund des erhöhten Hämoglobingehalts im Karzinom
werden diese Fluoreszenzphotonen aber auch besonders stark absorbiert. Dadurch
kommt es im Fluoreszenzbild (󳶳Abb. 15.3 (c)) an der Tumorposition zu einer Auslö-
schung des Kontrastes. Wird jedoch das Verhältnis aus der Fluoreszenz und der zuge-
hörigen Transmission auf der Anregungslaserwellenlänge dargestellt [Hagen 2009],
so erhält man ein optisches Mammogramm, das frei vom Einfluss der Gewebegrund-
absorption ist und das Karzinom mit sehr gutem Kontrast zeigt (󳶳Abb. 15.3 (d)). Mit-
hilfe solchermaßen absorptionskorrigierter Fluoreszenz-Mammogramme wurden in
einer klinischen Machbarkeitsstudie [Poellinger 2011] an 20 Patientinnen maligne ge-
15 Diffuse optische Bildgebung | 513

Sender
ps-Laserimpuls Sender
ps-Laserimpuls

Detektoren

Detektoren
Detektoren

Abb. 15.4: Messgeometrien für die diffuse optische Tomographie. Links: zirkulare Anordnung des
Senders und der Detektoren; rechts: Schichtgeometrie mit Detektoren in Transmission und Re-
flexion. Bei der Messung werden nacheinander mehrere Senderpositionen (gestrichelte Pfeile)
angesteuert. Im Medium sind die wahrscheinlichsten Trajektorien zwischen Sender und Detektor
gekennzeichnet. Die Impulse zeigen schematisch die Verbreiterung der eingestrahlten Lichtsignale
beim zeitaufgelösten Messverfahren.

gen benigne Läsionen mit einer Sensitivität von 95 % (±8 %) und einer Spezifität von
75 % (±16 %) differenziert.

15.4 Diffuse optische Tomographie


Mit der einfachen Kombination aus Sende- und Empfangsfaser gemäß 󳶳Abb. 15.3 (a)
lässt sich nur ein zweidimensionales Durchleuchtungsbild des Gewebes erzeugen. Um
die Gewebeeigenschaften oder auch die Verteilung eines Kontrastmittels dreidimen-
sional abbilden und bestimmen zu können, muss das Gewebe unter verschiedenen
Projektionsrichtungen durchleuchtet werden, ähnlich wie bei der Computertomogra-
phie. Mithilfe eines geeigneten Algorithmus [Arridge 1999] kann daraus die dreidimen-
sionale Verteilung der gesuchten Gewebeeigenschaften rekonstruiert werden, aller-
dings wieder mit der bereits erwähnten begrenzten räumlichen Auflösung infolge der
starken Lichtstreuung. Wegen der diffusionsartigen Lichtausbreitung („Photonen-Ba-
nane“) ist die Rekonstruktion aufwendiger und schlechter bestimmt als bei der Com-
putertomographie. Die tomographischen Messgeometrien in der diffusen optischen
Bildgebung können im Wesentlichen in die beiden in 󳶳Abb. 15.4 gezeigten Gruppen
eingeteilt werden.
Mit einer zirkularen Anordnung von Sende- und Empfangsfasern in einer
oder mehreren Ebenen wird eine allseitige Durchleuchtung des Gewebes erreicht
(󳶳Abb. 15.4, links). Diese Geometrie wird für Untersuchungen der weiblichen Brust,
für die Bildgebung am Gehirn von Neugeborenen, aber auch für die Untersuchung
von z. B. Fingergelenken verwendet. Wenn allerdings die Abmessungen des zu unter-
suchenden Objektes für eine Durchleuchtung zu groß sind, z. B. bei der funktionel-
514 | Dirk Grosenick, Rainer Macdonald

len Bildgebung des Gehirns Erwachsener, dann können nur die Signale von mehr
oder weniger benachbarten Sende- und Detektorpositionen im Sinne einer diffusen
Reflexionsmessung für die Rekonstruktion herangezogen werden. An dicken Gewe-
beschichten kommt eine Kombination aus Detektoren in Transmission und Reflexion
in Betracht (󳶳Abb. 15.4, rechts). Generell können anstelle von Empfangsfasern auch
geeignete Kameras eingesetzt werden.
Für die diffuse optische Tomographie sind sowohl das zeitaufgelöste Messverfah-
ren, Messungen mit intensitätsmoduliertem Licht als auch Messungen mit kontinu-
ierlichem Licht eingesetzt worden [Gibson 2005]. Da bei der Verwendung kontinuier-
licher Laserstrahlung der Einfluss von Absorption und Streuung auf die Messsignale
ohne zusätzliche Informationen nicht getrennt werden kann, sind entsprechende Re-
konstruktionen i. a. auf die Bestimmung von Änderungen in der Gewebeabsorption
ausgerichtet.
Die Rekonstruktion der optischen Eigenschaften des Gewebes erfolgt mithilfe ei-
nes mathematischen Vorwärtsmodells, das die Berechnung der Messsignale in Ab-
hängigkeit von den optischen Eigenschaften der Volumenelemente des diffusen Me-
diums ermöglicht, und eines geeigneten Inversionsalgorithmus zur Minimierung der
Abweichungen zwischen den theoretischen und den gemessenen Signalen [Arridge
2009]. Die Vorwärtsrechnung wird häufig auf Basis der Diffusionsnäherung für den
Photonentransport, entweder in Form eines Störungsansatzes oder mithilfe von Fi-
nite-Elemente-Methoden, durchgeführt.
Bei der Untersuchung funktioneller Änderungen im Gewebe mithilfe der diffusen
optischen Tomographie lässt sich die räumliche Auflösung durch die Einbeziehung
anatomischer Informationen über das Gewebe verbessern. Diese Informationen
können beispielsweise aus einer Magnetresonanzaufnahme des Gewebes stammen.
Damit wird das Gewebe für die optische Tomographie in Segmente eingeteilt, die
jeweils gleichartige Gewebebestandteile umfassen. Bei der Analyse der optischen
Eigenschaften werden dann für diese Segmente zunächst jeweils mittlere optische
Eigenschaften rekonstruiert, bevor in einem zweiten Schritt auch Änderungen inner-
halb der Segmente zugelassen werden. Da die räumliche Auflösung bei dieser Art der
Analyse durch die Magnetresonanz-Bildgebung bestimmt wird, verbessert sich die
Genauigkeit der ermittelten optischen Parameter.
Bei Transmissionsmessungen in Schichtgeometrie kann neben den sehr rechen-
intensiven Rekonstruktionsverfahren auch die optische Tomosynthese angewandt
werden, um eine dreidimensionale Darstellung des Gewebes zu erhalten [Grose-
nick 2011]. Dabei wird ähnlich wie bei der Tomosynthese in der Röntgenbildgebung
(s. 󳶳Kap. 4) ausgenutzt, dass bei einem seitlichen Versatz (Offset) zwischen Sender
und Detektor eine Läsion im Gewebe abhängig von ihrer Tiefenposition eine bestimm-
te Verschiebung im Durchleuchtungsbild zeigt (󳶳Abb. 15.5). Um eine ausgewählte
Schichtebene des Gewebes zu rekonstruieren, werden die Durchleuchtungsbilder für
die verschiedenen Detektoren unter Berücksichtigung der Form der jeweils zugehöri-
gen wahrscheinlichsten Trajektorie zwischen Sender und Empfänger gegeneinander
15 Diffuse optische Bildgebung | 515

A
0

z/cm
B –5
10 5
5 0
C y/cm –5 x/cm
0
A B C

Abb. 15.5: Links: Prinzip der optischen Tomosynthese: Objekte in unterschiedlichen Tiefen des diffu-
sen Mediums erscheinen bei Verwendung von Detektoren mit seitlichen Offsets zur Senderposition
in den Durchleuchtungsbildern unterschiedlich stark versetzt. Verschiebt man die Durchleuchtungs-
bilder (A, B, C) unter Berücksichtigung der wahrscheinlichsten Trajektorien zwischen Sender und
Detektoren gegeneinander, so überlagern sich die Beiträge aus einer bestimmten Tiefe des Me-
diums, während Beiträge aus anderen Tiefen unterdrückt werden. Rechts: 3D-Rekonstruktion des
fluoreszierenden Karzinoms aus 󳶳 Abb. 15.3 (d) mittels Tomosynthese unter Verwendung der Minima
aus den schichtweise überlagerten Durchleuchtungsbildern.

verschoben. Werden diese Bilder dann gemittelt, so überlagern sich die Beiträge eines
in der selektierten Tiefe befindlichen Objektes, während Objekte aus anderen Tiefen-
bereichen verschmiert werden. Der Kontrast lässt sich weiter erhöhen, wenn anstelle
der Mittelung die Verteilungen der Bildwerte für die Detektoren an den einzelnen
Pixelpositionen berücksichtigt werden und je nach Eigenschaften der Läsion z. B.
jeweils das Minimum oder ein anderer geeigneter Perzentilenwert ausgewählt wird.
󳶳Abb. 15.5 zeigt als Beispiel die dreidimensionale Rekonstruktion des in 󳶳Abb. 15.3 (d)
dargestellten Karzinoms mit erhöhter Fluoreszenz. Für die Analyse wurden insgesamt
nur vier Durchleuchtungsbilder mit Detektoroffsets bis zu 2 cm verwendet.

Quellenverzeichnis
Arridge S. R.: Optical tomography in medical imaging. Inverse Problems 1999; 15, R41–93.
Arridge S. R., Schotland J. C.: Optical tomography: forward and inverse problems. Inverse Problems
2009; 25: 123010.
Carlsen E.: Transillumination light scanning. Diagn Imaging 1982; 4: 28–34.
Chance B., Cope M., Gratton E., Ramanujam N., Tromberg B.: Phase measurement of light absorption
and scattering in human tissues. Rev Sci Instr 1998; 689: 3457–3481.
Chandrasekhar S.: Radiative transfer. London: Oxford University Press, 1950.
Colak S. B., van der Mark M. B., Hooft G. W., Hoogenraad J. H., van der Linden E. S., Kuijpers F. A.:
Clinical optical tomography and NIR spectroscopy for breast cancer detection. IEEE J Quantum
Electron 1999; 5: 1143–1158.
Feng S., Zeng F. A., Chance B.: Photon migration in the presence of a single defect: a perturbation
analysis. Appl Opt 1995; 34: 3826–3837.
Fischer T., Ebert B., Voigt J., Macdonald R., Schneider U., Thomas A., Hamm B., Hermann K. G.:
Detection of rheumatoid arthritis using non-specific contrast enhanced fluorescence imaging.
Acad Radiol 2010; 17: 375–381.
516 | Dirk Grosenick, Rainer Macdonald

Franceschini M. A., Moesta K. T., Fantini S., Gaida G., Gratton E., Jess H., et al.: Frequency-domain
techniques enhance optical mammography: initial clinical results. Proc Natl Acad Sci USA 1997;
94: 6468–6473.
Gibson A. P., Hebden J. C., Arridge S. R.: Recent advances in diffuse optical imaging. Phys Med Biol
2005; 50: R1–43.
Götz L., Heywang-Köbrunner S. H., Schütz O., Siebold H.: Optical mammography on preoperative
patients (Optische Mammographie an präoperativen Patientinnen). Akt Radiol 1998; 8: 31–33.
Gros C. M., Quenneville Y., Hummel Y. J.: Diaphanologie mammaire. Radiol Electrol Med Nucl 1972;
53: 297–306.
Grosenick D., Wabnitz H., Rinneberg H., Moesta K. T., Schlag P. M.: Development of a time-domain
optical mammograph and first in vivo applications. Appl Opt 1999; 38: 2927–2943.
Grosenick D., Wabnitz H., Moesta K. T., Mucke J., Möller M., Stroszczynski C., et al.: Concentration
and oxygen saturation of haemoglobin of 50 breast tumours determined by time-domain optical
mammography. Phys Med Biol 2004; 49: 1165–1181.
Grosenick D., Hagen A., Steinkellner O., Poellinger A., Burock S., Schlag P. M., et al.: A multichannel
time-domain scanning fluorescence mammograph: performance assessment and first in vivo
results. Rev Sci Instrum 2011; 82: 024302.
Hagen A., Grosenick D., Macdonald R., Rinneberg H., Burock S., Warnick P., et al.: Late-fluorescence
mammography assesses tumor capillary permeability and differentiates malignant from benign
lesions. Opt Express 2009; 17: 17016–17033.
Ishimaru A.: Wave propagation and scattering in random media. New York: Academic Press, 1978.
Ishimaru A.: Diffusion of light in turbid media. Appl Opt 1989; 28: 2210–2215.
Jacques S. L., Wang L.: Monte Carlo modeling of light transport in tissues. In: Welch A. J., van Gemert
M. J. C. (Eds.): Optical-thermal response of laser-irradiated tissue. New York: Plenum Press,
1995: 73–100.
Jobsis F. F.: Noninvasive infrared monitoring of cerebral and myocardial sufficiency and circulatory
parameters. Science 1977; 198: 1264–1267.
Patterson M. S., Chance B., Wilson B. C.: Time resolved reflectance and transmittance for the
non-invasive measurement of tissue optical properties. Appl Opt 1989; 28: 2331–2336.
Pöllinger A., Burock S., Grosenick D., Hagen A., Diekmann L., Engelken F., et al.: Breast cancer: early-
and late-fluorescence near-infrared imaging with indocyanine green – a preliminary study.
Radiology 2011; 258: 409–416.
Scheel A. K., Krause A., Rheinbaben I. M., Metzger G., Rost H., Tresp V., Mayer P., et al.: Assessment
of proximal finger joint inflammation in patients with rheumatoid arthritis, using a novel
laser-based imaging technique. Arthritis Rheum 2002; 46: 1177–1184.
Taroni P., Danesini G., Torricelli A., Pifferi A., Spinelli L., Cubeddu R.: Clinical trial of time-resolved
scanning optical mammography at 4 wavelengths between 683 and 975 nm. J Biomed Opt
2004; 9: 464–473.
Taroni P., Torricelli A., Spinelli L., Pifferi A., Arpaia F., Danesini G., et al.: Time-resolved optical
mammography between 637 and 985 nm: clinical study on the detection and identification of
breast lesions. Phys Med Biol 2005; 50: 2469–2488.
Tuchin V.: Tissue Optics: Light scattering methods and instruments for medical diagnosis, 2nd ed.
Bellingham: SPIE Press, 2007: 158.
Villringer A., Chance B.: Non-invasive optical spectroscopy and imaging of human brain function.
Trends Neurosci 1997; 20: 435–442.
Weissleder R.: Molecular imaging: Exploring the next frontier. Radiology 1999; 212: 609–614.
15 Diffuse optische Bildgebung | 517

Weiterführende Literatur
Boas D., Brooks D. H., Miller E. L., DiMarzio C. A., Kilmer M., Gaudette R. J., Zhang Q.: Imaging the
body with diffuse optical tomography. IEEE Signal Processing Magazine 2001; 18: 57–75.
Gibson A. P., Hebden J. C., Arridge S. R.: Recent advances in diffuse optical imaging. Phys Med Biol
2005; 50: R1–43.
Jiang H.: Diffuse optical tomography: principles and applications. Boca Raton: CRC Press, 2011.
Martelli F., Zaccanti G.: Light propagation through biological tissue and other diffusive media:
theory, solutions, and software. Bellingham: SPIE Press, 2009.
Tuchin V.: Handbook of optical biomedical diagnostics. Bellingham: SPIE Press, 2002.
Wang L., Wu H.: Biomedical optics: principles and imaging. Hoboken: Wiley-Interscience, 2007.

Testfragen
1. Was versteht man unter dem gewebeoptischen Fenster?
2. Welche physikalischen Eigenschaften von Gewebe sind Parameter in der optischen Diffusions-
gleichung? Wie lassen sich diese Parameter experimentell bestimmen?
3. Wodurch unterscheiden sich der Streukoeffizient und der reduzierte Streukoeffizient?
4. Bei der Messung der Photonenlaufzeiten zwischen einer punktförmigen Photonenquelle an der
Oberseite einer 3 cm dicken Gewebeschicht und einer um 3 cm verschobenen Detektorfaser (vgl.
󳶳 Abb. 15.2 links) werde ein Mittelwert von 2 ns bestimmt. Welche Weglänge haben die Photonen
im Mittel im Gewebe zurückgelegt, wenn die Lichtgeschwindigkeit im Medium mit 214 286 km/s
angenommen wird (Brechungsindex des Gewebes 1,4)?
5. Erläutern Sie das Prinzip der Tiefenauflösung bei der optischen Tomosynthese.
Thorsten M. Buzug, Cila Herman
16 Medizinische Infrarot-Bildgebung

16.1 Einleitung | 520


16.2 Systemdesign | 522
16.3 Infrarot-Physik | 525
16.4 IR-Bildgebung bei medizinischen Anwendungen | 527
16.5 Grenzen von IR-Bildgebung bei medizinischen Anwendungen | 530

Zusammenfassung: Infrarot-Thermographie wird in der Wissenschaft, im Ingenieur-


wesen und in der Industrie weitläufig genutzt. Über ihre erste Anwendung in der Medi-
zin wurde bereits vor über fünf Jahrzehnten berichtet. Bis vor Kurzem war die Anwen-
dung von Infrarot-Bildgebung in der Diagnostik begrenzt, hauptsächlich aufgrund der
fehlenden hohen Empfindlichkeit und räumlichen Auflösung der Detektoren sowie ei-
nes Mangels an schnellen und komfortabel zu nutzenden Infrarot-Kameras. Da Wärme
ein Nebenprodukt des Stoffwechsels ist, können Abweichungen von der Normaltem-
peratur ein Anzeichen für pathologische Prozesse sein.

Abstract: Infrared Imaging is widely used in science, engineering, and industrial


processes, and applications in medicine have already been reported more than five
decades ago. However, until recently, applications in medical diagnostics were lim-
ited due to the low sensitivity and spatial resolution of available detectors as well
as the lack of fast and easy-to-use infrared cameras. Since heat is a byproduct of
the metabolism, deviations from the normal temperature may be an indication of
pathological processes.
520 | Thorsten M. Buzug, Cila Herman

16.1 Einleitung
Wärme ist ein Nebenprodukt des Stoffwechsels. Thermoregulation ist der Mechanis-
mus, der die Temperatur des menschlichen Körpers innerhalb der erwünschten, re-
lativ engen Grenzen hält und auf Veränderungen der Außentemperatur sowie ande-
re äußere und innere Abweichungen mit einer Kontrolle der Wärmeproduktionsraten
und des Wärmeverlustes reagiert. Interne Abweichungen der Wärmeproduktion oder
der Körpertemperatur können u. a. durch Faktoren wie Krankheit, physische Aktivi-
tät, mechanischen oder chemischen Stress verursacht werden.

Thermoregulation: Mechanismus, der die Temperatur des menschlichen Körpers innerhalb der
physiologischen Grenzen hält.

Um die Körpertemperatur auf einem konstanten Niveau zu halten, wird überschüssi-


ge Wärme über Verdunstung, Konvektion, Wärmeleitung und -strahlung freigesetzt.
Die Verdunstung von Schweiß ist eine effektive Methode des Körpers zur Temperatur-
regulation. Ihre Effektivität hängt aber von der Umgebungstemperatur und der relati-
ven Luftfeuchtigkeit ab. Beim Mechanismus der Konvektion wird die Temperaturre-
gelung einerseits über das strömende Blut in den Gefäßen realisiert (erzwungene Kon-
vektion) und andererseits Wärme an eine dünne Luftschicht über der Haut abgegeben,
wobei diese Luftschicht ständig durch Luftbewegung weggetragen wird (freie Konvek-
tion). Wärmeleitung geschieht, wenn ein Objekt physisch angefasst wird. Sie hängt
von dem Temperaturunterschied zwischen der Objekttemperatur und der Hauttempe-
ratur ab. Strahlungskühlung ist eine Funktion der Haut- und der Umwelttemperatur.
Sie wird zum Beispiel erfahrbar, wenn eine Hand in einen Kühlschrank gehalten wird.
Abweichungen der Hauttemperatur können lokalen Veränderungen des Stoff-
wechsels zugeschrieben werden. Diese Abweichungen können normal (z. B. bei
sportlicher Betätigung) oder pathologisch (z. B. bei entzündlichen oder tumorösen
Prozessen) sein. Temperaturen können entweder in direktem Kontakt oder berüh-
rungslos gemessen werden. Mit direktem Kontakt arbeiten Flüssigkeitsthermometer,
Widerstandsthermometer oder Thermoelemente. Berührungslos können bildgeben-
de oder nicht bildgebende Infrarot-Verfahren (IR) sein, wobei punktuell messende
Systeme als IR-Thermometer bekannt sind. Bildgebende IR-Systeme erzeugen zwei-
dimensionale Bilder der Hauttemperatur bzw. der Temperatur von Oberflächen im
Allgemeinen.
Infrarot-Thermographie wird in der Wissenschaft, im Ingenieurwesen und in
der Industrie weitläufig genutzt. Über ihre erste Anwendung in der Medizin wurde
bereits vor über fünf Jahrzehnten berichtet. Bis vor Kurzem war die Anwendung von
Infrarot-Bildgebung in der Diagnostik begrenzt, hauptsächlich aufgrund einer zu ge-
ringen Empfindlichkeit und räumlichen Auflösung sowie eines Mangels an schnell
und komfortabel zu nutzenden Infrarot-Kameras.
16 Medizinische Infrarot-Bildgebung | 521

Die bemerkenswerteste Eigenschaft der IR-Bildgebung ist, dass sie eine der weni-
gen nichtinvasiven und kontaktlosen Modalitäten ist. Um Verdachtsfälle für Infektio-
nen zu detektieren, kommt die IR-Bildgebung immer häufiger bei der Abfertigung von
Fluggästen zum Einsatz. Vor einigen Jahren wurde dies z. B. für potentiell mit SARS
(Severe Acute Respiratory Syndrome) infizierte fiebernde Patienten angewendet, die
über ihr Gesichtstemperatur-Profil innerhalb einer sehr großen Anzahl von Personen
im Sicherheitsbereich eines Flughafens identifiziert werden sollten.
Seit der Erfindung von IR-Systemen wurde versucht, diese im medizinischen Be-
reich als eine funktionelle bildgebende Modalität (Infrared Functional Imaging, IRFI)
einzusetzen, um pathologisch vermehrten Stoffwechsel anhand seiner Temperatur-
signatur abzubilden. Insbesondere bei einigen Krebsarten folgt die Entdeckung von
Tumoren dem thermographischen Paradigma, dass das starke Wachstum bösartiger
Tumoren von einer Beschleunigung des Stoffwechsels begleitet wird, was zu einer auf-
fälligen Temperatursignatur führt.
In den vergangenen 20 bis 30 Jahren hat die Zahl der Patienten, bei denen Haut-
krebs diagnostiziert wurde, dramatisch zugenommen. Es gibt jedoch keinen geeig-
neten Weg, um nichtinvasiv zu entscheiden, ob ein Tumor gutartig oder bösartig ist.
Grundsätzlich wird die Diagnose mit der traditionellen ABCD-Regel von Stolz in der
einfachen Dermatoskopie gestellt. Sie basiert auf vier Hauptkriterien oder Läsions-
parametern: Asymmetrien, Grenze (border), Farbe (colour) und Durchmesser, mit ei-
nem semiquantitativen Punktesystem [Furukawa 2004, Holst und Buzug 2011]. Oft-
mals wird diese Methode durch computerisierte Scanning-Methoden verbessert, die
auf polarisierten Auflichtmikroskopen basieren [Schuster und Kolobrodov 2000]. Mit
beiden Methoden muss ein verdächtiger Fleck eine Zeitlang untersucht werden, um
ein vertrauenswürdiges Ergebnis zu erhalten, d. h., die Entwicklung des Flecks ist
wichtig. Dies verfeinert die ABCD- in die ABCDE-Methode [Holst und Buzug 2011].

ABCD-Regel: Regel die die kritischen Parameter von Hautläsionen angibt: Asymmetrie, Grenze
(border), Farbe (colour) und Durchmesser.

Bis heute ist eine invasive histologische Untersuchung der einzige Weg, um eine ein-
deutige Diagnose zu erhalten. Eine hochsensitive IR-Bildgebung könnte das unnötige
Herausschneiden von Gewebe vermeiden und maligne Melanome potentiell zu einem
frühen Zeitpunkt detektieren. Dieser Ansatz basiert auf der Tatsache, dass maligne
Melanome über einen höheren Glukoseverbrauch verfügen, der von einem höheren
Stoffwechselniveau verursacht wird. In Zusammenhang mit dem höheren Energiebe-
darf wird vermutet, dass maligne Melanome eine höhere Temperatur (2. . . 4 K) als die
sie umgebende gesunde Haut aufweisen [Buzug 2011]. Infrarot-Bildgebung besitzt ein
hohes Potential, den Beginn einer Angiogenese zu entdecken, wenn Krebszellen das
erste Mal versuchen, ihre eigene Blutzufuhr zu entwickeln. Dies ist ein notwendiger
Schritt, bevor sie schnell wachsen und metastasieren können. Andere Formen von
522 | Thorsten M. Buzug, Cila Herman

Hautkrebs (z. B. Basaliome) werden sich aufgrund einer Verkapselungsstrategie des


Tumors anders verhalten.
Darüber hinaus kann man hoffen, dass die IR-Bildgebung wichtige diagnostische
Informationen bei Entzündungsprozessen, Arthritis, Rheuma, Kreislaufbeschwer-
den, allen Allergieformen mit Hautsymptomen sowie Verbrennungen, Verbrühungen
und Frostbeulen liefert und den Erfolg von Hauttransplantationen überwachen kann.
Es gibt Beispiele, in denen die IR-Bildgebung auch für qualitative Messungen in der
Schmerzdiagnostik angewandt wird. Ein Überblick über die allgemeinen Ursachen für
Schwankungen der Hauttemperatur, die mit IR-Kamerasystemen gemessen werden
können, kann in [Furukawa 2004] gefunden werden.

16.2 Systemdesign
Basierend auf der spektralen Durchlässigkeit unserer Atmosphäre, werden sieben
Spektralregionen eingeteilt, von denen vier mit bildgebenden Systemen im Infrarot-
Bereich in Beziehung stehen (󳶳Abb. 16.1). Der ultraviolette und der sichtbare Bereich
enden in etwa bei einer Wellenlänge von 0,7 μm (Bereiche a und b). Der nahe Infrarot-
Bereich (c: NIR) umfasst den Wellenlängenbereich von 0,7 bis 1,1 μm. Bildverstärker-
röhren und Nachtsichtbrillen arbeiten in diesem spektralen Intervall.
Der erste für die IR-Bildgebung wichtige Bereich ist der Kurzwellen-Infrarot-Band-
bereich (d: SWIR – Short Wavelength Infrared Imaging Band), der das Intervall von ca.
1,1 bis 2,5 μm abdeckt. Der zweite infrarote Bandbereich ist der Mittelwellen-Infrarot-
(e: MWIR)-Spektralbereich, der das Intervall von ca. 2,5 bis 7 μm umfasst. Der dritte
infrarote Bandbereich, der Mittelwellen-Infrarot-Spektralbereich(f: LWIR) deckt die
Spektralregion von ca. 7 bis 15 μm ab und der vierte infrarote Bandbereich ist der
Fern-Infrarot-(g: FIR)-Bereich oder der Bereich des sogenannten sehr langwelligen

1,0 a b c d e f g

0,8
Transmission

0,6

0,4

0,2

0,4 0,8 1,2 1,6 2 4 6 8 10 12 14


Wellenlänge/μm

Abb. 16.1: Spektrale Durchlässigkeit der Atmosphäre und Unterteilung der spektralen Bänder (nach
[Holst und Buzug 2011]).
16 Medizinische Infrarot-Bildgebung | 523

Infrarots (VLWIR) bei einer Spektralantwort, die über 15 μm hinausgeht. Die MWIR-
und LWIR-Bandbereiche werden manchmal als erster bzw. zweiter thermisch-bildge-
bender Bandbereich bezeichnet. Die Spektralantwort eines LWIR-Systems kann sich
an irgendeinem Punkt im LWIR-Bandbereich befinden (z. B. 8. . . 14 μm, 7,5. . . 10,5 μm,
8. . . 12 μm etc.).

LWIR-Spektrum: Langwellen-Infrarot-Spektralbereich, umfasst den Wellenlängenbereich von ca.


7 bis 15 μm.

NIR-Spektrum: naher Infrarot-Bereich, umfasst den Wellenlängenbereich von 0,7 bis 1,1 μm.

SWIR-Spektrum: umfasst den Wellenlängenbereich von ca. 1,1 bis 2,5 μm.

Zur Vereinfachung werden Zielregionen im Vergleich zu ihrem Hintergrund als heiß


oder kalt bezeichnet. Für MWIR- und LWIR-Systeme ist der Begriff aber irreführend.
Bildgebende IR-Systeme messen keine Wärme oder Kälte (es sind keine Thermome-
ter), sondern die von einem Objekt ausgehende Strahlung. Der Detektorausgang ist
zunächst nur eine Spannung. Erst nach Kalibrierung repräsentiert ein spezifischer
Spannungspegel einen Temperaturwert. Diese Spannung kann in Pseudofarben
(Falschfarben) abgebildet werden. In Übereinstimmung mit der menschlichen Wahr-
nehmung werden kalte Objekte oft blau und warme Objekte entsprechend rot darge-
stellt. Ob der Ausgang auf einer grauen Skala oder in Pseudofarben dargestellt wird,
ist eine Frage der persönlichen Vorliebe. Pseudofarben erleichtern im Allgemeinen
jedoch die Interpretierbarkeit der IR-Bilder.

16.2.1 Detektoren

Der Infrarot-Detektor ist das Herzstück eines bildgebenden IR-Systems, da er infrarote


Strahlung in ein messbares elektrisches Signal und räumliche Temperaturinformati-
on in zeitliche elektrische Information umwandelt. Die aktuelle Terminologie benennt
Detektoren ganz allgemein als gekühlt oder ungekühlt. Innerhalb dieser Klassen gibt
es sehr viele verschiedene Arten von Detektoren. Frühe bildgebende IR-Systeme ent-
hielten nur einige wenige Detektoren, die Rastermechanismen aus Schwingspiegeln
benötigten, um ein räumliches Bild zu erzeugen [Schuster und Kolobrodov 2000, Bu-
zug 2011]. Heutige Detektorsysteme haben keine beweglichen Teile mehr. Sie bestehen
typischerweise aus Arrays von 320 × 240 oder 640 × 480 Detektoren.

Gekühlte Detektoren
LWIR-Detektoren müssen auf unter 100 K abgekühlt werden. 77 K wird als typische
Temperatur angesehen, weil sie gut mit flüssigem Stickstoff erreicht werden kann.
Viele MWIR-Detektoren funktionieren schon bei etwa 200 K. Diese Temperatur kann
524 | Thorsten M. Buzug, Cila Herman

leicht mit einem thermoelektrischen Kühler (TEC), sogenannten Peltierelementen, er-


reicht werden. Thermoelektrische Kühler haben eine sehr lange Lebensdauer, wohin-
gegen mechanische Kühler, z. B. Stirling-Maschinen, im Laufe der Zeit degradieren.

Peltier-Element: thermoelektrischer Wandler, der bei Durchfluss von Strom eine Temperaturdif-
ferenz oder bei Temperaturdifferenz einen Stromfluss generiert. Durch Umkehr der Stromrichtung
können Peltier-Elemente sowohl kühlen als auch heizen.

InSb ist ein MWIR-Detektormaterial mit hohem Quantenwirkungsgrad, das die PtSi-
Detektoren bereits weitestgehend abgelöst hat. Darüber hinaus findet HgCdTe breite
Anwendung. Genau genommen handelt es sich dabei um die Mischung Hg1−X CdX Te.
Durch die Veränderung des Verhältnisses zwischen Cadmium und Quecksilber kann
die spektrale Antwort des Detektors auf den MWIR- oder LWIR-Bereich zugeschnit-
ten werden. Am beliebtesten ist der LWIR-Detektor mit dem Maximum der spektralen
Antwort bei 12 μm. Der QWIP-Quantendetektor (Quantum Well Infrared Photodetector,
QWIP) basiert auf ausgereifter GaAs Wachstumstechnologie [Gunapala und Bandara
1999, Holst 2008, Buzug 2011]. Die spektrale Antwort kann bei diesem Detektortyp im
Intervall von 3 bis 19 μm auf die Anforderungen zugeschnitten werden. Die Ansprech-
empfindlichkeit und das Rauschen sind temperatursensitiv, so dass QWIP-Detektoren
normalerweise auf weniger als 60 K abgekühlt werden.

Ungekühlte Detektoren
Mikrobolometer mit einer Vanadiumoxid- oder 𝛼-Si-Beschichtung arbeiten in der Re-
gel bei Zimmertemperatur und werden deshalb als ungekühlte Detektoren bezeichnet.
Obwohl ungekühlt, können diese Geräte über einen TEC-Kühler verfügen, um die De-
tektortemperatur zu stabilisieren. Ungekühlte Geräte sind in der Regel leichter und
kleiner als gekühlte Kameras. Da ihr Energieverbrauch sehr gering ist, eignen sie sich
als batteriebetriebene Handgeräte. Allerdings verfügen ungekühlte Detektoren im All-
gemeinen über eine sehr viel geringere Empfindlichkeit als gekühlte Detektoren.

16.2.2 Leistungsmessung

Der Begriff der thermischen Empfindlichkeit bezieht sich auf die kleinste erkennba-
re Temperaturdifferenz. Sie hängt von der Lichtstärke des optischen Systems, der
Detektorempfindlichkeit sowie dem Systemrauschen ab. Eine Labormessung der
thermischen Empfindlichkeit wird rauschäquivalente Differenztemperatur (Noise
Equivalent Differential Temperature, NEDT) genannt. Manchmal wird sie auch als
NETD (Noise Equivalent Temperature Difference) oder NET (Noise Equivalent Tempera-
ture) bezeichnet. Im Allgemeinen beträgt die NEDT für gekühlte Detektoren weniger
als 10 mK, für ungekühlte Sensoren kann sie aber auch bis zu 100 mK betragen.
16 Medizinische Infrarot-Bildgebung | 525

Die räumliche Auflösung ergibt wertvolle Informationen bezüglich des kleinsten


erkennbaren Details. Es wird normalerweise durch das momentane Sichtfeld (Instan-
taneous Field-of-View, IFOV) spezifiziert und auch Detektor-Öffnungswinkel (Detector
Angular Subtense, DAS) genannt,

d
IFOV = DAS = (16.1)
f

wobei d die lineare Ausdehnung des Detektors und f die Brennweite des Systems ist.
Das Sichtfeld (Field-of-View, FOV) ist das IFOV multipliziert mit der Anzahl der Detek-
toren. Die kleinste auflösbare Temperatur setzt sich aus der thermischen Empfindlich-
keit und der räumlichen Auflösung zusammen [Holst und Buzug 2011].

16.3 Infrarot-Physik
Eine umfassende Behandlung der Gleichungen, die die Infrarotabstrahlung und
-messung behandeln würde, wäre aufgrund der Komplexität zu umfangreich für
dieses Kapitel. Daher sollen hier einige Vereinfachungen vorausgeschickt werden. Zu-
nächst wird angenommen, dass die Haut, von der wir die Temperatur messen wollen,
im IR-Bereich isotrop ausstrahlt und das Spektrum dem Planckschen Strahlungs-
gesetz des idealen schwarzen Körpers folgt. Weiterhin kann in der realen Situation
die Reflektion von Objekten die Zielsignatur maßgeblich beeinflussen. Hier soll aber
angenommen werden, dass die Hautreflektion im Infrarotbereich zu vernachlässigen
ist.

16.3.1 Das Plancksche Gesetz des schwarzen Körpers

Das Plancksche Strahlungsgesetz

2𝜋hc2 1
𝜌(𝜆, T)d𝜆 = d𝜆 (16.2)
𝜆5 e 𝜆kT
hc
−1
beschreibt den Verlauf der spektralen Energiedichte 𝜌(𝜆, T) und damit den Zusam-
menhang zwischen der Temperatur T und der Wellenlänge 𝜆 der sogenannten
Schwarzkörperstrahlung (dabei ist h die Plancksche Wirkungskonstante, k die
Boltzmann-Konstante und c die Lichtgeschwindigkeit). Ein idealer Schwarzer Kör-
per ist dadurch charakterisiert, dass er alle auf ihn einfallende Strahlungsenergie
komplett absorbiert und, als Konsequenz aus dem Kirchhoffschen Gesetz, dass er
gleichzeitig seine eigene Wärmeenergie ideal abstrahlt. Kirchhoffs Gesetz besagt
kurz, dass Körper, die Strahlung gut absorbieren, gleichzeitig Strahlung auch gut
emittieren (nicht reflektieren) und umgekehrt. Dies wird durch 𝛼(T) = 𝜀(T) ausge-
drückt, dabei ist 𝛼 das Absorptionsvermögen und 𝜀 das Emissionsvermögen eines
526 | Thorsten M. Buzug, Cila Herman

beliebigen Materials bei einer Temperatur T. Für einen idealen Schwarzen Körper gilt
𝛼(T) = 𝜀(T) = 1. Natürlich sind reale Körper eher „graue“ Körper mit einem Emissions-
vermögen, das kleiner als Eins ist (0 < 𝜀(𝜆, T) < 1) und darüber hinaus typischerweise
mit der Wellenlänge variiert. Wie oben beschrieben, soll aber das Emissionsvermögen
der Haut hier als ideal angenommen werden.

Schwarzer Körper: Körper, der alle auf ihn einfallende Strahlungsenergie komplett absorbiert.

In der 󳶳Abb. 16.2 (links) ist die spektrale Energiedichte 𝜌(𝜆, T) für verschiedene Tem-
peraturen dargestellt. Daraus lassen sich einige Schlüsse ziehen, die auch für die Aus-
wahl des Wellenlängenbereichs Bedeutung haben. Für jede Temperatur nimmt die da-
zugehörige Kurve der Energiedichte jeweils ein eindeutiges, ausgeprägtes Maximum
bei einer bestimmten Wellenlänge ein. Je höher die Temperatur ist, desto kürzer ist die
korrespondierende Wellenlänge 𝜆 max . Das entsprechende Wiensche Verschiebungs-
gesetz
T𝜆 max = 2.898 mm K (16.3)

besagt, dass es einen reziprok-proportionalen Zusammenhang zwischen der Wel-


lenlänge der maximalen Emission eines Schwarzen Körpers und seiner Temperatur
gibt. In 󳶳Abb. 16.2 (Mitte) ist diese Wellenlängenverschiebung in einer doppelloga-
rithmischen Grafik von 𝜌(𝜆, T) aufgetragen gegen 𝜆 dargestellt. Mit dem Stefan–
Boltzmann-Gesetz, das auch T 4 -Gesetz genannt wird, ist man in der Lage, die ge-
samte Strahlungsleistung des Körpers zu berechnen. Die Tatsache, dass die gesamte
Strahlungsleistung eine Funktion der Oberflächentemperatur des zu untersuchenden
Körpers ist, macht die Ermittlung und Darstellung der räumlichen Temperaturver-
teilung mit einer Thermokamera überhaupt erst möglich. Das Stefan–Boltzmann-
Gesetz lautet:

∫ 𝜀(𝜆, T)𝜌(𝜆, T)d𝜆 ∝ T 4 . (16.4)


0

Es repräsentiert im Wesentlichen die Fläche unter der Planck-Kurve.


Aufgrund des Kirchhoffschen Gesetzes hängt die von einer Thermokamera ge-
messene Strahlungsleistung nicht allein von der Körpertemperatur ab, sondern sie
ist auch eine Funktion des Emissionsvermögens 𝜀(𝜆, T). Die differentielle spektrale
Strahlungsdichte (hier aufgetragen für eine Temperatur von 37°C) zeigt, dass spezi-
ell der langwellige IR-Bereich (LWIR) für Temperaturmessungen beim Menschen sehr
gut geeignet ist.
16 Medizinische Infrarot-Bildgebung | 527

0,7 δρ(λ,T )
spektrale Dichte in ρ(λ)/a. u.

spektrale Dichte in ρ(λ)/a. u.

differentielle Dichte in /a. u.


330 K 1000 K 0,8 δT
0,6
102
0,5
0,6
0,4 310 K 500 K

0,3 0,4
100 300 K LWIR 31
280 K 0
0,2 K
0,2
0,1
0,0 10–2 –6 0,0
0 10 20 30 40 50 10 10–5 10–4 0 4 8 12 16
Wellenlänge in λ/μm Wellenlänge in λ/μm Wellenlänge in λ/μm

Abb. 16.2: Plancksches Strahlungsgesetz. Links: Die Fläche unter den jeweiligen Kurven repräsen-
tiert das Stefan–Boltzmann-Gesetz und stellt die Gesamtleistung dar. In rot ist die Kurve für 37°C
dargestellt. Mitte: Die spektrale Energiedichte ist gegen die Wellenlänge aufgetragen, so dass sich
in der doppellogarithmischen Darstellung das Wiensche Verschiebungsgesetz als Gerade durch
die Maxima der Kurvenschar ergibt. Rechts: differentielle spektrale Strahlungsdichte für 37°C (nach
[Buzug 2011]).

16.3.2 Kameraformel

Wenn man ein ideales Objekt vor sich hat, dann liefert die Kameraformel des Systems
die Ausgangsspannung
RD (𝜆) AD
VSYS = G ∫ 𝜌 (𝜆, T) d𝜆 (16.5)
4F 2
wobei G die elektronische Verstärkung des Systems, RD (𝜆) die spektrale Antwort des
Systems, AD die Detektorfläche und F die Brennweite geteilt durch den Aperturdurch-
messer ist. Die Grenzen der Integration hängen von der spektralen Empfindlichkeit
des Systems ab (z. B. MWIR oder LWIR). In praktischen Anwendungen ist der Unter-
schied zwischen dem Zielobjekt – also einer Hautveränderung – und seinem unmit-
telbaren Hintergrund entscheidend:
RD (𝜆) AD
𝛥VSYS = G ∫ [𝜌 (𝜆, TZiel ) − 𝜌 (𝜆, THintergrund )] d𝜆 (16.6)
4F 2
Mithilfe einer Reihenentwicklung kann man in einer Abschätzung zeigen, dass

𝛥VSYS ≈ kCAL 𝛥T (16.7)

die Differenz in der Ausgangsspannung also proportional zur gewünschten Tempera-


turdifferenz 𝛥T ist [Holst und Buzug 2011].

16.4 IR-Bildgebung bei medizinischen Anwendungen


Der Grund dafür, dass die idealisierten Annahmen des vorhergehenden Kapitels nicht
zu falschen Ergebnissen führen, liegt darin, dass der Emissionskoeffizient unabhän-
gig von der Hautfarbe im IR tatsächlich etwa bei 𝜀 ≈ 0,98 ± 0,01 liegt [Dössel 2000].
528 | Thorsten M. Buzug, Cila Herman

Zu beachten ist, dass das menschliche Haar zwar nicht den Emissionsgrad der Haut
beeinflusst, aber als Isolator fungiert, der präzise Messungen der Hauttemperatur ver-
hindert. Die Reflexionseffekte verursachen nur einen kleinen zu vernachlässigenden
Fehler bei der Temperaturmessung. Während quantitative Bildgebung eigentlich im-
mer erwünscht ist, können qualitative Differenzen aber oftmals ausreichend sein. In
der aktiven IR-Bildgebung, die in diesem Kapitel beschrieben wird, nimmt man immer
ein Basisbild auf, auf das sich dann spätere Bilder beziehen. Im Rahmen einer Sub-
traktionsbildgebung können so auch kleine Veränderungen der Temperatur in ihrer
Dynamik sichtbar gemacht werden. Diese Art der IR-Bildgebung wird als differenti-
elle infrarote Thermographie bezeichnet (DIT).
IR-Bildgebung kann entweder passiv (statische Methode) oder aktiv (dynamisch)
durchgeführt werden. Passive (statische) IR-Bildgebung beinhaltet die Visualisie-
rung der emittierten Strahlung in der infraroten Region des elektromagnetischen
Spektrums. Aktive (dynamische) IR-Bildgebung beinhaltet auf der anderen Seite die
Anwendung einer externen Anregung wie Erwärmung oder Abkühlung, um die re-
levanten thermischen Kontraste, die auf der Oberfläche wahrgenommen werden, zu
induzieren und/oder zu verstärken [Buzug et al. 2006 a, b].
Diese Technik basiert auf folgendem Prinzip: Wenn eine Oberfläche erwärmt oder
abgekühlt wird, führen Abweichungen der thermischen Eigenschaften einer Struktur
unterhalb der Oberfläche zu identifizierbaren Temperaturkonturen auf der Oberflä-
che, die von den bei passiver IR-Bildgebung beobachteten Konturen innerhalb eines
Steady-State-Zustands abweichen. Diese Konturen sind charakteristisch für die ther-
malen Eigenschaften der Basisstruktur sowie Störungen unterhalb der Oberfläche und
können, wenn sie mit einem geeigneten thermischen Modell des Systems verbunden
werden, Informationen zur metabolischen Wärmeproduktion, zur Form, Tiefe oder
anderen Eigenschaften der Störung liefern.
Als Beispiel soll eine wichtige Applikation im Bereich der Charakterisierung
von Hautkrebs im Folgenden erläutert werden. In zahlreichen Laboratorien und
Forschungszentren weltweit werden neue Techniken zur Hautkrebs-Früherkennung
entwickelt. Nichtinvasive In-vivo-Diagnoseinstrumente sind dabei von besonderem
Interesse. Verschiedene bildgebende Techniken wurden vorgeschlagen, um die Ge-
nauigkeit bei der Differenzierung zwischen gutartigen und bösartigen melanozytären
Hautläsionen zu verbessern.
Diese beinhalten:
1. digitale Fotografie,
2. Dermatoskopie,
3. multispektrale bildgebende Systeme,
4. laserbasierte Systeme, wie konfokale Scanning-Laser-Mikroskopie (CSLM), Laser-
Doppler-Perfusions-Bildgebung und optische Kohärenztomographie (OCT),
5. Ultraschall und
6. magnetische Resonanzbildgebung (MRI).
16 Medizinische Infrarot-Bildgebung | 529

20 30

40
25
60

80 20

100
15
120

140 10
20 40 60 80 100 120

(a) (b) (c)

Abb. 16.3: (a) Weißlichtfoto mit charakteristischen Punkten (quadratische Schablone und Läsions-
zentrum), das auf die Infrarot-Bilder übertragen wird. Ein Landmarkendetektions-Algorithmus wird
zunächst auf das Weißlicht-Foto angewendet, um die Ecken des Markers zu lokalisieren. Über die
bekannte Kalibrierung, das FOV und die Auflösung können dieselben Punkte dann im Referenz-IR-
Bild (b) identifiziert werden. Diese Punkte werden anschließend als Landmarken in einem quadrati-
schen Bewegungsmodell zur Bewegungskorrektur der IR-Bildsequenz während der Erholungsphase
genutzt, und auf diese Weise unfreiwillige Bewegungen des Patienten kompensiert (c).

Während die Implementierung von Bildgebung in der Dermatologie zu Verbesserun-


gen der Erkennung von Melanomen geführt hat, sind in vivo bildgebende Instrumen-
te, die in der klinischen Praxis genutzt werden (wie digitale Fotografie, Abbildung der
gesamten Haut oder Bildgebung individueller Läsionen und Dermatoskopie) hochgra-
dig subjektiv. Darüber hinaus mangelt es ihnen an umfassend einsetzbaren Standards
oder quantitativen Maßen. Wenn man die große Anzahl der jedes Jahr diagnostizierten
Patienten und die Beschränkungen beim schnellen Zugang zu spezialisierter Hilfe in
Betracht zieht, ist die Entwicklung objektiver und quantitativer Diagnoseinstrumente,
die in Allgemeinkliniken und sogar der Telemedizin zur Unterstützung der Diagnose
genutzt werden, essentiell.
Gegenwärtig sind keine verlässlichen quantitativen, nichtinvasiven Methoden
vorhanden, die das bösartige Potential pigmentierter Veränderungen menschlicher
Haut genau bestimmen können. Das übergreifende Ziel der nachfolgend beschriebe-
nen Forschung ist es, Infrarot-Bildgebung kombiniert mit numerischen und analy-
tischen Methoden und Bildverarbeitung als einfaches, nichtinvasives und schnelles
Mess- und Diagnoseinstrument für die Erkennung von Hautkrebs anzuwenden.
Die in 󳶳Abb. 16.3 vorgestellte Messung beruht auf dem Effekt, dass bösartige pig-
mentierte Läsionen mit erhöhtem Proliferationspotential quantifizierbare Mengen an
Hitze produzieren und über die Fähigkeit verfügen, sich schneller als die umgeben-
de normale Haut wieder aufzuwärmen. Auf diese Weise stellen sie einen Marker für
Melanom-Läsionen (versus nichtprofilierende Naevi) dar.
Im Fall eines bösartigen Melanoms lag der Temperaturunterschied zwischen der
Läsion und dem umgebenden Gewebe bei 2°C nach 2 s. Allerdings gab es keine signifi-
kanten Unterschiede bei Gleichgewichtsbedingungen. Dies weist daraufhin, dass der
statische Temperaturunterschied zu klein war, um von den Instrumenten erkannt zu
530 | Thorsten M. Buzug, Cila Herman

werden. Bei der Verwendung der Kühlungsmethode vergrößerte sich der Temperatur-
unterschied zwischen der Läsion und dem umgebenden gesunden Gewebe.
Der beschriebene Ansatz bietet zahlreiche Vorteile vor konkurrierenden Metho-
den, darunter sein objektiver und quantitativer Charakter bei der Beschreibung des
bösartigen Potentials von Hautläsionen mit einer einfachen quantitativen Skala, und
erfordert keinen ausgebildeten Radiologen für die Interpretation der Bilder. Die Mes-
sung ist eine relative Messung in dem Sinne, dass sie die dynamische thermische
Reaktion der Läsion des Patienten und des gesunden Gewebes desselben Patienten
anstelle der Reaktion verschiedener Individuen vergleicht. Auf diese Weise wird der
Einfluss individueller Abweichungen der Hautgewebeeigenschaften beseitigt. Weite-
re Informationen über die Methode und die im vorliegenden Abschnitt präsentierten
Ergebnissen sind in der weiterführenden Literatur zu finden [Herman und Pirtini Ce-
tingul 2011, Pirtini Cetingul und Herman 2010, 2011 a, b, Pirtini Cetingul et al. 2010].

16.5 Grenzen von IR-Bildgebung bei medizinischen


Anwendungen
Während die physikalischen Grundsätze infraroter Bildgebung klar sind, gibt es bei
medizinischen Anwendungen thermographischer Bildgebung eine Reihe von Proble-
men. Daher werden typische Fehlerquellen bei der diagnostischen Bildgebung im Fol-
genden kurz dargestellt.
– Der Prozess der menschlichen Thermoregulation ist sehr komplex. Selbst die ver-
einfachte Beschreibung des Prozesses durch die Gleichung von Pennes [1948]
𝜕T
𝜌c = ∇ ⋅ (k∇T) + cb wm (T)𝜌b (Ta − T) + Qm + P(z, t)
𝜕t
die bereits einen Perfusions- und Metabolismusterm besitzt, stellt ein schlecht ge-
stelltes mathematisches Problem dar. 𝜌: Dichte, c: spezifische Wärme, k: thermi-
sche Leitfähigkeit von Gewebe, cb : spezifische Wärme von Blut, 𝜌b : Dichte von
Blut, T: lokale Gewebetemperatur, Ta : Referenztemperatur (arterielles Blut), t:
Zeit, Qm : metabolische Wärmeproduktion pro Volumen und P(z, t): Wärme, die
pro Volumen eingelagert wird. wm (T) ist eine Funktion, die bei temperaturabhän-
giger Perfusion zum Tragen kommt.
– Es besteht eine patientenabhängige Variabilität des thermoregulativen Prozesses,
bedingt durch individuell unterschiedliche Zeitkonstanten.
– Es können Ungenauigkeiten bei der spektralen Spezifikation und Auflösung der
Infrarotkamera vorhanden sein.
– Es gibt keine Definition eines Standards bei aktiver Thermographie bezüglich der
Methodologie thermischer Anregung.
– Die thermische Signatur bei Hautkrebs besitzt eine Unsicherheit in Bezug auf die
potentielle Änderung des Emissionskoeffizienten verdächtiger Hautveränderun-
gen bei Thermoregulation.
16 Medizinische Infrarot-Bildgebung | 531

– Es wird nur die Oberflächentemperatur abgebildet.


– Die Abhängigkeit der thermoregulativen Zeitkonstanten von der Menge der zuge-
führten Energie bei aktiver Thermographie ist noch unbekannt.
– Die Reflektion der Hintergrundstrahlung kann stören.
– Die Akklimatisierung von Patienten vor der Untersuchung kann ungenügend sein
(patienteninduzierte Unsicherheit, z. B. der Zeitpunkt der letzten warmen Mahl-
zeit des Patienten, sowie umgebungsinduziert, z. B. instabile Thermoregulierung
des Untersuchungsraums etc.).

Nicht zuletzt muss man sich immer wieder ins Gedächtnis zurückrufen, dass nur die
Temperaturverteilung auf der Hautoberfläche abgebildet werden kann, denn die IR-
Bildgebung dringt natürlich nicht in den Körper ein. Eine Diskussion der technischen
Schwierigkeiten bei der medizinischen IR-Bildgebung findet sich in [Nowakowski
2004]. Im Übrigen soll an dieser Stelle darauf hingewiesen werden, dass die Mindest-
anforderungen für radiometrisch messende Wärmebildgeräte in Deutschland durch
die Physikalisch-Technische Bundesanstalt festgelegt werden [Hutten 1992].

Quellenverzeichnis
Buzug T. M.: Infrarot-Bildgebung. In: Medizintechnik. Berlin: Springer, 2011, 403–408.
Buzug T. M., Schumann S., Pfaffmann L., Reinhold U., Ruhlmann J.: 28th IEEE EMBC., New York,
2006a, 2766–2769.
Buzug T. M., Schumann S., Pfaffmann L., Reinhold U., Ruhlmann J.: Proc. 8th IASTED Conference on
SIGNAL AND IMAGE PROCESSING (SIP 2006). Honolulu: ACTA Press, 2006b, 313–322.
Dössel O.: Bildgebende Verfahren in der Medizin. Berlin: Springer, 2000.
Furukawa T.: Biological Imaging and Sensing. Berlin: Springer, 2004.
Gunapala S. D., Bandara S. V.: Quantum Well Infrared Photodetector (QWIP) Focal Plane Array (FPA).
Semiconductors and Semimetals 1999; 62: 197.
Holst G. C., Buzug T. M.: Medical Infrared Imaging. In: Handbook of Medical Technology. Berlin:
Springer, 2011: 369–378.
Holst G. C.: Testing and Evaluating of Infrared Imaging Systems, 3rd ed. Winter Park: JCD Publishing,
2008.
Pennes H. H.: Analysis of tissue and arterial blood temperatures in the resting human forearm.
Journal of Applied Physiology 1948; 1 (2): 93.
Schuster N., Kolobrodov V. G.: Infrarotthermographie. Weinheim: Wiley-VCH, 2000.

Weiterführende Literatur
Herman C., Pirtini Cetingul M.: Quantitative visualization and detection of skin cancer using dynamic
thermal imaging. J Vis Exp 2011; 51: e2679.
Pirtini Cetingul M., Alani R. M., Herman C.: Quantitative evaluation of skin lesions using transient
thermal imaging, IHTC14-22465 Proc International Heat Transfer Conference, IHTC14, August
8–13, 2010, Washington, DC, USA.
532 | Thorsten M. Buzug, Cila Herman

Pirtini Cetingul M., Herman C.: Heat transfer model of skin tissue for the detection of lesions:
sensitivity analysis. Phys Med Biol 2010; 55: 5933–5951.
Pirtini Cetingul M., Herman C.: Quantification of the thermal signature of a melanoma lesion. Int J
Thermal Sciences 2011a; 50: 421–431.
Pirtini Cetingul M., Herman C.: The assessment of melanoma risk using the dynamic infrared
imaging technique. J Thermal Science and Engineering Applications 2011b; 3: 031006–031009.
Hutten H.: Biomedizinische Technik, Band 1. Berlin: Springer, 1992.
Nowakowski A. Z.: Limitations of active dynamic thermography in medical diagnostics. Proceedings
of the 26th Annual International Conference of the IEEE EMBS 2004; 1179.

Testfragen
1. In welchem Wellenlängenband ist die größte Empfindlichkeit für Messungen der Körperoberflä-
chentemperatur des Menschen zu erwarten?
2. Welchen Zusammenhang beschreibt das Stefan–Boltzmann-Gesetz und welchen das Wiensche
Verschiebungsgesetz? Zeichnen Sie die Kurvenschaar des Planckschen Strahlungsgesetzes
für unterschiedliche Temperaturen und erläutern Sie hieran das Stefan–Boltzmann- und das
Wiensche Verschiebungsgesetz.
3. Wie definiert die Physik einen idealen Schwarzen Körper und womit werden Unterschiede zwi-
schen einem idealen Schwarzen Körper und einem realen Körper berücksichtigt?
4. Welche Detektortypen gibt es für die Messung von IR-Strahlung?
5. Welche klinischen IR-Applikationen sind sinnvoll und welche nicht?
6. Was beschreibt die Gleichung von Pennes?
Marko Helbig
17 Mikrowellen-, Ultrabreitband- und
THz-Bildgebung

17.1 Einführung | 534


17.2 Aktive Mikrowellen-Bildgebung | 538
17.3 Aktueller Stand in Forschung und Entwicklung | 541

Zusammenfassung: Medizinische Bildgebung auf der Basis von Mikrowellen (insbe-


sondere Ultrabreitband UWB) und Terahertzwellen sind Forschungsgebiete, die auf-
grund der nichtionisierenden Strahlung und der spezifischen Sensitivität bzgl. Wasser
zunehmend an Bedeutung gewinnen. Die vergleichsweise geringe Auflösung (Mikro-
wellen) bzw. die geringe Eindringtiefe (THz) erschweren ihren Einsatz. Anwendungen
des Mikrowellen-Imagings konzentrieren sich vorrangig auf gut durchdringbare Ge-
webe (Brust, Knochen) und Anwendungen des Terahertz-Imagings auf Gewebsober-
flächen und nahe darunter liegende Areale (Haut, extrahiertes Gewebe, Zahn). Inwie-
weit sie sich in der diagnostischen Praxis einmal durchsetzen werden, bleibt abzuwar-
ten.

Abstract: Medical imaging using microwaves (in particular ultrawideband UWB) and
terahertz waves is becoming increasingly more importance due to their non-ionizing
radiation and the specific sensitivity to water. However, the relatively low resolution
(microwaves) and the low penetration depth (terahertz waves) complicate their usabil-
ity; thus microwave imaging is applied to investigate well penetrable tissues (breast,
bone), while terahertz imaging is focused on surfaces and contiguous tissues (skin,
excised tissue, tooth). The extent to which either method can be established in the
diagnostic practice remains to be seen.
534 | Marko Helbig

17.1 Einführung
17.1.1 Mikrowellen und Ultrabreitbandtechnik in der medizinischen Diagnostik

Den Bereich des elektromagnetischen Spektrums mit Wellenlängen zwischen 1 m und


1 mm (Dezimeterwellen – Millimeterwellen) bezeichnet man als Mikrowellen. Dies
entspricht in Luft bzw. im Vakuum einem Frequenzbereich zwischen etwa 300 MHz
und 300 GHz.

Mikrowellen: elektromagnetische Strahlung im Frequenzbereich zwischen 300 MHz und 300 GHz
(Dezimeterwellen bis Millimeterwellen).

Ihre Eigenschaft, bei relativ geringer Sendeleistung nichtionisierend Materie durch-


dringen zu können, prädestiniert die Mikrowellen für die Sensorik in optisch nicht ein-
sehbaren Bereichen (Sicherheitstechnik, Materialprüfung, Biomedizin). Hintergrund
ist, dass verschiedene Materialien und somit auch Gewebe spezifisch Einfluss (Refle-
xion, Dämpfung) auf die auf sie einwirkenden Mikrowellen nehmen. Die reflektierten
bzw. transmittierten Empfangssignale gestatten Rückschlüsse auf die Zusammenset-
zung der untersuchten Objekte.
Etwa seit Ende der 1990er Jahre wird verstärkt daran gearbeitet, diese Technik
auch in der bildgebenden Diagnostik anzuwenden. Die Motivation hierbei ist, dass
Mikrowellen besonders sensitiv auf Wasser reagieren, denn gegenüber anderen im
Organismus vorkommenden Substanzen besitzt Wasser die größte Permittivität. Ins-
besondere zu Fettgewebe besteht ein hoher dielektrischer Kontrast. Das führte dazu,
dass sich Anwendungsforschungen vorrangig auf die Brust und die Erkennung und
Lokalisierung von Brustkrebs konzentrierten.

Permittivität, (dielektrische Leitfähigkeit, lat. permittere – erlauben, überlassen, durchlassen):


frequenzabhängige Materialkenngröße zur Charakterisierung der Wechselwirkung elektromagne-
tischer Wellen mit Medien, d. h. der Durchlässigkeit des Materials für elektrische Felder. Die rela-
tive Permittivität wird auch Dielektrizitätszahl genannt.

Dielektrischer Kontrast: Relativer Permittivitätsunterschied zwischen aneinander grenzenden Ge-


weben, der sich im Reflexionsfaktor widerspiegelt.

Mikrowellenbildgebung kann prinzipiell passiv oder aktiv erfolgen. Passive Systeme


detektieren die vom Körper ausgesandte Mikrowellenstrahlung. Bei aktiven Syste-
men wird das Untersuchungsobjekt von verschiedenen Positionen aus beleuchtet,
die transmittierten bzw. reflektierten Signale gemessen und daraus eine Verteilung
der dielektrischen Eigenschaften (Mikrowellen-Tomographie) bzw. der Intensität der
reflektierten Strahlung (Radar) berechnet.
17 Mikrowellen-, Ultrabreitband- und THz-Bildgebung | 535

Mikrowellen-Tomographie: iteratives Rekonstruktionsverfahren zur Lösung nichtlinearer, inver-


ser, elektromagnetischer Streuprobleme im Mikrowellenbereich. Das Ergebnis ist ein Mapping
von Permittivität und Leitfähigkeit.

Radar (dt. Funkortung und -abstandsmessung): Detektions- und Ortungsverfahren, wobei Funk-
wellen ausgesendet und reflektierte Signale empfangen und ausgewertet werden.

Der gewonnene Informationsgehalt elektromagnetischer Sensorik steigt mit der Band-


breite der verwendeten Strahlung. Unter dem Begriff Ultrabreitbandtechnik (UWB)
fasst man Technologien zusammen, die einen sehr breiten Frequenzbereich ausnut-
zen – und zwar mindestens 500 MHz oder mindestens 20 % der Mittenfrequenz. Ge-
genüber schmalbandigen Anwendungen bringt dies technologische und systemkon-
zeptionelle Herausforderungen mit sich, die UWB in jüngster Zeit zu einem wachsen-
den und stark beforschten Wissenschaftsgebiet haben werden lassen.

Ultrabreitband: Sammelbegriff von Funktechnologien, die einen sehr breiten Frequenzbereich von
mindestens 500 MHz oder mindestens 20 % der Mittenfrequenz ausnutzen.

17.1.2 Physikalische Grundlagen der Mikrowellen-Bildgebung

Die für das Mikrowellen-Imaging relevante physikalische Größe ist die relative Per-
mittivität 𝜀r (𝜔). Diese Materialeigenschaft beeinflusst die Wechselwirkung elektro-
magnetischer Wellen in Medien und ist komplexwertig und frequenzabhängig:

𝜀r (𝜔) = 𝜀r󸀠 (𝜔) − j𝜀r󸀠󸀠 (𝜔) (17.1)

Der Verlauf von 𝜀r (𝜔) wird durch sogenannte dielektrische Mechanismen (Polarisa-
tionseffekte) bestimmt. Für den Bereich des Mikrowellen-Imagings (0,5. . . 20 GHz) ist
die dipolare Rotationspolarisation (Orientierungspolarisation) von Bedeutung, deren
Einfluss auf den frequenzabhängigen Verlauf der Permittivität mithilfe der Debye-
Beziehung beschrieben werden kann:
𝛥𝜀r 𝜎
𝜀r (𝜔) = 𝜀r∞ + +
1 + j𝜔𝜏 j𝜔𝜀0
𝛥𝜀r 𝛥𝜀r 𝜔𝜏 𝜎
= 𝜀r∞ + −j( + ) (17.2)
1+𝜔 𝜏 2 2 1 + 𝜔2 𝜏2 𝜔𝜀0

mit 𝛥𝜀r = 𝜀r0 − 𝜀r∞ . 𝜏 ist die Relaxationszeit, 𝜀0 die elektrische Feldkonstante und 𝜀r0 ,
𝜀r∞ sind die relativen Permittivitätswerte bei sehr niedrigen bzw. sehr hohen Frequen-
zen. Außerdem umfasst diese Modellgleichung den frequenzabhängigen Einfluss frei-
er Ladungsträger in Form der elektrischen Leitfähigkeit 𝜎 auf die Permittivität.
536 | Marko Helbig

Die Ausbreitung einer ebenen elektromagnetischen Welle E(t, z) kann wie folgt
beschrieben werden:

E (t, z) = E ⋅ exp (j (𝜔t − 𝛽z)) ⋅ exp (−𝛼z) (17.3)

Dabei sind 𝛼 das Dämpfungsmaß und 𝛽 das Phasenmaß, die beide durch die Per-
mittivität und deren Verlustwinkel tan 𝛿 = 𝜀r󸀠󸀠 /𝜀r󸀠 bestimmt sind, und c0 die Lichtge-
schwindigkeit:

𝜔 √ 𝜀r󸀠 √ 𝜔 √ 𝜀r󸀠 √
𝛼 (𝜔) = [ 1 + tan2 𝛿 − 1] 𝛽 (𝜔) = [ 1 + tan2 𝛿 + 1] (17.4)
c0 2 c0 2
Aus dem Dämpfungsmaß errechnet sich die wegabhängige Dämpfung AdB (𝜔, z) =
20 log10 e−𝛼z mit der Einheit dB. Sie hängt vom Verhältnis Real- zu Imaginärteil der
Permittivität ab und nimmt mit steigender Frequenz zu.
An dielektrischen Grenzflächen teilt sich die einfallende Leistung Pin (𝜔) in einen
Teil, der reflektiert wird: Prefl (𝜔) = Pin (𝜔) ⋅ |𝛤(𝜔)|2 , und einen Teil, der in das angren-
zende Medium transmittiert: Ptrans (𝜔) = Pin (𝜔) ⋅ [1 − |𝛤(𝜔)|2 ]. Quantitativ wird dieses
Phänomen durch den Reflexionsfaktor bestimmt, der sich bei senkrechtem Wellen-
einfall aus den Permittivitätswerten der angrenzenden Medien 𝜀1 (𝜔) und 𝜀2 (𝜔) ergibt:

√𝜀1 (𝜔) − √𝜀2 (𝜔)


𝛤 (𝜔) = (17.5)
√𝜀1 (𝜔) + √𝜀2 (𝜔)

In 󳶳Abb. 17.1 sind die frequenzabhängigen Verläufe der Permittivität (Real- und Ima-
ginärteil) und der Dämpfung dreier von [Lazebnik 2007] nach ihrem Fettgewebsanteil
klassifizierter Brustgewebsgruppen (󳶳Tab. 17.1) sowie deren Reflexionsfaktor gegen-
über Tumorgewebe dargestellt. Diese Abbildung verdeutlicht eine Erkenntnis, die in
spektroskopischen Studien der letzten Jahre gewonnen wurde und euphorische Er-
wartungen älterer Publikationen relativierte. Tumorgewebe besitzt aufgrund des hö-
heren Wassergehaltes gegenüber fettreichem Gewebe (Gr. III) wie erwartet einen di-
elektrischen Kontrast, der größer als der Dichtekontrast (Mammographie) ist. Gegen-
über Drüsengewebe (Gr. I) ist er aber sehr gering. Das macht eine Brustkrebsdiagnostik
mittels UWB insbesondere bei jungen Frauen zu einer enormen Herausforderung.

17.1.3 Terahertz-Technologie

Als Terahertzwellen bezeichnet man im elektromagnetischen Spektrum den Bereich


zwischen 100 GHz und 10 THz (3 mm bis 30 μm). Trotz Potential für ein breites Anwen-
dungsspektrum in Chemie, Biologie, Pharmazie und Medizin wurde er lange Zeit als
Terahertz-Lücke bezeichnet, weil es weder elektronisch noch optisch gelang, Strah-
lung in diesem Frequenzbereich effizient zu erzeugen. Hier ist die Entwicklung in den
letzten Jahren weiter vorangekommen.
17 Mikrowellen-, Ultrabreitband- und THz-Bildgebung | 537

80 35
dest. Wasser
70 30 Gr. I
Gr. II
60 Gr. III
25
Tumor
50
20
40

ε''
ε'

15
30
10
20

10 5

0 0
0 2 4 6 8 10 0 2 4 6 8 10
(a) f/GHz (b) f/GHz

0 0,7

0,6

0,5
–5
A/dB⋅cmˉ¹

0,4
γ

0,3
–10
0,2

0,1

–15 0
0 2 4 6 8 10 0 2 4 6 8 10
(c) f/GHz (d) f/GHz

Abb. 17.1: (a)...(c): Permittivität (Real- und Imaginärteil) sowie die daraus resultierende Dämpfung
je cm von 3 Gruppen gesunden, nach Fettgewebsgehalt klassifizierten Brustgewebes [Lazebnik
2007] (I: 0...30 % Fettgewebe, II: 31...84 % Fettgewebe, III: 85...100 % Fettgewebe) im Vergleich
zu destilliertem Wasser und Brustkrebsgewebe. (d): Reflexionskoeffizienten (Betrag) zwischen den
drei gesunden Brustgewebsgruppen und Brustkrebsgewebe.

Terahertz-Bildgebung: Bildgebung mittels elektromagnetischer Strahlung im Frequenzbereich


zwischen 100 GHz und 10 THz (3 mm–30 μm).

Ein Terahertz-gepulstes Spektroskopie- bzw. Imaging-System arbeitet beispiels-


weise nach folgendem Prinzip: Mithilfe optischer Impulse eines Femtosekunden-
Lasers (z. B. Titan-Saphir, 800 nm) wird ein als Emitter fungierendes, photoleiten-
des Halbleitersubstrat (Galliumarsenid) mit aufgedampften Metallstreifenleitungen
(Dipol-Antenne) angeregt. Die durch die Laserimpulse erzeugten freien Ladungs-
538 | Marko Helbig

Tab. 17.1: Cole-Cole-Parameter der in 󳶳 Abb. 17.1 charakterisierten Gewebe und Wasser

𝜀r∞ Δ𝜀 𝜏/ps 𝜎/Sm−1


Aqua dest. (37°C) 5,300 68,840 6,250 0,001
Brustgewebe I 7,821 41,480 10,66 0,713
Brustgewebe II 5,573 34,570 9,149 0,524
Brustgewebe III 3,140 1,708 14,65 0,036
Tumorgewebe 6,749 50,090 10,50 0,794

träger werden durch ein angelegtes elektrisches Feld beschleunigt. Aufgrund des
resultierenden Stromimpulses wird ein THz-Impuls (elektromagnetische Welle) in
den Raum abgestrahlt. Mit aufgebrachten Silizium-Linsen wird die Divergenz dieser
Strahlung verringert. Schließlich wird mithilfe spezieller Parabolspiegel der Strahl
fokussiert auf die zu untersuchende Probe geleitet.
Die an der Probe reflektierte THz-Welle wird in analoger Weise auf einen photo-
leitenden Detektor gebracht. Werden gleichzeitig durch einen ausgekoppelten Strahl
des Femtosekundenlasers im Detektorsubstrat freie Ladungsträger zur Verfügung ge-
stellt, so werden diese durch das elektromagnetische Feld beschleunigt und es kann
ein Stromimpuls registriert werden. Eine zeitaufgelöste Analyse dieses Empfangssi-
gnals (Zeitbereichsspektroskopie) gelingt mithilfe einer einstellbaren Zeitverzögerung
des den Detektor anregenden Laserstrahls.
Durch hoch genaues Abrastern der Probe gelangt man schließlich zu einem Bild,
in welchem Parameter des reflektierten Signals abgebildet sind. Bei hinreichend dün-
nen Proben kann der Detektor ebenfalls hinter der Probe platziert werden, so dass ein
Bild auf der Basis von Transmissionsdaten entsteht.
Die wesentlichsten Unterschiede zum Mikrowellen-Imaging sind:
– Sensitivität für intra- und intermolekulare Schwingungsmoden; spezifisches THz-
Spektrum („finger print“) molekularer Substanzen,
– bessere Auflösung: ∼20 μm axial, 250 μm lateral [Pickwell 2006],
– geringere Eindringtiefe; deshalb Beschränkung auf Gewebsoberflächen (z. B.
Haut und extrahierte Gewebsproben) und nahe darunter befindliche Areale.

17.2 Aktive Mikrowellen-Bildgebung


17.2.1 Sensortechnik

Signalgeneration
Allen Systemen der aktiven Mikrowellen-Bildgebung gemein ist das Prinzip, ein be-
kanntes Stimulationssignal zu erzeugen und auszusenden und die am Messobjekt re-
flektierten und/oder durch das Messobjekt transmittierten Signalanteile zu erfassen.
Aus den ermittelten Impulsantworten sind Reflexions- bzw. Transmissionsparameter
17 Mikrowellen-, Ultrabreitband- und THz-Bildgebung | 539

des untersuchten Objekts ableitbar. Das zu untersuchende Gewebe kann aus Sicht
der Hochfrequenztechnik daher als Zwei- bzw. Mehrtor aufgefasst werden. Zu dessen
Charakterisierung (Ermittlung der Streuparameter = Netzwerkanalyse) sind mehrere
Messprinzipien (breitbandige Signalformen) möglich, u. a.:
– Netzwerkanalysator: Die Stimulationsfrequenz wird innerhalb eines zu wählen-
den Bereiches in einstellbaren Schritten durchlaufen und die zugehörigen Emp-
fangssignale erfasst (Sinusmessverfahren, relativ lange Messzeit, hohe System-
kosten, sehr präzise).
– Impuls-Radar: Durch Aussendung eines sehr kurzen, steilflankigen und damit
breitbandigen Impulses wird der gesamte Spektralbereich gleichzeitig angeregt
(hohe Anforderung an Spannungsfestigkeit der Elektronik).
– M-Sequenz-Radar: Die Verwendung von Pseudo-Rausch-Codes (periodisch ge-
nerierte, scheinbar zufällige Signale mit steilflankigem Autokorrelationspeak) hat
gegenüber dem Impuls-Radar den Vorteil, die gesamte spektrale Energie auf ein
zeitlich ausgedehntes Signal verteilt übertragen zu können (hohe Zeitstabilität,
Korrelationsgewinn, gut integrierbare Technologie) [Sachs 2012].

M-Sequenz-Radar: ultrabreitbandiges, zeitstabiles Radar-Verfahren auf der Basis kontinuierli-


cher, pseudo-zufälliger Binärcodes (M-Sequenzen) mit steilflankigem Autokorrelations-Peak.

Antennen
Da die Signalenergie nicht wie bei den meisten Radaranwendungen im Freiraum
übertragen wird, sondern in das Untersuchungsmedium (hier das Gewebe) eindrin-
gen muss, stellt der Messaufbau mit den verwendeten Applikatoren zur Signal-Ein-
und Auskopplung (Antennen) eine entscheidende Komponente dar. Das Design effi-
zienter Antennenstrukturen hierfür erfordert die Beachtung verschiedener Parameter
und deren Zusammenhänge, die für den jeweiligen Anwendungsfall miteinander
abgestimmt werden müssen. Um ein Bild mit ausreichendem Signal-Stör-Abstand
zu erhalten, muss das Messobjekt von möglichst vielen Positionen aus beleuchtet
werden. Dazu werden entweder Sende- und Empfangsantenne mechanisch um das
Untersuchungsobjekt bewegt (Scanner) oder es kommen viele hinreichend kleine
Antennen (Antennenarray) zum Einsatz, wobei sequentiell jeweils eine Antenne als
Sender fungiert und alle anderen die rückgestreuten Signale empfangen.
Neben der physikalischen Antennengröße und ihrer Strahlungseffizienz spielt
beim Zeitbereichs-Imaging vor allem die Impulsform (kurze Impulsdauer mit gerin-
gem Nachschwingen) und deren Stabilität in einem möglichst großen Bereich des
Antennenstrahlungswinkels eine entscheidende Rolle. Des Weiteren kann mithilfe
eines Koppelmediums zum einen die Hautreflexion verringert werden, zum anderen
können die Antennen dielektrisch skaliert werden. Beispiele entwickelter und für Mi-
540 | Marko Helbig

krowellen-Imaging zum Einsatz gebrachter Antennenstrukturen sind u. a. Monopole,


Dipole, Hornantennen und Patchantennen [Craddock 2007].

17.2.2 Signalverarbeitung

Mikrowellen-Tomographie
Rekonstruktionsalgorithmen aktiver Mikrowellen-Tomographie-Systeme streben eine
iterative Lösung der vorliegenden nichtlinearen inversen elektromagnetischen Streu-
probleme an. In der Regel wird darin ausgehend von einem zu definierenden Initial-
zustand (komplexe Wellenzahl) das elektrische Feld berechnet und mit dem gemes-
senen verglichen. Die erhaltene Differenz gilt es zu minimieren. Beispielsweise mit-
hilfe des Gauss-Newton-Verfahrens werden die Parameter iterativ gezielt verändert,
bis ein Abbruchkriterium erfüllt ist. Als Ergebnis dieses Minimierungsproblems liegen
anschließend topographisch verteilt Absolutwerte von Permittivität und Leitfähigkeit
vor, die aus der angepassten komplexen Wellenzahl errechenbar sind. Das zeichnet
diese Methode gegenüber den in der Regel einfacheren Methoden der UWB-Radar-
Bildgebung aus. Andererseits ist sie durch einen immens höheren Rechenaufwand
und eine geringere Auflösung gekennzeichnet.

UWB-Radar-Bildgebung
Eine Bildgebung nach dem Radar-Prinzip bildet Informationen über die Lage reflektie-
render Objekte und die Intensität der reflektierten Signale ab. Das erfordert gegenüber
der Mikrowellen-Tomographie einen geringeren Rechenaufwand und kann breitban-
dig erfolgen (UWB-Radar).

UWB-Radar-Bildgebung (Ultra-wideband radar imaging): Ermittlung der Lage und Ausdehnung


von elektromagnetische Wellen reflektierenden Objekten und deren Reflexionseigenschaften un-
ter Verwendung extrem breitbandiger Signale im Mikrowellenbereich nach dem Radar-Prinzip.

Am Beispiel des Imagings zur Erkennung von Brustkrebs werden die drei wesentli-
chen Komponenten der Signalverarbeitung erläutert.
– Oberflächenrekonstruktion: Beim kontaktlosen Scannen der Brust, d. h., wenn
der Abstand zwischen Antennen und Brust nicht reproduzierbar konstant ist, ist
eine exakte Identifizierung der Brustoberfläche notwendig. Neben Lasermessun-
gen [Williams 2011] kann dies auch mithilfe der an der Brustoberfläche reflek-
tierten UWB-Wellenfronten mit ausreichender Genauigkeit (Abweichungen im Be-
reich 1. . . 2 mm) erfolgen [Helbig 2009].
– Signalvorverarbeitung/Kalibrierung: Während Rauschen durch eine längere
Messzeit (Mittelung) reduziert wird, kann Clutter (deterministische Störungen)
nur durch Kalibrierung unterdrückt werden. Ziele hierbei sind die Entfaltung
17 Mikrowellen-, Ultrabreitband- und THz-Bildgebung | 541

der Impulsantwort des Messsystems und die Eliminierung geräteinterner Refle-


xionen, statischer Reflexionen der Messumgebung, der Hautreflexion und des
Antennenübersprechens.
– Bildgebung/Beamforming: Der Basisalgorithmus einer Bildgebung im Zeitbe-
reich ist der sogenannte Delay-and-Sum Beamformer (s. 󳶳Abb. 17.2). Er beruht
auf der kohärenten Signalsummation. Dabei werden für jeden Bildpunkt die
Signale aller Empfangskanäle entsprechend ihrer Signallaufzeit (Sendeantenne
Tx → Bildpunkt → Empfangsantenne Rx) zeitverschoben aufsummiert, quadriert
(rückgestreute Energie) und farbkodiert dargestellt. Dies erfordert die Annahme
einer mittleren Ausbreitungsgeschwindigkeit im untersuchten Gewebe, woran zu
erkennen ist, dass dieser Ansatz mit zunehmender Heterogenität des untersuch-
ten Gewebes an seine Grenzen gelangt.
Weiterführende Algorithmen versuchen auf verschiedenen Wegen, die Signal-
integration zu optimieren. Hier unterscheidet man datenunabhängige Ansätze
(z. B. MIST-Beamformer (Microwave Imaging via Space Time Beamforming) [Bond
2003]) und datenabhängige Ansätze (z. B. MAMI-Algorithmus [Multistatic Adap-
tive Microwave Imaging] [Xie 2006]). Die Bildgebung kann auch im Frequenz-
bereich (Stolt-Migration, MIST) realisiert werden. Dies erfordert in der Regel
einen höheren Speicherbedarf, senkt aber die Berechnungsdauer. Mithilfe der
Phasenshift-Migration ist es zudem möglich, Permittivitätsprofile (d. h. verschie-
dene Gewebsschichten unterschiedlicher Permittivität) anstelle einer Konstanten
einzubeziehen.

Beam Former (dt. Strahlformer): Basisalgorithmus in der UWB-Radar-Bildgebung zur Lokalisie-


rung reflektierender Bereiche innerhalb des Untersuchungsmediums. Die Bezeichnung beruht auf
der Analogie zur Ansteuerung eines Antennenarrays, um ein bestimmtes Strahlungsprofil zu er-
zeugen. Der Prozess wird als beam forming (auch Beamforming, Migration) bezeichnet (vgl. Beam
Forming beim Ultraschall, 󳶳 Kap. 8.5.1)

17.3 Aktueller Stand in Forschung und Entwicklung


Der größte Teil aller Publikationen beruht nach wie vor (Stand 2012) auf Simulations-
daten (FDTD-Modellen), die zumeist auf Basis von MRT-Bildern und Permittivitäts-
messungen entnommener Gewebsproben erzeugt wurden. Nur wenige Arbeitsgrup-
pen weltweit haben ihre Entwicklungen bereits in klinischen Studien getestet. Erste
Ergebnisse klinischer Untersuchungen zur Erkennung von Brustkrebs auf dem Ge-
biet der Mikrowellen-Tomographie werden u. a. von der Arbeitsgruppe um P. Mea-
ney (Dartmouth Collage) [Meaney 2007] und auf dem Gebiet des UWB-Radars von
der Arbeitsgruppe um I. Craddock (Bristol University) [Klemm 2010] beschrieben (s.
542 | Marko Helbig

Imaging-Punkt 1 Messung Imaging-Punkt 2

Tx Rx5 Tx Rx5 Tx Rx5

Rx1 Rx4 Rx1 Rx4 Rx1 Rx4

Rx2 Rx3 Rx2 Rx3 Rx2 Rx3

Rx1 Rx1 Rx1


Rx2 Rx2 Rx2
Rx3 Rx3 Rx3
Rx4 Rx4 Rx4
Rx5 Rx5 Rx5

Σ Σ
Image

Abb. 17.2: Prinzip des Delay-and-Sum-Beamformings.

󳶳Abb. 17.3). Sie bestätigen das diagnostische Potential der Methode, offenbaren aber
auch die noch zu bewältigenden Herausforderungen (homogene Signaleinkopplung
ins Gewebe, Verringerung der Messzeit, Bewegungsartefakte, hohe Heterogenität des
Brustgewebes verbunden mit geringem Kontrast zwischen Drüsen- und Tumorgewe-
be). Letzterem versucht man mit verschiedenen Kontrastmitteln (Nanopartikel, Mikro-
bläschen etc.) zu begegnen.
Neben der Erkennung von Brustkrebs erwartet man mithilfe von UWB in zahlrei-
chen weiteren Anwendungen in der medizinischen Bildgebung Fortschritte, so z. B.
als Navigatortechnik. Um die Bildqualität von Magnetresonanztomographen zu er-
höhen, die mit hoher Feldstärke (3 Tesla bis 9,4 Tesla) arbeiten, haben Wissenschaftler
der PTB Berlin und der TU Ilmenau ein Verfahren entwickelt, mittels UWB die physio-
logische Bewegung des Herzens berührungslos wiederzugeben. Damit können Zeitin-
tervalle identifiziert werden, die bestimmten Bewegungszyklen des Herzens entspre-
chen, um MRT-Aufnahmen mit dem Herzschlag zu synchronisieren und Bildartefakte
zu vermeiden [Thiel 2009].
Des Weiteren widmen sich Forschergruppen auch zunehmend der Mikrowellen-
basierten Diagnostik anderer Organe. Zum einen sind hier Bestrebungen zu nennen,
die Osteoporose-Diagnose mithilfe von Mikrowellen-Imaging zu unterstützen [Zhou
2010]. Studien belegen Änderungen der dielektrischen Eigenschaften von Knochenge-
17 Mikrowellen-, Ultrabreitband- und THz-Bildgebung | 543

(a) (b)

Maximum des fokussierten Rückstreusignals Fokussierung bei Z=–36 mm


bei X=30 mm, Y=21 mm, Z=–36 mm mit Maximum=1 bei X=30 mm und Y=21 mm
60
0,9
0 40 0,8
Z in mm

–20 20 0,7
Y in mm

0,6
–40 0
0,5
–60 –20 0,4
50 –40 0,3
0 50
Y in 0 0,2
mm –50 –50 m –60 0,1
X in m –60 –40 –20 0 20 40 60
(c) X in mm

Abb. 17.3: Exemplarisches Ergebnis einer ersten klinischen Studie von [Klemm 2010]: Tumordetekti-
on in der rechten Brust einer 83-jährigen Patientin; (a) Antennenarray bestehend aus 31 Elementen;
(b) Röntgenaufnahmen; (c) UWB-Radar-Imaging. Abbildung mit freundlicher Genehmigung von M.
Klemm, Bristol University (UK).

webe mit zunehmendem Alter, die mit den mechanischen Eigenschaften korrelieren
und somit diagnostisch relevant sind. Zum anderen rücken zerebrale Fragestellungen
(Schlaganfall, funktionelle Hirnbildgebung) in den Fokus der Untersuchungen [Seme-
nov 2009].
Anwendungen des Terahertz-Imagings konzentrieren sich auf die Erkennung von
Hautkrebs, die Untersuchung extrahierten Brustgewebes und die Zahnbildgebung
[Pickwell 2006]. Kommerzielle THz-Puls-Imaging-Systeme werden von der Fa. Tera-
View Ltd. (UK) angeboten.
544 | Marko Helbig

Quellenverzeichnis
Bond E. J., Li X., et al.: Microwave Imaging via Space-Time Beamforming for Early Detection of Breast
Cancer. IEEE Trans Antennas Propag 2003; 51: 1690–1705.
Craddock I.: Wideband Antennas for Biomedical Imaging. In: Allen B., et al. (Ed.): Ultra-Wideband
Antennas and Propagation for communications, radar and imaging. Weinheim: Wiley, 2007:
437–450.
Klemm M., Craddock I. J., et al.: Clinical Trials of a UWB Imaging Radar for Breast Cancer.
Proceedings of EuCAP 2010, 1–4.
Helbig M., Geyer C., et al.: Improved Breast Surface Identification for UWB Microwave Imaging.
IFMBE Proceedings 2009; 25 (2): 853–856.
Lazebnik M., Popovic D., et al.: A large scale study of the ultrawideband microwave dielectric
properties of normal, benign and malignant breast tissues obtained from cancer surgeries.
Phys Med Biol 2007; 52: 6093–6115.
Meaney P. M., Fanning M. W., et al.: Initial Clinical Experience with Microwave Breast Imaging in
Women with Normal Mammography. Acad Radiol 2007; 14: 207–218.
Pickwell E., Wallace V. W.: Biomedical applications of terahertz technology. J Phys D: Appl Phys
2006; 39: R301–R310.
Sachs J.: Handbook of Ultra-Wideband Short-Range Sensing: Theory, Sensors, Applications.
Wiley-VCH, Berlin, 2012.
Semenov S.: Microwave tomography: review of the progress towards clinical applications. Phil Trans
R Soc A 2009; 367: 3021–3042.
Thiel F., Hein M., et al.: Combining magnetic resonance imaging and ultrawideband radar: A new
concept for multimodal biomedical imaging. Review of Scientific Instruments 2009; 80:
0143020–1–10.
Williams T. C., Bourqui J., et al.: Laser Surface Estimation for Microwave Breast Imaging Systems.
IEEE Trans BME 2011; 58: 1193–1199.
Xie Y., Guo B., et al.: Multistatic Adaptive Microwave Imaging for Early Breast cancer Detection. IEEE
Trans BME 2006; 53: 1647–1657.
Zhou T., Meaney P. M., et al.: Microwave Tomographic Imaging for Osteoporosis Screening: a Pilot
Clinical Study. Proceedings IEEE EMBS 2010; 1218–1221.

Testfragen
1. Was versteht man unter Ultrabreitbandtechnik (UWB)?
2. Nennen Sie Anwendungsbeispiele der Mikrowellen- und der THz-Bildgebung in der medizini-
schen Diagnostik und erläutern Sie die Motivation.
3. Erläutern Sie den Begriff der Permittivität und deren Bedeutung im Rahmen der Mikrowellen-Bild-
gebung. Welchen Einfluss hat sie auf die Ausbreitung elektromagnetischer Wellen im Gewebe?
Wovon ist der Reflexionsfaktor an dielektrischen Grenzflächen abhängig?
4. Beschreiben Sie grundlegend das Funktionsprinzip eines THz-Spektroskopie-Systems.
5. Wie funktioniert eine Bildgebung nach dem Prinzip der Mikrowellen-Tomographie und wie nach
dem UWB-Radar-Prinzip? Nennen Sie Möglichkeiten der Generation breitbandiger Stimulations-
signale. Erklären Sie die Funktionsweise des Delay-and-Sum-Beamformers.
Fabian Kiessling
18 Molekulare Bildgebung

18.1 Einführung | 546


18.2 Molekulare Marker | 547
18.3 Die Sonden | 548
18.4 Die Bildgebungsmodalitäten | 553
18.5 Molekulare Bildgebung mit SPECT und PET | 554
18.6 Molekulare Bildgebung mit optischer Bildgebung | 555
18.7 Molekulare Bildgebung mit Ultraschall | 555
18.8 Molekulare Bildgebung mit Magnetresonanztomographie | 556
18.9 Molekulare Bildgebung mit Computertomographie | 558

Zusammenfassung: Fortschritte in der molekularen Medizin führen zu der Entde-


ckung einer Vielzahl von zellulären Zielstrukturen, die sich für die Diagnose und
Therapie von Erkrankungen eignen. Die Kenntnis dieser Zielstrukturen ebnet den
Weg für eine „Molekulare Bildgebung mit deren Hilfe Krankheiten früher und siche-
rer erkannt werden können und Therapieeffekte besser beurteilbar werden. In diesem
Kapitel werden wichtige Bildgebungsmodalitäten (PET, SPECT, MRT, US und optische
Bildgebung) sowie Messverfahren für die Molekulare Bildgebung vorgestellt und ihre
Stärken und Schwächen diskutiert. Ferner wird anhand von Beispielen erklärt, wie
ein molekulares Diagnostikum aufgebaut ist und welche Eigenschaften dieses im
Körper aufweisen muss, um zuverlässig anwendbar zu sein.

Abstract: Advances of molecular medicine lead to the identification of multiple cel-


lular targets that show potential for diagnosis and therapy of diseases. Knowledge of
these target structures enables a new diagnostic strategy called “molecular imaging”
that can be used to improve detection and characterization of diseases and to assess
therapeutic responses more specifically and at an earlier stage. This chapter intro-
duces important imaging modalities (PET, SPECT, MRI, US, and optical imaging) and
measurement techniques that are suited for molecular imaging and discusses their
strengths and limits. Additionally, based on examples, the design of a molecular imag-
ing probe and its requirement to work reliably in the body are explained.
546 | Fabian Kiessling

18.1 Einführung
Die Molekulare Bildgebung wurde initial von Wagenaar und Weissleder als die
In-vivo-Charakterisierung und Messung biologischer Prozesse auf molekularem und
zellulärem Niveau mit Bildgebungssystemen definiert [Wagenaar 2001]. Seitdem wur-
den weitere Definitionen vorgenommen, die leicht von dieser abweichen, jedoch im
Kern den gleichen Inhalt haben. Praktisch gesehen ist es bei der Molekularen Bild-
gebung das derzeitige Ziel, eine makroskopische Struktur (in der Regel entweder ein
gesundes oder erkranktes Organ) mittels zielgerichteter, bildgebender Sonden (siehe
Erklärungsblock) darzustellen und die Expression wichtiger Markerstrukturen (siehe
Erklärungsblock) im Gewebe zu quantifizieren. Nicht gemeint ist hierbei die Bildge-
bung von einzelnen Molekülen oder Rezeptoren, da dies bisher – und wohl auch in
näherer Zukunft – mit nichtinvasiver Bildgebung nur schwer gelingen wird. Auch die
Erfassung einzelner Zellen ist, abgesehen von Zelltracking-Ansätzen mit Eisenoxid-
Nanopartikeln, bisher nur schwer möglich, da die Sensitivität der Bildgebungsverfah-
ren hierfür noch unzureichend ist. Dennoch gewinnt die Molekulare Bildgebung der-
zeit zunehmend an Bedeutung, da die erfassten molekularen Charakteristika wertvol-
le Hinweise liefern über
– die Art der Pathologie (z. B. maligner versus benigner Tumor),
– die Aggressivität der Pathologie (z. B. stark angiogenes, infiltratives und metasta-
sierendes versus eher langsam proliferierendes, gering infiltrierendes Karzinom),
– das Therapieansprechen (besonders wichtig für „molekulare Therapeutika“, die
kostenintensiv sind und nicht bei jedem Patienten wirken),
– die optimale Dosierung eines Therapeutikums (z. B. vorherige Testung der An-
reicherung des therapeutisch zu applizierenden Antikörpers nach dessen Ra-
diomarkierung mit SPECT und nachfolgender Dosisoptimierung). Der Bedarf für
diese enge Kombination von Therapie und Diagnostik führt auch zunehmend
zu der Entwicklung von „bildgebenden Therapeutika“ und eröffnet ein neues
Forschungsgebiet, das als „Theranostics“ oder „Theragnostics“ bezeichnet
wird.

Wichtige Begriffe der Molekularen Bildgebung:

Molekulare Bildgebung: Bildgebungsverfahren, mit dessen Hilfe biologische Prozesse auf mole-
kularer und zellulärer Ebene abgebildet werden können.

Molekulare Sonde: Molekül, das in der molekularen Bildgebung eingesetzt wird, um damit Ziel-
strukturen im Gewebe darstellen zu können.

Molekularer Marker: molekulare Zielstruktur, die eine Aussage über das Gewebe/die Erkrankung
erlaubt.

Signalmolekül: bildgebender Teil einer molekularen Sonde.


18 Molekulare Bildgebung | 547

Target (dt. Ziel): Zielstruktur (in der Molekularen Bildgebung z. B. Rezeptor auf der Zellmembran).

Rezeptor: in der Molekularen Bildgebung ein Molekül in oder auf der Zelle, an das ein anderes
Molekül (Ligand) binden kann. Durch die Liganden-Rezeptor-Interaktionen können Signalkaska-
den ausgelöst werden.

Transporterkanal: meist membranständiges Protein, das eine Substanz (z. B. Glukose) durch die
Zellmembran hindurch lassen kann.

Carrier-Protein (dt. Tranport-Protein): Protein, das andere Stoffe temporär bindet und transpor-
tiert (z. B. im Blut oder durch die Zellmembran hindurch).

Linker (dt. Verbinder): Abschnitt zwischen Ligand und Signalmolekül.

Ligand: an die Zielstruktur bindender Abschnitt einer molekularen Sonde.

Reportergen: künstlich in die Zelle eingebrachtes Gen, das zu ihrer Erkennung dient (z. B. durch
Kodierung für ein fluoreszentes Protein).

18.2 Molekulare Marker


Voraussetzung für die Molekulare Bildgebung ist die Kenntnis von aussagekräftigen
zellulären und molekularen Krankheitsmarkern. Diese Marker können entweder ein
generelles Phänomen beschreiben oder auch ein Molekül darstellen, das nur bei ei-
ner bestimmten Krankheit vorkommt. Beispiele für generelle Phänomene wären Ge-
webemetabolismus und Zellproliferation, Phagozytoseaktivität, Hypoxie (Minderver-
sorgung des Gewebes mit Sauerstoff), Inflammation und Angiogenese. Vorteil solcher
Marker ist die breite Einsetzbarkeit zur Diagnose unterschiedlicher Erkrankungen und
deren Therapieverfolgung. Aufgrund der generell hohen Kosten für die Diagnostika-
entwicklung und Zulassung sind diese besonders im Fokus pharmazeutischer Unter-
nehmen. Nachteil solcher Marker ist jedoch, dass die diagnostische Trennschärfe zwi-
schen unterschiedlichen Erkrankungen hierbei oft nicht ausreichend ist und daher
weiterhin aufwendige invasive Probeentnahmen notwendig sind.
Spezifische Krankheitsmarker werden insbesondere dann benötigt, wenn die dif-
ferentialdiagnostische Klärung der Pathologie schwierig und von therapeutischer Re-
levanz ist oder wenn eine molekulare Therapie vorgesehen ist, die nur bei einem Teil
der Patienten wirkt, so dass eine Vorselektion vorgenommen oder das Ansprechen
früh sensitiv erfasst werden muss. Auch ist es wichtig hervorzuheben, dass es „spe-
zifische Krankheitsmarker“ eigentlich kaum gibt. Vielmehr geht es darum, Marker zu
identifizieren, die im pathologischen Prozess stark überexprimiert sind. In der Regel
wird für eine moleklulare Bildgebung eine Überexpression um mindestens den Faktor
10 gegenüber dem gesunden Gewebe als notwendig erachtet.
Neben der unspezifischen Endozytose, die eine Aussage über den Gehalt an pha-
gozytierenden Zellen im Gewebe erlaubt, werden vor allem zelluläre Oberflächenmar-
548 | Fabian Kiessling

ker wie Membranrezeptoren, Transporterkanäle und Carrierproteine adressiert. Aber


auch Enzyme werden als Zielstrukturen verwendet. Kommt es hierbei zu einer Spal-
tung und „Aktivierung“ der bildgebenden Substanz, spricht man von einer „smart
probe“. Die Herstellung molekularer Sonden gegen intrazelluläre Zielstrukturen ist
schwierig, da ein ausreichender Transport der Sonde zu der Zielstruktur über den Blut-
weg oft nicht erreicht werden kann.
Neben den natürlich vorkommenden Krankheitsmarkern werden für die präklini-
sche Forschung oft auch Reportergene in die Zielzellen/Versuchstiere eingebaut, die
entweder zu einer dauerhaften oder z. B. durch Antibiotika induzierbaren Expressi-
on eines Markers führen. Am häufigsten wird die Reportergenexpression für die opti-
sche Bildgebung genutzt (s. 󳶳Kap. 18.6). Allerdings wurden auch für die MRT Kon-
zepte vorgestellt, bei denen Reportergene helfen, das Zielgewebe zu identifizieren:
Beispielsweise transfizierten Mitarbeiter der Gruppe von Michal Neeman Tumorzel-
len mit dem Eisenspeicherprotein Ferritin [Cohen 2005]. Die Überexpression von Fer-
ritin stand hierbei unter Kontrolle des Antibiotikums Tetrazyklin. Fehlte Tetrazyklin,
kam es durch die zunehmende Bildung von Ferritin zu einem vermehrten Eisenein-
bau in die Zielzellen. Dieser wiederum führte zu einem mit Magnetresonanzbildge-
bung (MRT) messbaren Anstieg der R1- und R2-Relaxationsrate in den Tumoren, was
die Identifizierung des Zielgewebes erlaubte.

18.3 Die Sonden


Grundsätzlich besteht ein molekulares Diagnostikum aus einem (oder mehreren)
Liganden der Zielstruktur, der entweder direkt oder über einen Linker an das Signal-
molekül gekoppelt ist. Nicht nur die Pharmakokinetik und Biodistribution des Ligan-
den – dies kann ein kleines Peptid, ein Antikörper, ein Antikörperfragment, ein Apt-
amer, ein Zucker o. ä. sein – wird durch die Kopplung verändert, sondern auch die
Bindungsaffinität an den Rezeptor kann durch die Kopplung des Signalmoleküls stark
beeinflusst werden. Auch eignet sich nicht jedes Signalmolekül für jeden Rezeptor.
Kleine Transporterkanäle (siehe Erklärungsblock), wie der Glukosetransporter, sind
beispielsweise für Nanopartikel kaum durchgängig. Selbst die Kopplung eines klei-
nen Farbstoffmoleküls kann bereits eine Passage durch solch einen Transporterkanal
verhindern. Die Kopplung eines Radiotracers jedoch verändert die Größe des Mole-
küls nur minimal, so dass die Glukose weiter aufgenommen werden kann, was uns
am Beispiel von 18 FDG-PET in der klinischen Routine täglich erfolgreich demonstriert
wird.
Ein weiterer wichtiger Aspekt ist die Berücksichtigung biologischer Schranken
(󳶳Abb. 18.1).
18 Molekulare Bildgebung | 549

Barrieren: 1 2 3 4 5

Zytoplasma

Zellkern

Gefäß Interstitium Zielzelle

Abb. 18.1: Schematische Darstellung biologischer Barrieren, die ein molekulares Diagnostikum
überwinden muss, um an die Zielstruktur zu binden. Nach Injektion in das Blut agiert das Diagno-
stikum zuerst mit den Endothelzellen der Gefäßwand. Um extravaskuläre Ziele zu erreichen, muss
es die Endothelzellschicht überwinden und dann evtl. gegen einen Druckgradienten und trotz Ab-
strom des Plasmas an die Zielzelle gelangen. Für ein intrazelluläres Target müsste es dann noch die
Zellmembran der Zielzelle überwinden. Mit jeder zu überwindenden Membran steigt der Komplexi-
tätsgrad und der Anspruch an das Design des molekularen Diagnostikums.

Molekulares Diagnostikum: spezifisches Kontrastmittel für die molekulare Bildgebung.

Biologische Barriere: Gewebestruktur, die die Verteilung eines Pharmazeutikums beschränkt.

Nach intravenöser Injektion der molekularen Sonde ist das Endothel die erste Zell-
schicht, mit der die Sonde Kontakt hat. Besondere Schranken bestehen hierbei nicht,
so dass Nanopartikel (z. B. USPIO, paramagnetische oder fluoreszente Liposomen)
oder sogar Mikrobläschen (Ultraschall) als Signalmoleküle eingesetzt werden kön-
nen. Auch bietet das Endothel eine Vielzahl interessanter Markermoleküle, die bei
vaskulärer Aktivierung (Inflammation; z. B. Integrine oder ICAM und VCAM, das sind
Zelladhäsionsmoleküle, die häufig als Target für molekulare Diagnostika dienen) oder
Neubildung (z. B. VEGFR-2, das ist ein Rezeptor 2 für VEGF, ein Gefäßwachstum indu-
zierendes Protein, und damit ein wichtiger Marker der Angiogenese, oder Endoglin)
stark überexprimiert werden. Außerhalb der Endothelschicht – an die zusätzlich noch
Perizyten und glatte Muskelzellen angelagert sein können – befindet sich in der Regel
ein interstitieller Raum, der mit Bindegewebsfasern und Fibroblasten durchsetzt ist.
Kleine Moleküle verteilen sich passiv in dem interstitiellen Raum (was hauptsächlich
die Kontrastierung pathologischer Läsionen mit konventionellen Kontrastmitteln
bedingt). Nanopartikel von unter 5 nm Durchmesser zeigen jedoch bereits einen deut-
lich geringeren Gefäßaustritt und verbleiben – einmal passiv ausgetreten – lange im
Interstitium, was für eine spezifische molekulare Probe den unspezifischen Hinter-
grund unvorteilhaft erhöhen kann. Nur ein geringer Anteil solcher Partikel wird in
der Lage sein, den interstitiellen Raum zu durchqueren und dann an Zielstrukturen
550 | Fabian Kiessling

Radioisotop Linker Epitop


SPECT/PET 99Tc

99Tc, 111In, ..., 19F, ...

Farbstoff Indo-tri-carbocaynin
optische
Bildgebung
Cyanin-Farbstoff
Quantum-Dot

paramagnetische Substanz
MRT Magnetit

Gd-Chelate
Eisenoxid-NP

Mikrobläschen
Ultraschall

Abb. 18.2: Schematische Darstellung des Verhältnisses zwischen Ligand und Signalmolekül für
unterschiedliche Bildgebungsmodalitäten. Die benötigten Signalmoleküle nehmen an Größe von
SPECT und PET über optische Bildgebung, MRT und Ultraschall zu. Hierdurch werden auch die phar-
makologischen Eigenschaften und die Körperverteilung der molekularen Sonde zunehmend durch
das Signalmolekül bestimmt.

auf Zellmembranen nachfolgender Zellen (z. B. Tumorzellen) zu binden. Dies ist der
Grund für das Scheitern vieler nanopartikulärer molekularer Diagnostikansätze.

(Ultrasmall) Superparamagnetic Iron Oxide Nanoparticles ((U)SPIO): Eisenoxid-Nanopartikel, die


als negative MRT-Kontrastmittel Verwendung finden.

Die Zellmembran der hinter dem interstitiellen Raum gelegenen Zellen stellt die dritte
biologische Barriere dar, wenn interzelluläre Targets adressiert werden sollen. Je mehr
biologische Barrieren zwischen Blut und Zielstruktur liegen, desto eingeschränkter
wird man bei der Wahl des Signalmoleküls (󳶳Abb. 18.2) und der Sonde und daher
auch der Bildgebungsmodalität. Auch steigt mit jeder zu überwindenden biologischen
Barriere die unspezifische Anreicherung der molekularen Sonde und sinkt der Anteil
der molekularen Sonde, der das Target erreicht.
Eine Möglichkeit, die Verweildauer intrazellulär bindender molekularer Sonden
zu erhöhen, ist deren enzymatische Modifikation. Eine lipophile oder amphiphile
Substanz wird Zellmembranen in der Regel gut überwinden können. Wird diese intra-
zellulär, beispielweise enzymatisch, gespalten und ihr lipophiler Anteil abgetrennt,
18 Molekulare Bildgebung | 551

kann sie nicht mehr aus der Zelle herausdiffundieren und reichert sich hierdurch an
(󳶳Abb. 18.3 (a)). Ein Beispiel hierfür ist das zur Zellmarkierung häufig verwendete
111
In-Oxinat. Auch Redox-Reaktionen können ein solches Trapping von molekularen
Diagnostika verursachen. Dies wird insbesondere im Rahmen der Hypoxieerfassung
mit PET eingesetzt. Zu nennen wären in diesem Zusammenhang molekulare Sonden
wie 18 F-FMISO, 18 F-FAZA und 64 Cu-ATSM.

Hypoxie-Tracer für die PET: 18 F-FMISO, 18 F-FAZA, 64 Cu-ATSM als lipophile Substanzen gelangen
passiv in die Zelle, werden dann im Fall von Sauerstoffmangel (Hypoxie) reduziert und hierdurch
hydrophil, wodurch sie die Zelle nicht mehr verlassen können und sich im Gewebe anreichern.

Eine weitere Strategie zur Unterscheidung unspezifischer und spezifischer Anreiche-


rung molekularer Diagnostika ist die Verwendung von „aktivierbaren Diagnostika“.
Diese zeigen eine Änderung der Bildgebungseigenschaften nach Wechselwirkung mit
dem Zielgewebe.
Vorrangig werden solche Proben verwendet, um Enzymaktivitäten zu erfassen,
oder auch, um Informationen über die Temperatur und den pH-Wert im Gewebe zu
erhalten. Sehr gut geeignete Bildgebungsmodalitäten für diesen Ansatz sind die opti-
sche Bildgebung und die MRT. In der optischen Bildgebung nutzt man die Tatsache
aus, dass Farbstoffe, die sich in enger räumlicher Nähe befinden, nach Anregung Elek-
tronen austauschen können und hierdurch keine Fluoreszenzemission zeigen – sie
sind „gequenscht“. Sind Farbstoffe nun an einen Liganden für ein Enzym gebunden,
der wiederum mit dem anderen Ende an einen polymeren Träger oder ein Nanopar-
tikel gebunden ist, entsteht eine „optisch stumme“ Probe. Spaltet das Zielenzym den
Liganden, diffundieren die Farbstoffe von der Trägersubstanz weg und generieren ein
Fluoreszenzsignal, das mit einer Kamera aufgenommen werden kann (󳶳 Abb. 18.3 (a)).
Verschiedene kommerzielle Sonden für die optische In-vivo-Bildgebung, z. B. gegen
Matrix-Metalloproteinasen oder Catepsine, werden bereits angeboten.
Das Prinzip aktivierbarer MRT-Sonden beruht meist auf einer Abschirmung von
Protonen gegenüber dem paramagnetischen Zentrum der molekularen Sonde. Nur
nach enzymatischer Spaltung der Sonde können die Protonen mit dem Zentrum in-
teragieren und demnach ein Signal generieren. Dieser Ansatz wurde von Louie und
Kollegen eindrucksvoll demonstriert, die einen makrozyklischen Gadoliniumkomplex
mit Galaktose abschirmten [Louie 2000]. Mittels Hochfeld-MRT konnten gezeigt wer-
den, dass nur Galaktosidase-überexprimierende Froschembryos nach Injektion der
molekularen Sonde eine starke Signalzunahme auf T1-gewichteten Bildern zeigen.
Ein weiterer Ansatz ist die MRT-Bildgebung mit aktivierbaren Chemical-exchange-
saturation-transfer- (CEST-)Proben (󳶳Abb. 18.3 (c)). CEST-Bildgebung basiert auf der
selektiven Anregung von an die Bildgebungssonde assoziierten Protonen. Diese tau-
schen sich mit den umgebenden freien Wassermolekülen aus, so dass in der Messung
des Wassersignals nach Anregung der CEST-Sonde ein Signalabfall auftritt. Bei pH-
552 | Fabian Kiessling

(a)
Quenching
Cy5.5
Cy5.5 Cy5.5 Cy5.5
Enzym
Cy5.5

polymerer Träger

(b) extrazellulär intrazellulär

gefangenes
hydrophober Teil Signalmolekül

Signalmolekül

Enzym

Enzymligand Zellmembran

(c) NHR
Amide (H+-Interaktion pH-abhängig)
selektiver Sättigungspuls

RHN Gd-DOTA NHR Transfer H₂O

H₂O Transfer H₂O

NHR H+-Interaktion pH-unabhängig

Abb. 18.3: Schematische Darstellung der Konzepte aktivierbarer molekularer Diagnostika. Ei-
ne enzymatisch aktivierbare optische Sonde ist in (a) konzeptionell erklärt. Rechts daneben
ist das fluoreszenztomographische Bild eines subkutanen Tumors nach Injektion einer Matrix-
Metalloproteinase-(MMP-)aktivierbaren Nahinfrarotsonde (grün) dargestellt. Man sieht deutlich
die enzymatische Aktivierung des Farbstoffes im Bereich des Tumors. (b) zeigt das Prinzip für inter-
zellulär „gefangene“ Sonden und (c) das Prinzip einer pH-Wert sensitiven CEST-Sonde.

sensitiven CEST-Proben ist der Austausch der Protonen pH-abhängig (Amid-Protonen)


und die Signaländerung korreliert daher mit der pH Änderung. Nicht pH-abhängige
Protonen im selben Molekül dienen hierbei als interne Referenz [Aime 2002].

Matrix-Metalloproteinasen (MMP): Gruppe von Enzymen, die die extrazelluläre Matrix (z. B. Kolla-
gen) spalten können.
18 Molekulare Bildgebung | 553

Anatomie Physiologie Metabolismus Molekular

PET/SPECT
optische Bildgebung*
US
MRT
(a) CT

sensitiv quantitativ
PET/SPECT
optische Bildgebung
US **
MRT
* OCT, RAMAN inkl.
(b) CT ** einzelne MB können erfasst werden

Abb. 18.4: Schematische Darstellung der Eignung unterschiedlicher Bildgebungsmodalitäten zur Er-
fassung von Anatomie, Physiologie, Metabolismus und von molekularen Markern (a). US eignet sich
nur für eine intravaskuläre Molekulare Bildgebung. Gewebemetabolismus ist mit US nicht erfassbar.
(b) stellt schematisch die Sensitivität der Bildgebungsmodalitäten und die Quantifizierbarkeit der
hiermit gewonnenen Daten gegenüber.

Chemical Exchange Saturation Transfer (CEST; dt. Sättigungsübertragung bei chemischem Aus-
tausch): molekulare MRT-Sättigungsbildgebung.

18.4 Die Bildgebungsmodalitäten


In der klinischen Routine sind konventionelles Röntgen, Computertomographie (CT),
Magnetresonanztomographie (MRT) und Ultraschall (US) die dominierenden Bildge-
bungsmodalitäten. Diese werden ergänzt durch die nuklearmedizinischen Verfahren
Szintigraphie, Einzelphotonen-Emissions-Computertomographie (SPECT) und Po-
sitronen-Emissionstomographie (PET). Als neue Modalität wurde in den letzten
Jahren die optische Bildgebung in der präklinischen Forschung etabliert; derzeit wird
diese zunehmend für die Diagnostik oberflächlicher Pathologien und die intraopera-
tive Anwendung klinisch erprobt.
All diese Bildgebungsmodalitäten haben unterschiedliche Stärken und Schwä-
chen (󳶳Abb. 18.4). Am wichtigsten für eine Molekulare Bildgebung sind hierbei eine
hohe Sensitivität für molekulare Sonden sowie die Möglichkeit der (absoluten) Quan-
tifizierbarkeit. Insbesondere SPECT und PET erfüllen diese Voraussetzungen und so
ist es nicht verwunderlich, dass diese Modalitäten in der klinischen Molekularen Bild-
gebung vorrangig eingesetzt werden.
554 | Fabian Kiessling

Bildgebungsmodalitäten für die molekulare Bildgebung: nichtinvasive Verfahren wie SPECT, PET,
MRT, US und die optische Bildgebung, die in Verbindung mit molekularen Sonden zelluläre und
molekulare Vorgänge im Körper darstellen können.

18.5 Molekulare Bildgebung mit SPECT und PET


Vergleicht man die Möglichkeiten der Bildgebung mit PET und SPECT, hat SPECT den
Vorteil der Einsetzbarkeit längerlebiger Radiotracer und mehrerer Radiotracer mit un-
terschiedlichen Energien zur gleichen Zeit. Hierdurch kann das Zusammenspiel ver-
schiedener Faktoren (z. B. radiomarkiertes Therapeutikum und Expression eines be-
stimmten Rezeptors) optimal untersucht werden. Der Vorteil der PET ist die absolute
Quantifizierbarkeit der Daten.
Beide Bildgebungsmodalitäten bieten jedoch kaum einen Eigenkontrast zur ana-
tomischen Darstellung, so dass diese häufig zusammen mit MRT und CT eingesetzt
werden. Dies kann entweder in sogenannten Hybridscannern (PET-CT, MRT-PET,
SPECT-CT) oder durch retrospektive Bildfusion erfolgen. Eine Vielzahl biologischer
Phänomene kann durch PET und SPECT untersucht werden. Prominente Beispiele
sind in 󳶳Tab. 18.1 genannt.

Tab. 18.1: Beispiele für häufig verwendete PET- und SPECT-Radiotracer.

Radiotracer Verwendung/Erfassung von


SPECT
Meta-[123I]iodobenzylguanidine Charakterisierung von adrenergem Gewebe
[99mTc]-Microspheres Sentinel-Lymphknoten-Diagnostik
[111In] In-Zevalin/90Y Diagnostik/Therapie von Non-Hodgkin-Lymphomen
99mTc-Pertechnetate Schilddrüsendiagnostik
PET
[18F]-Fluoro-2-deoxy-2-D-glukose Metabolismus (HK-II-Aktivität)
3’-Deoxy-3’-[18F]Fluorothymidin Proliferation
[18F]Fluoromisonidazole Hypoxie
[68Ga](DOTA)-Tyr-Octreotid (DOTA-TOC) Somatostatin-Rezeptor-Expression (neuroendokrine
Tumoren)
[18F]Fluoroethylcholin Prostata-Ca-Metastasen
L-[methyl-11C]Methionin Aminosäure-Transport (Hirntumoren)
18 Molekulare Bildgebung | 555

18.6 Molekulare Bildgebung mit optischer Bildgebung


Die optische nichtinvasive Bildgebung lässt sich in kontrastverstärkte und nicht
kontrastverstärkte Verfahren unterteilen. Zu erstgenannten Verfahren gehören die
optische Kohärenztomographie und die Raman-Spektroskopie. Die kontrastver-
stärkten Verfahren sind die Biolumineszenzbildgebung, die optische Reflexions-
bildgebung und die optische Tomographie.

Optische Bildgebung: nichtinvasive Bildgebung mit (u. a. fluoreszentem) Licht im sichtbaren („op-
tischen“) Wellenlängenbereich. Hierunter fallen u. a. die optische Reflexionsbildgebung, die opti-
sche Tomographie und die Biolumineszenzbildgebung.

Die Biolumineszenzbildgebung ist ein präklinisch etabliertes Verfahren zur Reporter-


genbildgebung. Hierbei werden Zellen mit einem Vektor transfiziert, der das Enzym
Luziferase kodiert. Nach Injektion des Substrates Luziferin in das Versuchstier kommt
es im Fall der Expression der Luziferase zur Spaltung des Substrates und hierdurch
zu einer messbaren Photonenemission. Alternativ kann eine Reportergenbildgebung
auch mit fluoreszenten Proteinen erfolgen. Hierbei wird eine Bildgebung im Nahin-
frarotbereich bevorzugt, da die Absorption und Streuung von Photonen im Gewebe
zwischen 680 und 850 nm am geringsten sind und zudem die Autofluoreszenz in die-
sem Wellenlängenbereich nur gering ausgeprägt ist. Neuere fluoreszente Proteine wie
mPlum, Katuschka und mCherry beginnen derzeit die klassischen Fluoreszenzpro-
teine green fluorescent protein, GFP und red fluorescent protein, RFP für die In-vivo-
Bildgebung zu verdrängen [Day 2009, Hoffmann 2009].
Wenngleich die optische Bildgebung ein sehr sensitives Verfahren ist, können auf-
grund von Streuung und Absorption der Photonen im Gewebe Strukturen, die tiefer als
10 cm liegen, nur schwer detektiert werden. Auch die Quantifizierung optischer Daten
ist unverändert problematisch und gelingt noch am besten mit der diffusen optischen
Tomographie.
Dennoch wird die optische Bildgebung zunehmend in der präklinischen For-
schung und auch klinisch eingesetzt. In diesem Zusammenhang konnte die Fluo-
reszenz-Reflektionsbildgebung unter Verwendung einer Folat-Rezeptor-bindenden
optischen Sonde [Kennedy 2003] erste Erfolge für das intraoperative Auffinden von
Tumorherden aufweisen (klinische Studie noch nicht publiziert).

18.7 Molekulare Bildgebung mit Ultraschall


Bisher wurde der Sonographie nur eine geringe Bedeutung für die Molekulare Bild-
gebung zugewiesen, obwohl diese eine sehr hohe Sensitivität für als Kontrastmittel
verwendete Mikrobläschen aufweist [Kiessling 2009]. Der Grund hierfür ist am ehes-
ten die Tatsache, dass die Mikrobläschen nicht aus dem Gefäßsystem austreten und
556 | Fabian Kiessling

Abb. 18.5: (Gegenüberliegende Seite) (a) zeigt den prinzipiellen Aufbau molekularer US-
Kontrastmittel und das elektronenmikroskopische Bild mehrerer Polycyanoacrylat-Mikrobläschen
(MB) (Balken 1 μm). Molekulare US-Kontrastmittel bestehen aus stabilisierten Mikrobläschen, an
deren Oberfläche Bindeliganden für die Zielstruktur gekoppelt werden. Im präklinischen Einsatz
funktionalisiert man die Oberfläche der MB häufig mit Streptavidin, das eine schnelle und unkom-
plizierte Kopplung unterschiedlicher biotinylierter Liganden erlaubt. Da Streptavidin für Menschen
immunogen ist, wird für den klinischen Einsatz eine direkte Kopplung bevorzugt.
Zwei Detektionsverfahren werden vorwiegend für die Molekulare US-Bildgebung eingesetzt: Wei-
sen die Bläschen eine lange Targetverweildauer auf, können diese mittels SPAQ (Sensitive Particle
Acoustic Quantification) nachgewiesen werden (b). Hierbei wartet man nach Injektion, bis nur noch
gebundene Mikrobläschen vorliegen. Der US-Transducer wird dann mittels eines Servomotors mi-
krometerweise über das Gewebe geführt und die MB werden mit hochenergetischen akustischen
Pulsen zerstört. Da ab dem zweiten Puls nur noch MB in nicht überlappenden Bereichen zerstört
werden, ergeben sich dünne Anregungsschichten mit nur einem (oder wenigen) MB/Voxel, was eine
Quantifizierung ermöglicht. Die Unterschiede eines ohne und eines mit SPAQ aufgenommen Bildes
werden anhand einer MB-enthaltenden Rattenleber demonstriert.
Alternativ kann man zu einem Zeitpunkt, an dem ausreichend MB an die Zielrezeptoren gebunden
haben, jedoch noch freie Bläschen flottieren, einen destruktiven Puls applizieren und das Signal-
plateau vor und direkt nach dem Puls vergleichen (c). Da die Bindung der MB an die Rezeptoren
längere Zeit benötigt, entspricht die Differenz beider Plateaus dem Anteil gebundener MB. Dies wird
an dem Beispiel in (c) deutlich, bei dem einmal nicht bindende und einmal VEGFR2-bindende MB in
eine tumortragende Maus injiziert wurden. Nur im Fall der bindenden MB zeigt sich eine Differenz in
den Signalplateaus.

somit nur vaskuläre Zielstrukturen adressiert werden können. Für die Bildgebung von
Angiogenese und vaskulärer Inflammation ist die Sonographie jedoch ein optimales
Verfahren: Es wurde mehrfach gezeigt, dass selbst kleine Unterschiede in der Expres-
sion angiogener Moleküle auf den Gefäßwänden sensitiv erfasst werden. Auch können
mittels Sonographie kombinierte Studien zu funktionellen und molekularen Charak-
teristika von Gefäßen kostengünstig und effizient erfolgen (󳶳Abb. 18.5). Erste moleku-
lare Ultraschallkontrastmittel befinden sich derzeit für den Einsatz bei der Diagnostik
von soliden Tumoren in der klinischen Prüfung.

Molekulare Ultraschallbildgebung, „Molekularer Ultraschall“: Verwendung zielspezifischer Mi-


kroblasen zur Markierung von Krankheitsprozessen und deren Charakterisierung mittels Sono-
graphie.

18.8 Molekulare Bildgebung mit Magnetresonanztomographie


Die Magnetresonanztomographie ist die Bildgebungsmodalität mit dem besten
Weichteilkontrast. Bereits ohne den Einsatz von Kontrastmitteln können wichtige
physiologische und morphologische Charakteristika (z. B. Zellularität, Wassergehalt,
18 Molekulare Bildgebung | 557

(a) molekulares MB

MB

biotinylierter
Streptavidin Ligand
SAPQ

(b) nicht überlappender Bereich

MB bereits zerstört
(überlappend)

(c) unspez. MB VEGFR2-MB


100 100

80 80
Signalintensität

Signalintensität

Puls

60 60
destruktiver Puls

destruktiver Puls

40 40
destruktiver

20 20

0 0
0 5 10 15 20 25 0 5 10 15 20 25
Sekunden Sekunden

Perfusion, Metabolismus z. B. mit Magnetresonanz-Spektroskopie) erhoben werden.


Allerdings ist die Sensitivität der MRT für Kontrastmittel gering und größere Signal-
moleküle sind meist notwendig, um die oft relativ geringe Targetexpression im patho-
logischen Gewebe erfolgreich zu erfassen. Die pharmakokinetischen Eigenschaften
großer Signalmoleküle sind jedoch oft nur schwer zu kontrollieren und klinisch zuver-
lässig arbeitende Diagnostika daher kaum beschrieben. Als Konzept fokussiert man
sich daher gerne auf die Markierung gesunden Gewebes (z. B. Scavenger-Rezeptoren
in Hepatozyten) oder man nutzt die starke Anreicherung von eisenhaltigen Nanopar-
558 | Fabian Kiessling

tikeln im retikulo-endothelialen System, um gesundes gegenüber pathologischem


Gewebe abzugrenzen (z. B. Metastasen in Lymphknoten oder der Leber). Auch die
In-vitro-Markierung von Zellen mit MRT-Markern und die nachfolgende Beobachtung
der Migration der Zellen im Organismus ist bei höheren Feldstärken gut möglich
[Hoehn 2007].
Alternative Ansätze der Molekularen MRT-Bildgebung beinhalten die Verwen-
dung von CEST-Sonden oder von Sonden mit alternativen Kernen (z. B. 19 F). Hierdurch
wird die Spezifität der MRT erhöht, wobei jedoch die Sensitivität nicht verbessert wird
bzw. sogar eher deutlich geringer ausfällt. Ob diese Konzepte sich für eine In-vivo-
Bildgebung routinemäßig umsetzen lassen, ist derzeit noch Gegenstand der For-
schung.
Ein für bestimme Aspekte der Molekularen Bildgebung vielversprechender Ansatz
ist die MRT-Bildgebung mit hyperpolarisierten Substanzen. Dieser Ansatz ist durch
die kurze Halbwertszeit des Hyperpolarisationseffektes limitiert und daher für lang-
samere Sonden-Zell-Interaktionen nicht geeignet. Er kann jedoch sehr gut eingesetzt
werden, um schnelle zelluläre Transportvorgänge abzubilden, z. B. die Anreicherung
von 13 C-Pyruvat (metabolisches Diagnostikum für die MRT) [Rowland 2010].

18.9 Molekulare Bildgebung mit Computertomographie


Es gibt nur vereinzelte Berichte über die erfolgreiche Verwendung der Computerto-
mographie für eine Molekulare Bildgebung [Cormode 2010]. Hierbei wurden meist
Nanopartikel (z. B. Gold-basiert) mit Target-bindenden Molekülen oberflächenmodi-
fiziert. Problematisch ist jedoch die im Vergleich zur MRT noch geringere Sensitivi-
tät der Computertomographie für Kontrastmittel. Zwar ist eine quantitative Analyse
theoretisch gut möglich, in der Praxis scheitert dies jedoch an der zu geringen Signal-
änderung. Ohne die Einführung neuartiger Systemkomponenten (z. B. hochsensiti-
ver spektraler Detektoren) wird die Rolle der CT in der klinischen Molekularen Bild-
gebung hauptsächlich die Unterstützung anderer Modalitäten mit morphologischen
und funktionellen Daten bleiben (z. B. PET-CT, SPECT-CT).

Quellenverzeichnis
Aime S., Barge A., Delli Castelli D., Fedeli F., Mortillaro A., Nielsen F. U., Terreno E.: Paramagnetic
lanthanide(III) complexes as pH-sensitive chemical exchange saturation transfer (CEST)
contrast agents for MRI applications. Magn Reson Med 2002; 47: 639–648.
Cohen B., Dafni H., Meir G., Harmelin A., Neeman M.: Ferritin as an endogenous MRI reporter for
noninvasive imaging of gene expression in C6 glioma tumors. Neoplasia 2005; 7: 109–117.
Cormode D. P., Roessl E., Thran A., et al.: Atherosclerotic plaque composition: analysis with
multicolor CT and targeted gold nanoparticles. Radiology 2010; 256: 774–782.
Day R. N., Davidson M. W.: The fluorescent protein palette: tools for cellular imaging. Chem Soc Rev
2009; 38: 2887–2921.
18 Molekulare Bildgebung | 559

Hoehn M., Wiedermann D., Justicia C., Ramos-Cabrer P., Kruttwig K., Farr T., Himmelreich U.: Cell
tracking using magnetic resonance imaging. J Physiol 2007; 584: 25–30.
Hoffman R. M.: Imaging cancer dynamics in vivo at the tumor and cellular level with fluorescent
proteins. Clin Exp Metastasis 2009; 26: 345–355.
Kennedy M. D., Jallad K. N., Thompson D. H., Ben-Amotz D., Low P. S.: Optical imaging of metastatic
tumors using a folate-targeted fluorescent probe. J Biomed Opt 2003; 8: 636–641.
Kiessling F., Huppert J., Palmowski M.: Functional and molecular ultrasound imaging: concepts and
contrast agents. Curr Med Chem 2009; 16: 627–642.
Louie A. Y., Hüber M. M., Ahrens E. T., Rothbächer U., Moats R., Jacobs R. E., et al.: In vivo
visualization of gene expression using magnetic resonance imaging. Nat Biotechnol 2000; 18:
321–325.
Rowland I. J., Peterson E. T., Gordon J. W., Fain S. B.: Hyperpolarized 13carbon MR. Curr Pharm
Biotechnol 2010; 11: 709–719.
Wagenaar D. J., Weissleder R., Hengerer A.: Glossary of molecular imaging terminology. Acad Radiol
2001; 8: 409–420.

Testfragen
1. Was versteht man unter dem Begriff „Molekulare Bildgebung“ und was wird dabei abgebildet?
2. Was versteht man unter einem molekularen Marker? Was ist ein Reportergen?
3. Welche Bildgebungsmodalitäten eignen sich für die Molekulare Bildgebung? Mit welchen Maß-
nahmen können sie jeweils für die Molekulare Bildgebung eingesetzt werden? Welche Vor- und
Nachteile haben sie bezüglich der Molekularen Bildgebung?
4. Was sind USPIOs und wozu dienen sie?
5. Für welche Indikationen wird die Molekulare Bildgebung benötigt?
6. Was versteht man unter Theranostik?
Olaf Dössel, Tim C. Lüth
19 Interventionelle Bildgebung

19.1 Medizinische Fragestellung bei der interventionellen Bildgebung | 562


19.2 Interventionelle Radiologie – interventionelle Methoden mit
Röntgenstrahlen | 563
19.3 Interventionelle Ultraschall-Bildgebung | 565
19.4 Interventionelle Magnetresonanztomographie | 566
19.5 Interventionelle Endoskopie | 567
19.6 Mikroskopie im Operationssaal | 568
19.7 Bildgebung bei der Strahlentherapie – MV-Imaging und EPIDs | 568
19.8 Lokalisieren und Registrieren | 569
19.9 Darstellung der präoperativen und der intraoperativen Bilder | 571
19.10 Trends und Entwicklungen | 572

Zusammenfassung: Bei einer „Intervention“ dringt der Arzt mit Instrumenten in den
Körper ein und charakterisiert oder verändert gezielt das Körpergewebe vor Ort. Das
gelingt oft besser und genauer, wenn die Intervention durch Bildgebung unterstützt
wird. Nach einer Darstellung der medizinischen Fragestellung bei der interventionel-
len Bildgebung werden die interventionelle Radiologie, Ultraschallbildgebung und
MRT beschrieben. Auch bei der interventionellen Endoskopie spielt die Bildgebung
eine große Rolle. Der Bildgebung bei der Strahlentherapie (MV-Imaging, Electronic
Portal Imaging) ist ein eigener Abschnitt gewidmet. Modalitätsübergreifend werden
die Themen „Lokalisieren“ und „Registrieren“ angesprochen und die Methoden der
gleichzeitigen Visualisierung von prä- und intraoperativen Bildern erläutert.

Abstract: During a medical “intervention” the surgeon inserts instruments into the pa-
tient’s body in order to characterize or modify tissue. Often a better and more precise
result is achieved if the intervention is guided by imaging. After presenting medical
challenges that require interventional imaging, this chapter describes interventional
radiology, ultrasound, and MRI. Further, image guidance is very important during in-
terventional endoscopy. A separate chapter is devoted to imaging during radiation
therapy (MV-Imaging, Electronic Portal Imaging). Across the modalities the topics “lo-
calization” and “registration” are presented, and methods of simultaneous visualiza-
tion of pre- and intraoperative images are explained.
562 | Olaf Dössel, Tim C. Lüth

19.1 Medizinische Fragestellung bei der interventionellen


Bildgebung
Interventionen im medizinischen Sinne sind Eingriffe in den menschlichen Körper mit
dem Ziel, eine Heilung herbeizuführen. Dazu gehören insbesondere die chirurgischen
Disziplinen, bei denen in Operationen der Körper des Patienten geöffnet wird, um im
Inneren Veränderungen vorzunehmen, z. B. die Entfernung von krankhaftem Gewebe
(Resektion) oder ganzen Organen (Ektomie), das Richten und Verbinden gebroche-
ner Knochen (Reposition nach Fraktur) oder auch das Entfernen und Verbinden von
Blutgefäßen (Anastomosen), um nur ein paar wenige Beispiele zu nennen. Die Räume
für Operationen („OP“) unterliegen allerhöchsten Anforderungen an Sterilität und Hy-
giene – dem müssen auch die bildgebenden Systeme Rechnung tragen. 󳶳Tabelle 19.1
zeigt eine Übersicht über die chirurgischen Disziplinen.
Ein weiteres wichtiges Feld der Interventionen ist die minimalinvasive Chirurgie.
Unter dem Akronym NOTES (Natural Orifice Transluminal Endoscopic Surgery ) werden
Interventionen zusammengefasst, bei denen der Arzt durch die natürlichen Körperöff-
nungen (Hals, Nase, Ohren, Vagina, Ureter, Anus) in den Körper vordringt. Als Beispiel
sollen hier nur die Entfernung von Polypen im Enddarm durch den Anus oder das Ab-
tragen von wucherndem Prostatagewebe durch den Harnleiter genannt werden.

Natural Orifice Transluminal Endoscopic Surgery (NOTES): chirurgischer Eingriff am Patienten, der
mittels Zugang durch natürliche Körperöffnungen erfolgt, s. 󳶳 Band 1, Kap. 12.

In anderen Bereichen der endoskopischen Chirurgie werden kleine Schnitte in der


Haut gesetzt, um an den Zielort der Intervention zu gelangen. Bei der Laparoskopie
wird durch einen Trokar ein Zugang zum Bauchraum geschaffen, um beispielsweise
Zysten an den Eierstöcken, den Blinddarm oder die Gallenblase zu entfernen.
Interventionen sind aber auch Eingriffe in das Blutgefäßsystem und das Herz mit-
hilfe von Kathetern. Hierbei werden z. B. Stenosen aufgeweitet und Stents platziert,
Aneurysmen mit kleinen Spiralen verödet oder mithilfe von hochfrequentem Strom
gezielt Narben im Herzgewebe gesetzt, um Arrhythmien zu terminieren. Oft soll auch

Tab. 19.1: Die chirurgischen Disziplinen.

Allgemeinchirurgie Thoraxchirurgie Hals-Nasen-Ohren-Chirurgie


(Lunge und Brustkorb)
Gefäßchirurgie Unfallchirurgie und Mund-Kiefer-
(Arterien und Venen) Orthopädie Gesichtschirurgie
Kinderchirurgie Viszeralchirurgie (Bauchraum) Neurochirurgie (Gehirn,
Wirbelsäule, Rückenmark)
Plastische und ästhetische Herzchirurgie
Chirurgie
19 Interventionelle Bildgebung | 563

nur im Rahmen einer Biopsie eine Gewebeprobe von suspektem Gewebe entnommen
werden, um dieses Gewebe dann in einer histologischen Untersuchung sehr genau zu
charakterisieren.
Bei allen diesen interventionellen Methoden ist es sehr wichtig, dass der Arzt den
bestmöglichen Weg zu dem Zielorgan sorgfältig plant, um dabei möglichst wenig ge-
sundes Gewebe zu schädigen. Bei der Intervention muss er jederzeit genau wissen,
wo sich seine Instrumente im Körper des Patienten gerade befinden. Er möchte ger-
ne wissen, welches Gewebe auf seinem Weg gerade vor ihm liegt (z. B. ein Blutgefäß,
welches nicht verletzt werden darf) und ob das Ziel des Eingriffs erreicht wurde (z. B.
das vollständige Entfernen von Tumorgewebe).
Dazu sind präoperative Bilder unbedingt nötig. Fast immer werden vor einer Inter-
vention 3D-Datensätze mit den in diesem Buch beschriebenen Methoden (insbeson-
dere Ultraschall, CT und MRT) aufgenommen. Dazu sind aber auch oft Bilder während
des Eingriffs nötig, da sich die Situation im Körper durch den Eingriff verändert hat.
Das Gehirn verändert seine Form, sobald der Schädel geöffnet wird (brain shift). Die
Leber verändert ihre Form, wenn der Bauchraum bei einer Laparoskopie aufgeweitet
wird oder wenn bereits Teile der Leber entfernt sind.

Überlagerung von prä- und intraoperativen Bildern: Einsatz von Bildern (oft in 3D) während der
Intervention, die vorher aufgenommen und für die Befundung verwendet wurden. Die während
der Intervention aufgenommenen Bilder müssen dann ortsgenau mit den präoperativen Bildern
überlagert und geeignet visualisiert werden.

Von der geeigneten Bildaufnahme während der Intervention, der ortsrichtigen Über-
lagerung mit präoperativen Bildern und von der bestmöglichen Darstellung der Bilder
auf einem Bildschirm handelt dieses Kapitel. Mehr zum Thema „Bild- und computer-
unterstützte Interventionen“ findet der Leser in 󳶳Band 8 dieser Reihe. Dort wird auch
auf die besonderen Aspekte der computer- und roboterunterstützten Interventionen
eingegangen.
In diesem Kapitel soll zusätzlich – auch wenn sie nicht offiziell zu den interven-
tionellen Methoden gehört – die Bildgebung für die Strahlentherapie kurz dargestellt
werden. Im weiteren Sinne ist auch die Strahlentherapie eine Intervention, die ganz
wesentlich durch Bilder geplant und überwacht wird.

19.2 Interventionelle Radiologie – interventionelle Methoden mit


Röntgenstrahlen
Der im 󳶳Kap. 2 (Projektionsröntgen) beschriebene sogenannte C-Bogen ist sicherlich
eines der wichtigsten Werkzeuge der interventionellen Techniken. Mithilfe eines Rönt-
genbildverstärkers bzw. einer flachen Röntgendetektor-Matrix kann schnell und fle-
xibel ein Bild aufgenommen und sofort auf dem Monitor dargestellt werden. Der C-
564 | Olaf Dössel, Tim C. Lüth

Abb. 19.1: C-Bogen im Katheterlabor (Foto


T. Oesterlein, IBT am KIT).

Bogen kann sehr schnell in die richtige Position gebracht werden. Bei Operationen
werden oft mobile C-Bogen-Systeme eingesetzt (besondere Anforderungen an Sterili-
tät!). Für kleinere Interventionen gibt es spezielle Räume (z. B. das sogenannte Kathe-
terlabor), in denen ein oder mehrere ineinander verschachtelte C-Bogen Systeme an
der Decke verankert sind (󳶳Abb. 19.1).

Interventionelle Radiologie: Einsatz der Röntgen-Bildgebung während einer Intervention oder


während eines chirurgischen Eingriffs.

Eines der wichtigsten Einsatzgebiete ist die Koronarangiographie mit nachfolgender


PTCA (perkutane transluminale coronare Angioplastie) und Stent-Platzierung
[Keller 2000]. Wird mit der kontrastmittelunterstützten Darstellung der Herzkranzge-
fäße eine Stenose (Gefäßverengung) entdeckt, so wird mit einem aufblasbaren Ballon
das Blutgefäß an dieser Stelle aufgeweitet. Danach wird – wenn nötig – ein Stent (Ge-
fäßstütze) eingesetzt, um das Gefäß dauerhaft durchgängig zu erhalten. Aneurysmen
sind Gefäßaussackungen, die aufreißen und dann zu tödlichen inneren Blutungen
führen können. Hier werden unter Röntgenkontrolle kleine Spiralen (coils) in der
Aussackung platziert, die zu einer Verklumpung des Blutes führen und somit den
Druck auf die Gefäßwand reduzieren. Oft muss bei diesen Prozeduren aus mindestens
zwei orthogonalen Richtungen auf den Gefäßbaum geschaut werden.
Ein weiteres wichtiges Einsatzgebiet ist die Heilung von Herzrhythmusstörungen.
Hierbei wird zunächst präoperativ ein 3D-Bild des Herzens aufgenommen (CT oder
MRT). Im Katheterlabor wird meistens über eine Beinvene der Zugang zum Gefäßsys-
tem geschaffen und ein Katheter zum Herzen vorgeschoben. Dort werden dann mit
19 Interventionelle Bildgebung | 565

Elektroden an der Katheterspitze elektrische Messungen vorgenommen und punktu-


ell oder linienförmig Narben ins Gewebe eingebracht. Am häufigsten wird hierfür ein
Hochfrequenzstrom eingesetzt (RF-Ablation). So kann Vorhofflimmern geheilt und
ein zu häufiges Auftreten von gefährlichen ventrikulären Extrasystolen terminiert wer-
den.
Das medizinische Team (Ärzte, Assistenten, OP-Schwestern) muss sich vor der io-
nisierenden Strahlung schützen. Da der Körper des Patienten während einer Rönt-
genaufnahme selber zum Röntgenstrahler wird, wird der gesamte Raum von Röntgen-
strahlung getroffen. Das anwesende Personal muss sich mit Bleischürzen und Visieren
aus durchsichtigen Absorbern schützen.
Das Projektionsröntgen liefert nur „Schattenbilder“. Sind während der Interventi-
on neue 3D-Röntgenbilder nötig, so muss ein CT-System im Raum vorhanden sein. Da
ein CT-System sehr kostspielig ist und eigentlich nur wirtschaftlich betrieben werden
kann, wenn es auch „ausgelastet“ ist, gibt es Kliniken, in denen ein CT-System von der
einen Seite für die reguläre Patientenversorgung genutzt wird und von der anderen
Seite (nach gründlicher Sterilisierung) von einem OP aus zugänglich ist. Auch mobile
CT-Systeme sind hier im Einsatz.
Mit den neuen flachen Bilddetektoren im C-Bogen wurden auch für den OP neue
Optionen möglich. So kann heute ein C-Bogen in ca. 3 s um den Patienten rotieren und
einen 3D-Datensatz akquirieren. Im 󳶳Kap. 3 (Computertomographie) wird auf die be-
sondere Problematik der Kegelstrahl-CT („cone beam“ CT) eingegangen. Bei einem
Schwenk des C-Bogens werden nämlich eigentlich keine ausreichenden Daten für ei-
ne 3D-Bild-Rekonstruktion gewonnen. Trotzdem gibt es heute neue Rekonstruktions-
algorithmen, mit denen gute 3D-Bilder erzeugt werden können [Hansis 2010]. Dies ist
für die Zukunft der interventionellen Radiologie von sehr großer Bedeutung.

19.3 Interventionelle Ultraschall-Bildgebung


Die großen Vorteile der Ultraschall-Bildgebung wurden schon im 󳶳 Kap. 8 (Ultraschall-
Bildgebung) dargestellt: Das Verfahren ist preiswert, flexibel und kann schnell überall
eingesetzt werden. Ein Ultraschall-Messkopf kann während einer minimalinvasiven
Intervention jederzeit zur Orientierung der Geräte und Systeme im Körper eingesetzt
werden. In eine sterile Hülle eingepackt, kann der Schallkopf auch im Operationssitus
verwendet werden.

Interventionelle Ultraschallbildgebung: Einsatz der Ultraschallbildgebung während einer Inter-


vention oder während eines chirurgischen Eingriffs.

Die Schwierigkeit beim Einsatz von Ultraschall ist, dass die Orientierung des Ultra-
schall-Messkopfes im Raum meistens nicht genau bekannt ist. Damit ist eine Über-
lagerung der Ultraschall-Bilder mit präoperativen Bilddaten zur Zeit klinisch noch
nicht möglich. Forschungsprojekte widmen sich diesem schwierigen Thema. Hierbei
566 | Olaf Dössel, Tim C. Lüth

werden Lokalisations-Systeme am Schall-Messkopf und an markanten Punkten des


Patienten befestigt. Damit kann das aktuelle Ultraschall-Bild in einen präoperativen
Datensatz eingetragen werden. In dieser einfachen Form ist der Nutzen für Weich-
teil-Operationen noch nicht besonders groß, da sich diese Organe während der OP
stark verformen. Es müssen Methoden der elastischen Registrierung hinzukommen
(s. 󳶳Kap. 19.8). Die Resektion von tumorbehaftetem Lebergewebe mit Unterstützung
durch präoperative Bilder und intraoperativer Ultraschall-Bildgebung ist eine inter-
essante Option [Oldhafer et al. 2009, Schwaiger et al. 2011].
Ultraschall kann nicht nur zur Bildgebung, sondern auch zur Gewebeverände-
rung eingesetzt werden. Bei der Stoßwellen-Lithotripsie werden Nierensteine mit
hochenergetischem und fokussiertem Ultraschall zertrümmert, damit sie danach auf
natürlichem Wege durch den Harnleiter den Körper verlassen können. Der Ultra-
schall-Fokus muss genau auf den Ort des Nierensteines justiert werden. Hierzu dient
meistens ein Röntgensystem, da es die höchste Positioniergenauigkeit erreicht. Aber
auch Ultraschall-Bildgebung wird hierfür eingesetzt.
Ein wichtiges Gebiet der interventionellen Ultraschall-Bildgebung ist in jüngs-
ter Zeit der intravaskuläre bzw. der endoluminale Ultraschall (Ultraschall-Bildgebung
durch Katheter aus dem Inneren eines Blutgefäßes bzw. mithilfe eines Endoskopes).
Der technologische Fortschritt erlaubt heute Ultraschall-Köpfe mit einem Durchmes-
ser von einigen Millimetern.

19.4 Interventionelle Magnetresonanztomographie


Soll ein MRT-System während einer Intervention eingesetzt werden, so sind zu-
nächst eine ganze Reihe technischer Probleme zu lösen: Die üblichen Einrichtungen
zur Überwachung der Vitalfunktionen des Patienten wie EKG, Pulsoxymetrie, Blut-
druckmessung dürfen nicht in einen MRT-Untersuchungsraum gebracht werden. Sie
werden durch das starke Magnetfeld (u. a. Sättigung aller Induktivitäten mit Kern)
und die HF-Pulse gestört. Gleichzeitig stören sie auch selber oft die Bildaufnahme.
Inzwischen gibt es aber für die wichtigsten Monitoring-Systeme MRT-kompatible
Varianten.

Interventionelle Magnetresonanztomographie: Einsatz der MRT-Bildgebung während einer Inter-


vention oder während eines chirurgischen Eingriffs.

Lange metallische Objekte wie Führungsdrähte oder Katheter dürfen nicht verwen-
det werden, da sich diese Objekte wie Antennen für die Hochfrequenz verhalten und
die Bildaufnahme massiv stören können. Hat das distale Ende der Leitung auch noch
einen elektrischen Kontakt mit dem Körper des Patienten (z. B. Katheter für die Elek-
trophysiologie des Herzens), kann es zu großen induzierten Strömen im Körper des Pa-
tienten kommen, die wiederum Arrhythmien induzieren oder das Gewebe vor der Elek-
trode sehr stark erwärmen können. Hier müssen noch viele Probleme gelöst werden.
19 Interventionelle Bildgebung | 567

Die interventionelle MRT verspricht aber auch viele Vorteile: 3D-Bilder während
des Eingriffs mit hohem Weichteilkontrast und ohne mögliche Schädigung des be-
handelnden Arztes. So kann beispielsweise Tumorgewebe mit MRT teilweise besser
erkannt werden als mit dem bloßen Auge. Der Chirurg kann sich also mit MRT-Bildern
sehr gut vergewissern, ob der Tumor vollständig entfernt wurde. Die weitgehend be-
liebige Ausrichtung der Bildebene bei der MRT erlaubt es beispielsweise, die Ebene
unmittelbar vor einer Biopsienadel abzubilden um so sicherzustellen, dass kein Blut-
gefäß getroffen wird. So gibt es heute MRT-geführte Systeme für die Biopsie der Mam-
ma oder der Prostata. Mit MRT-Systemen kann auch die Erwärmung des Gewebes bei
einer Thermotherapie quantitativ und ortsaufgelöst gemessen werden.
Ein dediziertes MRT-System für die Intervention bzw. Chirurgie wurde vor einigen
Jahren vorgestellt: Das OP-Team und der Patient befinden sich innerhalb eines sehr
großen Helmholtz-Spulenpaares zur Erzeugung des Magnetfeldes („double dough-
nut“). Das System ist möglicherweise zu kostspielig und hat sich nicht durchgesetzt.
Heute sind konventionelle MRT Systeme mit allen Zusatzeinrichtungen für die MRT-
kompatible Intervention im Einsatz. Hierbei wird auch die schon oben für interven-
tionelle CT Systeme beschriebene Version eines „zweiseitigen Zugangs“ installiert.
Schließlich sind die offenen MRT Systeme mit einem vertikalen Grundfeld und der
Möglichkeit, von allen Seiten an den Patienten zu gelangen, für die interventionelle
MRT hervorragend geeignet.

19.5 Interventionelle Endoskopie


Im 󳶳Kap. 13 (Endoskopie) wird schon ausführlich auf die endoskopischen Interven-
tionen eingegangen. Um unnötige Dopplungen zu vermeiden, wird an dieser Stelle
nur auf dieses Kapitel verwiesen und eine Tabelle (󳶳Tab. 19.2) der wichtigsten inter-
ventionellen Methoden gezeigt, die mithilfe endoskopischer Bilder realisiert werden.
In einigen Bereichen der Herzchirurgie werden gerade (2013) zunehmend mi-
nimalinvasive bildgeführte Interventionen eingesetzt (z. B. Transkatheter-Aorten-
klappenimplantation, TAVI).

Tab. 19.2: Interventionelle endoskopische Methoden (kleine Auswahl).

Zugang durch natürliche Körperöffnungen Zugang durch kleine Schnitte


Entfernung suspekter Darmpolypen: Entfernen von Zysten an den Eierstöcken
transanale endoskopische Mikrochirurgie, Blinddarm-Entfernung
TEM Entfernung der Gallenblase
Abtragen von Prostata-Wucherungen: Bandscheiben-Operationen
transurethrale Prostataresektion Operationen am Kniegelenk –
Veröden von Myomen in der Gebärmutter Meniskus-Operationen
Resektionen von Magengewebe, ausgewählte Herzoperationen
Neuanschluss von Darm und Magen
568 | Olaf Dössel, Tim C. Lüth

19.6 Mikroskopie im Operationssaal


Insbesondere in der Neurochirurgie stellen sich oft Aufgaben, bei denen der Chirurg
mit einer Genauigkeit im Submillimeter-Bereich arbeiten muss. Hierfür wurden spe-
zielle Mikroskope entwickelt. Sie haben eine mittlere Vergrößerung (6- bis 40-fach),
einen großen Abstand zum Patienten, um die Zugriffsmöglichkeiten nicht zu behin-
dern, und sie benötigen eine exzellente Ausleuchtung des OP-Situs. Neue Systeme er-
lauben auch eine fluoreszenzoptische Untersuchung, wobei entweder die natürliche
Fluoreszenz genutzt wird (z. B. um verdeckte Blutgefäße sichtbar zu machen) oder ge-
zielt Fluorochrome hinzugefügt werden, um erkranktes Gewebe hervorzuheben. Hier-
von handelt das 󳶳Kap. 20, Operationsmikroskopie.

19.7 Bildgebung bei der Strahlentherapie – MV-Imaging und


EPIDs
Die Planung einer Strahlentherapie wird heute mit 3D-Datensätzen der Computerto-
mographie durchgeführt. Die Ziele und Methoden der Strahlentherapieplanung sind
nicht Gegenstand dieses Buches. Die zu applizierende Dosis wird meistens in Form
von hochenergetischer Gammastrahlung (Photonenenergie: einige MeV) an mehreren
aufeinanderfolgenden Tagen und in jeder Sitzung wiederum aus mehreren Richtun-
gen mit unterschiedlichen Kollimatoren angewendet. Hierbei muss der Tumor jedes
Mal optimal getroffen und das gesunde Gewebe so gut wie möglich geschont werden.
Positioniersysteme mit individuellen Kunststoffmasken und Lichtzeigern in den Be-
strahlungssystemen unterstützen den Arzt dabei. Trotzdem kann bei verschiebbaren
inneren Organen und bei Zielstrukturen, die sich mit der Atmung bewegen, nicht ga-
rantiert werden, dass die therapeutische Strahlung wirklich genau trifft. Es wurden
im Wesentlichen zwei Ansätze realisiert, um die Zielgenauigkeit weiter zu verbessern:
flächenhafte Detektoren für die therapeutische Strahlung und mit dem Strahlenthe-
rapie-System verbundene Röntgen-Systeme.

Electronic Portal Imaging Device (EPID): bildgebendes System, das während einer Strahlenthera-
pie die durch den Patienten hindurchtretende Gammastrahlung darstellt. Es dient der schnellen
Kontrolle, ob die Gammastrahlung exakt das Zielorgan trifft, und gesundes Gewebe so gut wie
möglich geschont wird.

Die flächenhaften Bilddetektoren für die Gammastrahlung hinter dem Patienten


haben ein zentrales Problem: Die Gammastrahlung geht durch die im 󳶳Kap. 2 (Pro-
jektionsröntgen) beschriebenen Bildverstärker oder flachen Bilddetektoren fast un-
gehindert hindurch, d. h., die DQE (Detective Quantum Efficiency, vgl. 󳶳Kap. 21.5,
Systemtheorie) beträgt nur einige Prozent. Gleichzeitig ist der Weichteilkontrast bei
den hohen Energien der Gammastrahlung noch kleiner als im Bereich der Röntgen-
19 Interventionelle Bildgebung | 569

Linear- Gamma-Quant
Beschleuniger Gamma-Quelle
Kollimator
Metall

Patient

Leuchtschirm
Leuchtstoff
Video-
Elektronen
(a) Kamera Spiegel (b)

Abb. 19.2: Electronic Portal Imaging Device, EPID, links: Systemkonzept, rechts: Fluoreszenzschirm
mit Metallfolie.

strahlung. Um dem zu begegnen, wurden spezielle Detektor-Systeme entwickelt –


sogenannte EPIDs (Electronic Portal Imaging Device, 󳶳Abb. 19.2) [Kirby 2006]. Man
spricht auch von Megavolt-Imaging (MeV-Imaging). Hierbei wird auf eine Leucht-
stoff-Folie, wie sie im 󳶳Kap. 2 (Projektionsröntgen, s. 󳶳Kap. 2.5.1) beschrieben wurde,
eine dünne Metallfolie aufgebracht [Kausch 1999]. Diese Folie hat eine hohe Wech-
selwirkungswahrscheinlichkeit mit Gammaquanten und erzeugt einen Elektronen-
schauer, der dann mit der Leuchtstoff-Folie nachgewiesen wird. So kann in der ersten
Sekunde ein Bild erzeugt werden, mit dessen Hilfe entschieden werden kann, ob die
Bestrahlung fortgesetzt wird oder eine Nachpositionierung des Patienten nötig ist
(daher der Name „Portal Imaging“).
Wegen des schlechten Kontrastes bei MeV-Gammaquanten werden auch konven-
tionelle Röntgensysteme eingesetzt. Um zusätzlich eine Tiefeninformation zu bekom-
men, sind mindestens zwei Röntgensysteme, die den Körper aus orthogonalen Rich-
tungen betrachten, notwendig. So kann zwar immer noch kein 3D-Bild des Patienten
erzeugt werden, aber die beiden Projektionen können mit berechneten Projektionen
durch einen 3D-CT-Datensatz hindurch verglichen werden. Ein intelligenter Vergleich
beantwortet nicht nur die Frage, ob der Patient richtig positioniert wurde. Er kann
auch feststellen, in welche Richtung der Patient (bzw. das System) verschoben und
um welche Achse er gedreht werden müsste, damit danach die Zielgenauigkeit per-
fekt ist.

19.8 Lokalisieren und Registrieren


Bei der bildunterstützten Intervention ist es nötig, den Ort des Patienten (bzw. den
Ort des Zielorgans) in Relation zum bildgebenden System und in Relation zu anderen
Geräten (z. B. einer Biopsie-Nadel) sehr genau zu messen. Üblicherweise wird eine Ge-
nauigkeit besser als 1 mm angestrebt (in der Neurochirurgie sogar noch genauer). 3D-
Lokalisationssysteme sind im 󳶳Band 8 (Bild- und computerunterstützte Interventio-
570 | Olaf Dössel, Tim C. Lüth

nen) ausführlich beschrieben. An dieser Stelle werden diese Systeme nur mit wenigen
Stichworten vorgestellt (󳶳Tab. 19.3).
Diese Systeme können nicht nur den Ort (x-, y-, z-Koordinaten), sondern auch
die Neigung des Gerätes (theta und phi) bzw. die Rotation des Patienten relativ zum
Gerät bestimmen. Sie alle erreichen etwas unterschiedliche Genauigkeiten und un-
terliegen verschiedenen Störeinflüssen. Optische Systeme sind sehr präzise, aber sie
versagen, wenn die Sichtlinie unterbrochen ist. Magnetische Systeme werden durch
größere metallische Objekte, in denen das magnetische Wechselfeld Wirbelströme in-
duzieren kann, gestört. Impedanzbasierte Systeme erreichen nur eine relative Mess-
genauigkeit und liefern keine absoluten Koordinaten, da die Impedanzverteilung im
Körper aller Menschen sehr verschieden ist. Röntgenbasierte Systeme führen zu einer
zusätzlichen Strahlenbelastung für Patient und Arzt. Es wurden auch ultraschallba-
sierte Systeme entwickelt, die aber wegen der großen Dispersion im Körper nicht die
gewünschte Genauigkeit erreicht haben. Auch Systeme, die mit elektromagnetischen
Wellen arbeiten (ähnlich wie GPS), konnten nicht die erforderliche Genauigkeit errei-
chen.

Registrierung: Methode, um eine ortsrichtige Überlagerung verschiedener Bilder zu ermöglichen.


Hierbei können z. B. präoperative 3D-Bilder mit intraoperativen 3D- oder 2D-Bildern überlagert
werden. Oft müssen Bilder unterschiedlicher Modalitäten überlagert werden.

Tab. 19.3: 3D-Lokalisationssysteme.

Optische Systeme mit Zwei Kameras betrachten das Szenario. Alle zu lokalisierenden Teile
zwei und mehr Kameras tragen Reflektoren aus drei stark reflektierenden Kugeln. Diese wer-
den in beiden Bildern gefunden und aus den Orten im Bild werden die
Koordinaten berechnet.
Magnetische Systeme Drei Spulen erzeugen Magnetfelder bei unterschiedlichen Frequen-
zen im kHz-Bereich. Am Gerät ist ein dreiachsiger Magnetfeldsensor.
Aus den sechs Messsignalen werden Ort und Richtung berechnet.
Impedanzbasierte Systeme Am Körper werden drei orthogonale Elektrodenpaare befestigt und
ein hochfrequenter Strom eingespeist. Das Objekt im Körper regis-
triert die ankommende Spannung und schätzt nach der Spannungs-
teiler-Regel den Ort des Objektes (z. B. eine Elektrodenspitze im Her-
zen).
Systeme mit Röntgenbildern Ein starker, möglichst punktförmiger Röntgenabsorber wird mit zwei
C-Bogen–Systemen aus zwei Richtungen gleichzeitig aufgenommen.
Nachdem das System zuvor kalibriert wurde, kann aus den beiden
2D-Bildern der Ort des Absorbers berechnet werden.
Ultraschallbasierte Systeme Die von einer Matrix aus Ultraschallsendern emittierten Signale wer-
den von einem Empfänger aufgenommen und nach Laufzeit und/oder
Phasenverschiebung ausgewertet.
19 Interventionelle Bildgebung | 571

Unter dem Begriff „Registrieren“ fasst man die Möglichkeiten zusammen, die Koor-
dinatensysteme von verschiedenen bildgebenden Systemen, vom Patienten auf dem
Operationstisch und seiner spezifischen Zielregion und von medizinischen Geräten
wie Biopsie-Nadeln oder Knochen-Fräsern so genau wie möglich zusammenzuführen.
Hierzu sind punktförmige, linienförmige oder flächenhafte Markierungen („Marker“)
in jeweils zwei der Koordinatensysteme nötig. Man unterscheidet hierbei künstliche
Marker und natürliche Marker. Künstliche Marker sind Objekte, die der Arzt anbringt
und die in einem Paar von jeweils zwei Koordinatensystemen gut zu lokalisieren sind.
Beispielsweise können kleine Metallkugeln im Röntgenbild und mit optischen Syste-
men lokalisiert werden. Natürliche Marker sind anatomische Strukturen, die sich ge-
nau im Raum definieren lassen und die mit zwei Systemen erkannt werden. So können
z. B. Verzweigungen von großen Blutgefäßen (Bifurkationen) in mehreren bildgeben-
den Modalitäten erkannt und lokalisiert werden.
Für eine starre Transformation („rigid registration“) genügt die Lokalisierung von
mindestens drei Markern in beiden Koordinatensystemen, um die Verschiebung und
Drehung der beiden Koordinatesysteme gegeneinander zu bestimmen. Für elastische
Transformationen sind mehr Marker notwendig. Es hängt von der erwarteten Verbie-
gung und von der angestrebten Genauigkeit ab, wie viele Marker nötig sind. Sind die
Marker nicht alle gleichzeitig von der Messtechnik erfassbar, geht die Registrierung
verloren, sobald sich das elastische Gewebe verformt.

19.9 Darstellung der präoperativen und der intraoperativen Bilder


Die Frage, wie das Ergebnis einer Bildgebung, Lokalisierung und Registrierung auf
dem Monitor im Operationssaal dargestellt werden soll, ist durchaus nicht trivial.
Auch hier werden verschiedene Optionen ausführlich im 󳶳Band 8 (Bild- und compu-
terunterstützte Interventionen) vorgestellt.
Das Thema beginnt mit der Visualisierung eines 3D-Szenarios. Man kann drei or-
thogonale Schnitte durch einen vom Benutzer interaktiv festgelegten Punkt darstel-
len. Es sind sogenannte „Maximum Intensity Projections (MIP)“ möglich, bei denen
in einer ausgewählten Blickrichtung virtuelle Strahlen durch den Datensatz geschickt
und die größte auf diesen Linien vorkommende Intensität dargestellt wird. Mit geeig-
neten Brillen können auch Stereo-Bilder visualisiert werden, d. h., dass zwei Projek-
tionen aus etwas unterschiedlichen Blickwinkeln durch den 3D-Datensatz berechnet
und beiden Augen getrennt dargestellt werden (z. B. mithilfe von unterschiedlichen
Polarisationsrichtungen des Lichtes).
Dann folgt die Visualisierung von zwei verschiedenen Bildinformationen, also
z. B. vom präoperativen und vom intraoperativen Datensatz (󳶳Abb. 19.3). Hier kommt
oft eine geschickte Farbauswahl zum Einsatz. Beispielsweise kann der eine Datensatz
in Graustufen und der andere in Falschfarben dargestellt werden. Auch kann eine Pro-
jektion durch den präoperativen Datensatz (nach der richtigen Registrierung) auf den
572 | Olaf Dössel, Tim C. Lüth

(a) (b)

Abb. 19.3: Intraoperative Bildgebung – Darstellungsoptionen am Beispiel der Ultraschall-unter-


stützten Leberchirurgie. Am Bildschirm wird intraoperativ die Position der Instrumente relativ zum
präoperativen CT-Datensatz und relativ zum Echtzeit-Ultraschallbild angezeigt.

Operationssitus projiziert werden, so dass der Arzt unmittelbar erkennt, was sich un-
terhalb der Oberfläche befindet.

19.10 Trends und Entwicklungen


Die großen Herausforderungen der interventionellen Bildgebung sind:
– Die Akquisition von (wenn möglich und nötig) 3D-Datensätzen in kurzer Zeit und
mit gutem Kontrast und Signal-Rausch-Verhältnis (vgl. 󳶳Kap. 21.6, Systemtheorie)
sollte verbessert werden.
– Eine genaue Lokalisierung von möglichst vielen Markern sollte erreicht werden. Je
nach medizinischer Fragestellung können dies künstliche oder natürliche Marker
sein. Diese Marker sollten automatisch in den Bildern gefunden und identifiziert
werden.
– Eine möglichst genaue und schnelle Registrierung sollte erreicht werden, wobei
elastische Registrierungen, welche die Verformung der Organe während der In-
tervention berücksichtigen, heute das zentrale Problem darstellen.

Das Schlagwort „personalisierte Medizin“ ist im Bereich der interventionellen Bild-


gebung bereits zu einem großen Teil Realität geworden: Bildgebende Verfahren der
Medizin erzeugen immer Datensätze des Individuums, die Intervention wird immer
patientenindividuell geplant und mit der Bildgebung während der Intervention abge-
stimmt auf das Individuum durchgeführt.
19 Interventionelle Bildgebung | 573

Quellenverzeichnis
Keller F. S.: Interventional radioloy: new paradigms for the millennium. J Vasc Interv Radiol 2000; 11
(6): 677–681.
Hansis E., Carroll J. D., Schäfer D., Dössel O., Grass M.: High-quality 3-D coronary artery imaging on
an interventional C-arm x-ray system. Medical Physics 2010; 37: 1601–1609.
Delius S., Wilhelm D., Feussner H., Sager J., Becker V., Schuster T., et al.: Natural orifice transluminal
endoscopic surgery: cardiopulmonary safety of transesophageal mediastinoscopy. Endoscopy
2010; 42 (5): 405–412. Epub 4.3.2010.
Kirby M. C., Glendinning A. G.: Developments in electronic portal imaging systems. Br J Radiol 2006;
79: S50–S65.
Kausch C., Schreiber B., Kreuder F., Schmidt R., Dössel O.: Monte Carlo simulations of the imaging
performance of metal plate/phosphor screens used in radiotherapy. Medical Physics 1999; 26:
2113–2124.
Oldhafer K. J., Stavrou G. A., Prause G., Peitgen H. O., Lueth T. C., Weber S.: How to operate a liver
tumor you cannot see. Langenbecks Arch Surg 2009; 394 (3): 489–494. Epub 12.3.2009.
Schwaiger J., Markert M., Shevchenko N., Lueth T. C.: The effects of real-time image navigation in
operative liver surgery. Intl J Comput Assist Radiol Surg 2011; 6 (6): 785–796.

Weiterführende Literatur
Schlag P. M., Eulenstein S., Lange T.: Computerassistierte Chirurgie, München: Elsevier Urban &
Fischer, 2011.

Testfragen
1. Was versteht man unter der Registrierung von zwei Bildern? Was ist eine rigide und was eine
elastische Registrierung?
2. Wofür steht die Abkürzung „PTCA“, welche Erkrankung wird damit geheilt und welche Methode
wird dabei eingesetzt?
3. Welche technischen Voraussetzungen müssen Geräte und Systeme für die interventionelle
Magnetresonanztomographie erfüllen?
4. Was versteht man unter einem EPID und wozu dient es? Skizzieren Sie ein EPID und erläutern Sie
die Funktion.
5. Welche Methoden zur 3D-Lokalisierung eines medizinischen Gerätes kennen Sie?
6. Was versteht man unter einer „Maximum Intensity Projection“?
Michael Kaschke, Michael Stefan Rill
20 Operationsmikroskopie

20.1 Einleitung | 576


20.2 Aufbau eines Stereomikroskops | 578
20.3 Optische Eigenschaften | 579
20.4 Variable Bildvergrößerung | 581
20.5 Beleuchtung | 582
20.6 Stative | 583
20.7 Medizinische Applikationen | 585
20.8 Aktuelle Trends | 585

Zusammenfassung: In der Mikrochirurgie haben sich Operationsmikroskope in den


letzten Jahrzehnten als wertvolles Instrument etabliert. Sie erleichtern komplizierte
medizinische Eingriffe und sind unerlässlich bei der Visualisierung und Behandlung
extrem feiner Gewebestrukturen. In diesem Kapitel werden die grundlegenden De-
sign-Prinzipien eingeführt, die für eine optische Systemauslegung erforderlich sind.
Dabei wird im Besonderen auf die variable Bildvergrößerung eingegangen. Schließ-
lich werden gebräuchliche Beleuchtungskonzepte, Stativaufhängungen und aktuelle
Entwicklungen in der modernen Operationsmikroskopie diskutiert.

Abstract: During the past decades, surgical microscopes have become a valuable tool
for microsurgery. They support complex medical interventions and are important for
the visualization and treatment of extremely fine tissue structures. This chapter in-
troduces the basic design principles that are required for the definition of an optical
microscope system. In particular, this chapter focuses on variable image magnifica-
tion with zoom systems. Typical illumination concepts, stands, and current trends of
modern surgical microscopy are also discussed.
576 | Michael Kaschke, Michael Stefan Rill

20.1 Einleitung
Das menschliche Auge ist ein hochentwickeltes Sinnesorgan, das uns einen detail-
lierten, bildlichen Eindruck unserer Umgebung vermittelt. Trotz dessen erstaunlicher
Leistungsfähigkeit sind hinsichtlich Auflösung und Vergrößerungsvermögen optische
Grenzen gesetzt. Deshalb bediente man sich schon im 16. Jahrhundert einfacher Lin-
sensysteme, um winzige Objekte besser untersuchen und verstehen zu können. Viele
Wissenschaftler und Tüftler entwickelten das Mikroskop als zweistufiges Vergröße-
rungssystem weiter [Gerlach 2008]. Ende des 19. Jahrhunderts gelang es Ernst Abbe,
Carl Zeiss und Otto Schott, Mikroskope mit reproduzierbarer Abbildungsqualität
einem breiten Forscherkreis zur Verfügung zu stellen.
Es ist erstaunlich, dass die Lichtmikroskopie bereits sehr weit entwickelt war, be-
vor man sie auch standardmäßig für Operationszwecke einsetzen konnte. Tatsächlich
stehen erst seit 1953 kommerzielle Operationsmikroskope zur Verfügung [Littmann
1954, Brawanski 2001]. Das liegt im Wesentlichen daran, dass die technischen und er-
gonomischen Ansprüche an ein System sehr spezifisch sind. Einerseits wird ein hoher
Bildkontrast benötigt, um unterschiedliche Gewebearten auseinanderhalten zu kön-
nen. Andererseits muss die Mikroskop-Beleuchtung für eine ausreichende Helligkeit
und eine natürliche Farbdarstellung der untersuchten Objekte geeignet sein. Da drei-
dimensionale Objekte beobachtet werden sollen (z. B. übereinanderliegende Gewebe-
strukturen), muss das Operationsmikroskop eine stereoskopische Bildgebung ermög-
lichen. Folgende Systemeigenschaften sind daher explizit erforderlich:
– Auflösungsvermögen und Vergrößerung des Operationsmikroskops müssen
hinreichend hoch sein, um feine Gewebestrukturen deutlich erkennen zu kön-
nen.
– Die optische Abbildung darf keinen Raum für Fehlinterpretationen bieten. Opti-
sche Abbildungsfehler [Gross 2005, Kaschke 2014] wie chromatische Aberratio-
nen, Bildfeldwölbungen und Verzeichnungen müssen weitgehend korrigiert sein.
– Das Mikroskop muss in der Chirurgie für verschiedene Operationsszenarien ein-
setzbar sein. Dabei spielen vor allem die regelbare Vergrößerung (s. 󳶳Kap. 20.4)
und die Größe des Beobachtungsfelds (s. 󳶳Kap. 20.3) eine wichtige Rolle.
– Der Arbeitsabstand zwischen Mikroskop und Patient muss möglichst groß sein,
so dass der Chirurg während einer Operation manuelle Eingriffe ohne Störung der
Visualisierung durchführen kann. Idealerweise lässt sich der Arbeitsabstand der
Anwendung entsprechend variieren („Varioskop“).
– Um bei tiefen Objekten (z. B. lange Kanäle) die Bildschärfe nur selten nachregu-
lieren zu müssen, ist ein optisches System mit möglichst hoher Schärfentiefe er-
forderlich (s. 󳶳Kap. 20.3).
– Die Beleuchtung der Objekte (s. 󳶳Kap. 20.5) muss optimiert sein, um eine aus-
reichende Helligkeit bei hohem Kontrast und einen realistischen Farbeindruck zu
gewährleisten.
20 Operationsmikroskopie | 577

Stativ
Binokulartubus Videokamera

Zoom-System

Beleuchtung
und Objektiv

Abb. 20.1: Einsatz eines Stereomikroskops (Carl Zeiss OPMI Lumera® i) in der ophthalmologischen
Mikrochirurgie. Mit freundlicher Genehmigung von Carl Zeiss.

Varioskop: optisches Gerät, mit dessen Hilfe durch Variation des relativen Linsenabstandes der
Arbeitsabstand kontinuierlich verändert werden kann (das Objektiv besteht dabei aus mindestens
einer konvexen und einer konkaven Linse). Typischerweise erreicht man mit dieser Anordnung
einen Arbeitsbereich von 20 bis 50 cm.

All diese Anforderungen werden von ganz spezifisch konstruierten Stereomikrosko-


pen [Lang 1981, Muchel 1985, Gross 2008] erfüllt. Gerade für mikrochirurgische Ap-
plikationen sind entsprechende Systeme nicht mehr wegzudenken (󳶳Abb. 20.1).

Mikrochirurgie: Operationsmethode, die spezielle Vergrößerungshilfen verwendet, dank derer


selbst winzige Objekte wie Venen und Nerven sowie feinstrukturierte und extrem empfindliche
Organe behandelt werden können.
578 | Michael Kaschke, Michael Stefan Rill

20.2 Aufbau eines Stereomikroskops


Das Stereomikroskop ist prinzipiell wie eine Fernrohrlupe [Hutten 1991] aufgebaut
(siehe 󳶳Abb. 20.2). Das Objekt befindet sich in der Brennweite fObj vor einer Objektiv-
linse, die als Lupe fungiert. Dadurch wird das Bild vergrößert nach Unendlich abgebil-
det. Dieses erzeugte Bild wird wiederum mit einem Binokulartubus (Der Binokulartu-
bus entspricht im Wesentlichen einem Keplerschen Fernrohr [Hecht 1999]) bestehend
aus Tubus- und Okularlinse betrachtet. Der Abstand zwischen Tubus- und Okularlin-
se entspricht dabei in etwa der Summe beider Brennweiten (dT−Ok ≈ fT + fOk ). Fügt man
zwischen Lupe und Binokulartubus ein Zoom-System (Pankrat) ein, wird das Bild um
einen weiteren Faktor 𝛾 vergrößert. Alternativ kann man das Stereomikroskop auch
analog zum „klassischen“ Labormikroskop betrachten. Objektiv und Tubuslinse er-
zeugen ein reales Zwischenbild, welches mithilfe des Okulars angeschaut wird. Dabei
übernimmt die Okularlinse die Rolle einer Lupe.
Nach der Objektivlinse werden die Strahlengänge für jedes Auge getrennt geführt.
Baut man Strahlteiler in das Abbildungssystem ein, kann ein Teil des Bildes gefilmt,
fotografiert und/oder für Assistenten bereitgestellt werden.

Beobachter
Binokulartubus
Okular
fOk

fT CCD
Tubuslinse

Strahlteiler

Video/Foto

Mitbeobachter
Zoom-System

Kondensor Kollektor
Lichtquelle

Objektivlinse
fObj

Objekt

Abb. 20.2: Schematischer Aufbau eines Stereomikroskops nach dem Fernrohrlupenprinzip


(vgl. 󳶳 Abb. 20.1).
20 Operationsmikroskopie | 579

20.3 Optische Eigenschaften


Die Vergrößerung eines nach dem Schema in 󳶳Abb. 20.2 aufgebauten Mikroskops
hängt von den Brennweiten des Okulars fOk , des Tubus fT und des Objektivs fObj sowie
der Vergrößerung des Zoom-Systems 𝛾 in folgender Weise ab:

fT l
VM = ⋅𝛾⋅ d (20.1)
fOk fObj

Dabei ist ld die als angenehm empfundene deutliche Sehweite, welche bei jungen Er-
wachsenen 250 mm beträgt. 󳶳Gleichung (20.1) lässt sich einfach mit dem oben ge-
nannten Fernrohrlupenprinzip verstehen. Der Faktor (ld /fObj ) gibt die Lupenvergröße-
rung des Objektivs und (fT /fOk ) die Vergrößerung des Binokulartubus an.
Der Durchmesser des Beobachtungsfeldes dB ergibt sich aus der Vergrößerung
und dem Durchmesser der Feldblende im Okular dOk zu

dOk ld
dB = (20.2)
VM fOk

Numerische Apertur: dimensionsloser Parameter, der das Auflösungsvermögen eines optischen


Elements oder Systems beschreibt. Die numerische Apertur ist über das Produkt aus dem Sinus
des halben objektseitigen Öffnungswinkels und dem Brechungsindex des Mediums zwischen Ob-
jektiv und Fokus bestimmbar.

Die numerische Apertur NA des Stereosystems hängt vom effektiven objektseitigen


Öffnungsdurchmesser des Zoom-Systems dZoom ab und nicht vom Durchmesser der
Objektivöffnung dObj . In diesem Fall wird berücksichtigt, dass hinter der Objektivlinse
eine sogenannte Pupillenteilung in den linken und rechten Abbildungskanal stattfin-
det (siehe 󳶳Abb. 20.3). Die numerische Apertur berechnet sich dann nach

dZoom
NAObj = , (20.3)
2 fObj

woraus die räumliche Auflösung

1,22𝜆
𝛿= (20.4)
NAObj + NAK

folgt. In 󳶳Gl. (20.4) ist 𝜆 die Wellenlänge des eingestrahlten Lichts und NAK die nume-
rische Apertur des Kondensors (Feldlinse der Beleuchtung). Wird das Objektiv durch
den Kondensor vollständig ausleuchtet, ist NAK = NAObj .
Bei der Auslegung eines optischen Systems sollte die Vergrößerung des Systems
der Auflösung angepasst sein. Es macht schließlich keinen Sinn, systemseitig eine hö-
here Auflösung bereitzustellen, als das Auge verarbeiten kann (𝛿Auge ≈ 40 μm). Man
definiert aus diesem Grunde eine sogenannte „förderliche“ Vergrößerung Vf , die
580 | Michael Kaschke, Michael Stefan Rill

Beleuchtungskanäle

linker rechter
dObj Abbildungskanal Abbildungskanal dZoom
des Zoom- des Zoom-
Systems Systems

Abb. 20.3: Querschnitt durch das Objektiv


eines Stereomikroskops.

durch das System ermöglicht wird und vom menschlichen Auge gerade noch aufge-
löst werden kann:
500 NA ≤ Vf ≤ 1000 NA (20.5)
Stärkere Vergrößerungen decken keine neuen Strukturdetails auf und verdunkeln das
Bild. Geringere Vergrößerungen nutzen das optische Potential des Gerätes nicht voll
aus.
Als Schärfentiefe wird der Bereich im Bildraum eines optischen Systems bezeich-
net, in dem das Bild eines fokussierten Objektes eine akzeptable Schärfe aufweist. Zur
Berechnung der Schärfentiefe eines Mikroskops müssen Beugung, Auflösung und Ak-
kommodationsfähigkeit des Auges [Atchison 2002] berücksichtigt werden. Es ergibt
sich [Lang 1981]:
𝜆 0,34 mm l2d 1 1
D= 2
+ + 2
( − ), (20.6)
2 NA VM NA VM ln lf
wobei ln und lf die Nah- und Fernakkommodationslängen des Auges sind.

Akkommodation: Fähigkeit des Auges, auf Objekte in unterschiedlichen Entfernungen zu fokus-


sieren. Dabei wird die Brechkraft der Linse durch Kontraktion und Relaxation des Ziliarmuskels
variiert. Die Einstellung des Auges beim Sehen auf entfernte Punkte (entspanntes Auge) wird als
Fernakkommodation bezeichnet. Bei einem gesunden Auge werden dabei die parallelen Strahlen
eines „unendlich“ fernen Punktes auf der Netzhaut scharf abgebildet. Die Einstellung auf nahe
Punkte (maximale Akkommodation) wird als Nahakkommodation bezeichnet. Letztere liegt im Kin-
desalter bei etwa 7 cm und entspricht bei einem jungen normalsichtigen Erwachsenen der Bezugs-
sehweite lb von ca. 25 cm. Ab einem Alter von etwa 45 Jahren nimmt die Nahakkommodationslänge
zu.

Für einen dreidimensionalen Bildeindruck ist darüber hinaus die stereoskopische


Tiefenwahrnehmung 𝜗M wichtig. Dies ist der Abstand zweier Objekte, der getrennt in
der Tiefe wahrgenommen werden kann [Atchison 2002]. Beim Stereomikroskop ergibt
20 Operationsmikroskopie | 581

sich dessen Wert aus der Formel [Lang 1981]


2
𝛼fObj
𝜗M = (20.7)
b𝛾fT /fOk ± 𝛼fObj
Hier wurden die stereoskopische Winkelauflösung 𝛼 ≈ 10󸀠󸀠 und die Stereobasis b
benutzt (Bei den Augen entspricht die Stereobasis b dem Pupillenabstand. Beim
Stereomikroskop ist dies der Abstand zwischen beiden Abbildungskanälen [vgl.
󳶳Abb. 20.3]). Die mikroskopisch erzeugte Tiefenwahrnehmung ist üblicherweise grö-
ßer als jene der Augen ohne optische Hilfsmittel (𝜗Auge ≈ 45 μm). Dadurch nimmt
der Chirurg übereinander liegende Gewebeschichten deutlicher wahr und kann sie
während des Eingriffs einfacher unterscheiden.
Aus den obigen Bestimmungsgleichungen lässt sich unter anderem ableiten, dass
sich ein optimales Stereomikroskop für Humanchirurgie durch eine relativ niedrige
Vergrößerung (je nach Anwendung zwischen 5× und 30×) und eine geringe nume-
rische Apertur (NA ≤ 0,05) auszeichnet. Letztere Größe ermöglicht wiederum einen
hinreichend großen Arbeitsabstand.

20.4 Variable Bildvergrößerung

Afokales Linsensystem: Linsensystem, das weder bündelnd noch zerstreuend wirkt. Parallel ein-
fallende (kollimierte) Lichtstrahlen werden zwar innerhalb des Systems gebrochen, verlassen es
jedoch wieder in paralleler Ausrichtung.

Um der Anforderung einer stufenlos regelbaren Vergrößerung gerecht zu werden, inte-


griert man häufig ein Zoom-System [Lang 1981, Murty 1997, Gross 2008, Hoegele 2012]
in das Operationsmikroskop. Ein Zoom-System besteht aus zwei oder drei Linsen,

Abb. 20.4: Linsenkonfiguration eines afokalen


(a)
Zoom-Systems bestehend aus zwei konvexen
und einer konkaven Linse. Zur Änderung der
Bildvergrößerung werden die beiden Linsen L1
(Kompensator) und L2 (Variator) bewegt. L3
ist hingegen eine feststehende Relay-Optik.
(b) L1 L2 L3 Um die Bildebene zu stabilisieren, muss L1
auf einer nichtlinearen Kurve (grün) relativ zu
L2 bewegt werden. (a) Vergrößernde Abbil-
dung. (b) 1:1-Abbildung. L2 wird dabei genau
zwischen den beiden konvexen Linsen positio-
(c) niert. (c) Verkleinernde Abbildung.
582 | Michael Kaschke, Michael Stefan Rill

deren relativer Abstand kontinuierlich verändert werden kann. Zoom-Systeme kennt


man vor allem aus der Fotografie. Dort wird im Allgemeinen ein Objekt im Unendli-
chen auf eine endliche Bildebene (z. B. CCD-Sensor oder Film) projiziert. Bei einem
Operationsmikroskop hingegen benötigt man eine vergrößernde afokale Abbildung,
da das Zoom-System zwischen eine nach Unendlich abbildende Objektivlupe und ein
Binokulartubus gebracht wird. Um die Position der Bildebene beim Zoom-Vorgang
konstant zu halten, müssen zwei Linsen (Kompensator L1 und Variator L2 ), wie in
󳶳Abb. 20.4 veranschaulicht, unabhängig voneinander bewegt werden. Vor allem bei
hohen Vergrößerungen kann die mechanische Realsierung aufwendig werden.

20.5 Beleuchtung
Neben der Abbildungsoptik ist die Objektbeleuchtung ein wesentliches Element des
Operationsmikroskops. Traditionell verwendet man in der Operationsmikroskopie
die sogenannte Köhlersche Auflichtbeleuchtung [Köhler 1893, Lang 1981]. Hierbei
wird das Objekt über eine zweistufige Abbildung gleichmäßig ausgeleuchtet. Das
Bild der Leuchtfeldblende wird, wie in 󳶳Abb. 20.5 gezeigt (grüne Abbildungsstrah-
len), in die Objektebene projiziert. Mithilfe eines Lichtkollektors, zweier Blenden
(Aperturblende und Leuchtfeldblende) und eines Kondensors kann die beleuchtete
Fläche unabhängig von der restlichen optischen Abbildung angepasst werden. Infol-
gedessen reduziert sich der Anteil an eingestreutem Falschlicht und der Kontrast des
Objektbilds wird erhöht.
Als Leuchtquellen verwendet man Halogenlampen, Xenonlampen oder LEDs. Das
Spektrum des abgestrahlten Lichts (Lichttemperatur) muss in der Praxis so gewählt
werden, dass das beobachtete Objekt kontrastreich und farbecht erscheint. Darüber

Objekt-
Kollektor Kondensor ebene
Licht-
quelle
...

Faser
Leuchtfeld- Apertur-
blende blende
LED
reales Bild der Leuchtfeldblende

Abb. 20.5: Prinzip der Köhlerschen Beleuchtung. Die Kollektorlinse bildet eine Lichtquelle (Halo-
genlampe, Xenonlampe, LED oder Lichtfaser) vergrößert in die Aperturblende ab, welche in der
vorderen Brennebene des Kondensors liegt. Durch diese Blende wird die Beleuchtungsstärke in
der Objektebene eingestellt. Die Leuchtfeldblende hingegen ist eine weitere Irisblende und liegt
so, dass ihr durch den Kondensor verkleinertes Bild scharf in die Objektebene abgebildet wird. Sie
bestimmt das ausgeleuchtete Objektfeld bei einer vorgegebenen Bestrahlungsstärke.
20 Operationsmikroskopie | 583

ε optische Achse
Beleuch-
tungsstrahl

abgeschatteter Abb. 20.6: Schematischer Querschnitt durch Gewebe (unter-


Bereich suchtes Objekt). Der aufgeschnittene Gewebekanal ist lang und
eng. Deshalb ist sowohl die eingestrahlte als auch die rückge-
streute Lichtintensität gering. Bei dem kleinen Einfallwinkel 𝜀
der Paraxialbeleuchtung (grün) wird die Objektoberfläche nicht
Gewebe vollständig ausgeleuchtet.

hinaus muss stets beachtet werden, dass das beleuchtete Gewebe nicht geschädigt
wird [Sutter 2008, BGI5006]. Heutzutage setzt man statt frei strahlender Lichtquel-
len meist Lichtfasern ein. Letztere lassen sich angesichts der geringen Abmaße und
flexiblen Positionierung einfacher in die zunehmend kleiner werdenden Systeme in-
tegrieren.
Bei Operationsmikroskopen kann es mitunter schwierig sein, die Beleuchtung
derart zu optimieren, dass das Bild hell, kontrastreich und vollständig ausgeleuch-
tet erscheint. Besonders bei tiefen Kavitäten mit geringem Öffnungsdurchmesser ist
das effektiv genutzte Lichtsignal oft sehr schwach. In solchen Fällen muss die An-
zahl der lichtreduzierenden optischen Komponenten im System (z. B. Strahlteiler und
Aperturen) minimiert werden. Oft wird daher der kollineare Strahlengang von Abbil-
dungsoptik und Beleuchtung durch einen separaten optischen Lichtkanal erweitert
oder ersetzt. Dazu strahlt man das Licht unter einem kleinen Winkel 𝜀 zum Linsen-
system ein (Paraxialbeleuchtung), so dass möglichst wenige sichtbare Objektbereiche
abgeschattet werden (󳶳Abb. 20.6).
Andere Beleuchtungsanordnungen, z. B. die „Red Reflex“-Beleuchtung [Reimer
2005, Chang 2009], nutzen gezielt die Rückreflektion von Gewebe aus, um feinste
Strukturen in der Objektebene sichtbar zu machen.

20.6 Stative
Ein Operationsmikroskop zeichnet sich nicht ausschließlich durch eine optimierte Op-
tik aus. Auch die mechanischen Anforderungen sind sehr speziell:
– Ergonomie: Im Gegensatz zu Labormikroskopen müssen Operationsmikroskope
möglichst frei im Raum beweglich sein und dem Chirurgen während eines Ein-
griffs genügend Freiraum bieten. Zudem soll der Benutzer das System bequem im
Sitzen oder Stehen bedienen können.
584 | Michael Kaschke, Michael Stefan Rill

– Mobilität: Das Operationsmikroskop muss während der Operation genau positio-


nierbar und dementsprechend leicht beweglich sein.
– Stabilität: Ist die gewünschte Position gefunden, muss das System schnell und
exakt fixiert werden können. Dabei ist wichtig, dass man das Operationsmikro-
skop in jeder beliebigen Lage innerhalb des Arbeitsbereichs feststellen kann. Das
Bild darf sich bei geringen Erschütterungen nicht bewegen oder driften.

Das Stereomikroskop wird gemeinhin am Auslegearm eines Boden- oder Deckensta-


tivs angebracht [Hutten 1991, Brenner 2008]. Dabei wird das Eigengewicht des Opera-
tionsmikroskops mittels dynamisch angepasster Gegengewichte oder Federsysteme
ausbalanciert (z. B. mit einem sogenannten Contraves-System [Heller 1987]). Solange
das Mikroskop frei beweglich ist, scheint es zu „schweben“ und lässt sich nahezu oh-
ne Kraftaufwand in jede beliebige Raumrichtung bewegen. Hat man die gewünschte
Position gefunden, wird der Stativarm durch elektromagnetische oder mechanische
Bremsen genau in dieser Lage fixiert. Bodenstative (󳶳Abb. 20.7) stabilisieren das Ste-
reomikroskop durch ihr relativ hohes Gewicht (ca. 400 kg). Deckenstative werden hin-
gegen fest in die Decke des Operationssaals geschraubt. Die Operationsmikroskop-

Contraves-
System

OPMI®

PC-Monitor
(Live-Video)

Computer
Datenleitungen
Stromversor-
gung

Abb. 20.7: Operationsmikroskop mit ausba-


lanciertem Bodenstativ (ZEISS OPMI Pentero®
900). Mit freundlicher Genehmigung von Carl
Zeiss.
20 Operationsmikroskopie | 585

Stative werden auch genutzt, um Strom- und Datenleitungen sowie einen Computer
für die Ansteuerung, Datenauswertung und Bildverarbeitung zu integrieren.

Contraves-System: Stativ, das durch dynamische Gegengewichte ein montiertes System mecha-
nisch ausbalanciert. Dadurch lässt sich das angebrachte System nahezu kraftlos verschieben.
„Contraves“ bezieht sich auf den Namen einer Schweizer Firma Oerlikon Contraves, die diese
Stativvorrichtung entwickelt und patentiert hat.

20.7 Medizinische Applikationen


Operationsmikroskope setzt man bei der therapeutischen Behandlung winziger, fei-
ner und extrem empfindlicher Gewebestrukturen ein. Typische Anwendungsfelder
sind daher die Ophthalmologie, Hals-Nasen-Ohren-Heilkunde (HNO), Neurochirur-
gie, Gynäkologie und plastische Chirurgie.

20.8 Aktuelle Trends


Operationsmikroskope werden hinsichtlich der Ergonomie stetig optimiert. Man ori-
entiert sich dabei vor allem an aktuellen Entwicklungen im Bereich der digitalen Pro-
jektion und Unterhaltungselektronik. Moderne Systeme stellen deshalb längst nicht
nur rohe Bilddaten zur Verfügung. Sie helfen vielmehr durch Einblendung von Patien-
tendaten, die Übersicht während eines Eingriffs zu bewahren. Alle relevanten Infor-
mationen sind sofort erkennbar, ohne den Blick vom untersuchten Objekt abwenden
zu müssen.
Darüber hinaus versucht man derzeit, die Einblickeinheit des Mikroskops (das
sogenannte „Boom-System“) vom Detektor (kombinierte Objektiv-Zoom-Kamera-Ein-
heit) zu trennen. Die Idee ist dabei, die Bilddaten des Objekts lokal am Patienten zu
erfassen [Brunner 2002]. Die digitalen Informationen sendet man dann mittels kabel-
loser Übertragung an die mechanisch entkoppelte Einblickeinheit. Somit ist der Chir-
urg nicht mehr an den vorgegeben Arbeitsabstand und die physikalischen Randbedin-
gungen der Abbildung gebunden. Die Einblickeinheit kann frei im Raum positioniert
werden und ermöglicht ein optimales, ergonomisches Arbeiten. Des Weiteren kann
die digitale Bildinformation beliebig oft vervielfältigt werden, so dass es Assistenten
möglich ist, dasselbe Bild wie der operierende Arzt zu sehen. Bei analogen Operati-
onsmikroskopen ist diese Funktion nur eingeschränkt möglich, da die Strahlengänge
sehr komplex sind.
586 | Michael Kaschke, Michael Stefan Rill

Quellenverzeichnis
Atchison D. A., Smith G.: Optics of the human eye. Edinburgh: Butterworth-Heinemann, 2002.
BGI 5006. Expositionsgrenzwerte für künstliche optische Strahlung. Köln: Berufsgenossenschaft
Energie Textil Elektro Medienerzeugnisse, 2004.
Brawanski A.: Geschichte der Mikroneurochirurgie. In: Deutsche Gesellschaft für Neurochirurgie
(Hrsg.). Neurochirurgie in Deutschland: Geschichte und Gegenwart. Berlin, Wien: Blackwell,
2001.
Brenner R.: Stativanordnung und Stativ für ein medizinisch-optisches Instrument. EU Patent 201 69
21 A3, 2008.
Brunner R., Haisch M., Nägele U.: Mikroskop, insbesondere Operationsmikroskop. Deutsches Patent
– Offenlegungsschrift DE 102 03 215 A1, 2002.
Chang D. F.: Improving the red reflex and surgical outcomes with the Lumera microscope. Cataract
Refract Surg Today 2009;März: 27–30.
Gerlach D.: Geschichte der Mikroskopie: Frankfurt: Harri Deutsch, 2008.
Gross H.: Handbook of optical systems – fundamentals of technical optics (Vol. 1). Weinheim: Wiley,
2005.
Gross H., Blechinger F., Achtner B.: Handbook of optical systems – survey of optical instruments
(Vol. 4). Weinheim: Wiley, 2008.
Hecht E.: Optik. München, Wien: Oldenbourg, 1999.
Heller R.: Tragvorrichtung für ein optisches Beobachtungsgerät. EU Patent 023 79 68 A2, 1987.
Hoegele A., Hauger C., Nauli F.: Microscope System. US Patent – Patent Application Publication US
2012/0008195 A1, 2012.
Hutten H. Biomedizinische Technik – medizinische Sondergebiete (Vol. 4). Berlin, Heidelberg:
Springer/TÜV, 1991.
Kaschke M., Donnerhacke K.-H., Rill M. S.: Optical Devices in Ophthalmology and Optometry –
Technology, Design Principles and Clinical Applications. Weinheim: Wiley, 2014.
Köhler A.: Gedanken zu einem neuen Beleuchtungsverfahren für mikrophotographische Zwecke. Z
Wiss Mikrosk 1893; 10(4): 433–440.
Lang W. H., Muchel F.: Zeiss microscopes for microsurgery. Berlin, Heidelberg: Springer, 1981.
Littmann H.: Ein neues Operations-Mikroskop. Klin Monatsbl Augenheilkd Augenärztl Fortbild 1954;
124: 473–476.
Muchel F., Strähle F.: Stereomicroscope. US Patent 4,518,231, 1985.
Murty A. S., Aravinda K., Ramanaiah T. V., Petluri R. L. V., Ramana Murty V. V.: Design of a high-
resolution stereo zoom microscope. Opt Eng 1997; 36: 201–209.
Reimer P., Strähle F., Kolster D.: Beleuchtungs- und Beobachtungseinrichtung. Deutsches Patent –
Offenlegungsschrift DE 103 47 732 A1, 2005.
Sutter E.: Schutz vor optischer Strahlung – Laserstrahlung, inkohärente Strahlung,
Sonnenstrahlung, Normenreihe DIN EN 60825 (VDE 0837). Berlin: VDE-Schriftenreihe, 2008.
20 Operationsmikroskopie | 587

Testfragen
1. Was verstehen Sie grundsätzlich unter Abbildungsfehlern? Wie entstehen die folgenden Abbil-
dungsfehler?
– chromatische Aberration
– Verzeichnung
– Bildfeldwölbung
2. Welche Bildfehler sind für das Operationsmikroskop besonders kritisch und durch welche Maß-
nahmen können sie korrigiert werden?
3. In 󳶳 Gl. (20.1) und 󳶳 Gl. (20.2) wurde die sogenannte „deutliche Sehweite“ eingesetzt (ld = 250nm).
Warum finden wir sie in der Vergrößerungsformel?
4. Ist es sinnvoll, die Vergrößerung des Mikroskops durch Objektiv-Okular-Kombination beliebig
groß zu wählen?
5. Bei der Videodokumentation ist die Vergrößerung des Operationsmikroskops durch VM =
fAdapter 𝛾/fObj gegeben. Hier ist fAdapter ≈ 100 mm die Brennweite des Fotoadapters. Die beiden
HDTV-üblichen Bildauflösungen betragen 1280 px × 720 px und 1920 px × 1080 px im Vollformat.
Das Seitenverhältnis des Bildes beträgt 16 : 9. Die Größe der CCD-Sensoren wird oft in Zoll
angegeben. Gebräuchliche Größen sind 2/3󸀠󸀠 und 1/2󸀠󸀠 . Diskutieren Sie die Sinnfälligkeit der
Verwendung eines HD-Videorekorders.
6. Warum ist die stereoskopische Tiefenwahrnehmung für die Mikrochirurgie eine wichtige Grö-
ße? Denken Sie bei der Argumentation an den Durchmesser von Nervenfasern, Blutgefäßen etc.
Vergleichen Sie die stereoskopische Tiefenwahrnehmung der Augen ohne optische Hilfsmittel
mit jener des Operationsmikroskops. Typische Mikroskop-Parameter sind hierbei: 𝛼 = 48,5 μm,
b = 22 mm, fObj = 200 mm bis 400 mm, fT = 125 mm, fOk = 20 mm und 𝛾 = 0,4 bis 1.
Olaf Dössel
21 Systemtheorie abbildender Systeme

21.1 Motivation | 590


21.2 Lineare Transformationen von Bildern | 590
21.3 Räumliche Auflösung und die Modulationsübertragungsfunktion
MTF | 596
21.4 Das Abtasttheorem | 601
21.5 Das Rauschen und die detektierte Quantenausbeute DQE | 601
21.6 Der Kontrast | 605
21.7 Die zeitliche Auflösung | 606
21.8 Erkennen von Details in Bildern und die Perzeption | 606
21.9 Das Dreieck aus räumlicher Auflösung, zeitlicher Auflösung und
Rauschen | 608

Zusammenfassung: Zwischen dem Original und dem Bild, das ein bildgebendes Ver-
fahren erzeugt, gibt es allgemeingültige mathematische Zusammenhänge. Zum bes-
seren Verständnis sind Begriffe wie z. B. lineare und verschiebungsinvariante Syste-
me, die Modulationsübertragungsfunktion (MTF) und die detektive Quantenausbeu-
te (DQE) hilfreich. Auch das Rauschen und der Kontrast in einem Bild sind wichtige
Merkmale, die mit allgemeinen mathematischen Ansätzen besser beschrieben werden
können. Schließlich kann die Erkennbarkeit von Details quantitativ mit der „Receiver
Operation Curve“ bestimmt werden.

Abstract: General mathematical correlations relate the original and the image that is
created using an imaging system. For better comprehension, terms such as linear and
space-invariant systems, the Modulation Transfer Function (MTF) and the Detective
Quantum Efficiency (DQE) are introduced. Noise and contrast of an image are further
important aspects that can be better described with mathematical methods. Finally,
perception and the ability to detect details in images can be analyzed quantitatively
using the “Receiver Operation Curve”.
590 | Olaf Dössel

21.1 Motivation
Die mathematische Beschreibung der Abbildung vom gesuchten Original f (x, y) zu ei-
nem Bild g(x, y) ist für den Anwender der bildgebenden Verfahren – den Arzt – mög-
licherweise von Interesse, für den Entwickler eines Systems der nächsten Generati-
on aber eine notwendige Voraussetzung. In diesem Buch werden, wo immer möglich,
auch die mathematischen Zusammenhänge zwischen Original und Bild dargestellt.
Dabei stellt sich heraus, dass es hierbei allgemeingültige Zusammenhänge gibt, die
für alle bildgebenden Verfahren sehr ähnlich sind. Insbesondere kann man für soge-
nannte lineare und verschiebungsinvariante bildgebende Systeme Funktionen ange-
ben, die das System weitgehend unabhängig vom gerade im Einzelfall abgebildeten
Objekt charakterisieren: die Modulationsübertragungsfunktion MTF und die detekti-
ve Quantenausbeute DQE (oft auch detektive Quanteneffizienz genannt).

Systemtheorie abbildender Systeme: mathematische Beschreibung von Original und Bild und Er-
kennen von allgemeingültigen Zusammenhängen zwischen Original und Bild.

Die Eigenfunktionen eines linearen und verschiebungsinvarianten Operators sind die


Sinus- und Cosinus-Funktion. Daher spielt die Fourier-Transformation für diese Sys-
teme eine besondere Rolle: Im Fourierraum wird die Abbildung zu einer einfachen
Multiplikation mit einem Faktor, der komplexen Systemübertragungsfunktion.
Linear und verschiebungsinvariant sind folgende bildgebenden Systeme: Projek-
tionsröntgen, CT, PET, MRT. Die Modalitäten Szintigraphie, SPECT, Ultraschall und
OCT sind linear aber nur bedingt verschiebungsinvariant, denn sie zeigen eine deut-
liche Tiefenabhängigkeit der Auflösung.
Nichtlinear ist hingegen die Impedanztomographie. Linear aber nicht verschie-
bungsinvariant sind die Abbildung bioelektrischer Quellen und das Magnetic Particle
Imaging. In diesem Fall kann man das Konzept einer Punktbildfunktion, das in die-
sem Kapitel entwickelt wird, weiterhin verwenden: Das Bild entsteht durch Faltung
mit der Punktbildfunktion, allerdings ist diese Punktbildfunktion nun ortsabhängig.

21.2 Lineare Transformationen von Bildern


21.2.1 Die Fourier-Transformation von Bildern

Bevor eine Systemtheorie der bildgebenden Systeme entwickelt werden kann, müssen
einige mathematische Werkzeuge eingeführt werden. Hierzu gehört insbesondere die
Fourier-Transformation von Bildern.
21 Systemtheorie abbildender Systeme | 591

Die Fourier-Transformation von Signalen aus dem Zeitbereich in den Frequenz-


bereich wird hier als bekannt vorausgesetzt:
+∞ +∞
1
F(𝜔) = ∫ f (t) ⋅ exp(−j ⋅ 𝜔t)dt f (t) = ∫ F(𝜔) ⋅ exp(+j ⋅ 𝜔t)d𝜔 (21.1)
2𝜋
−∞ −∞

Diese Definition lässt sich unmittelbar auch auf Funktionen des Ortes x übertragen.
Es ergibt sich eine Fourier-Transformierte, die eine Funktion von Raumfrequenzen u
ist:
+∞ +∞

F(u) = ∫ f (x) ⋅ exp(−j ⋅ 2𝜋 ⋅ ux)dx f (x) = ∫ F(u) ⋅ exp(+j ⋅ 2𝜋 ⋅ ux)du (21.2)


−∞ −∞

Ein Paar aus zwei Funktionen im Ortsbereich (f (x)) und im Bereich der Raumfrequen-
zen (F(u)) wird in diesem Kapitel wie folgt dargestellt:

f (x)∙ ↔ ∘F(u) (21.3)

Die Fourier-Transformierte besteht aus komplexen Zahlen, es gibt also immer einen
Realteil und einen Imaginärteil. Bilder der Fourier-Transformierten zeigen meistens
das Amplitudenspektrum, also den Absolutbetrag von F(u).
Ist eine Funktion im Ortsbereich sinusförmig mit einer Wellenlänge 𝜆, so hat die
Fourier-Transformierte einen Peak bei der Raumfrequenz u = 1/𝜆. Die Einheit der
Raumfrequenz u ist 1/m oder 1/mm, manchmal schreibt man auch „Linienpaare/mm“
oder „lp/mm“, um eine kleine Erinnerung an die Bedeutung der Raumfrequenz an der
Einheit anzubringen.
Die Fourier-Transformierte einer Rechteckfunktion kommt in diesem Buch im-
mer wieder vor. Sie sei daher hier explizit genannt: f (x) = A für 0 < x < x0 , f (x) = 0
sonst, dann gilt:
󵄨󵄨 sin(𝜋 ⋅ u ⋅ x ) 󵄨󵄨
A 󵄨 0 󵄨󵄨
|F(u)| = ⋅ |sin(𝜋 ⋅ u ⋅ x0 )| ⋅ |exp(−j ⋅ 𝜋 ⋅ u ⋅ x0 )| = A ⋅ x0 ⋅ 󵄨󵄨󵄨 󵄨 (21.4)
𝜋⋅u 󵄨󵄨 𝜋 ⋅ u ⋅ x0 󵄨󵄨󵄨

Auch die Fourier-Transformierte einer Gauss-Funktion soll hier angegeben werden:


Es ist wieder eine Gauss-Funktion. Eine breite Gauss-Funktion im Ortsbereich kor-
respondiert zu einer schmalen Gauss-Funktion im Bereich der Raumfrequenzen und
umgekehrt.
2
1 −1 x 2 2 2
f (x) = e 2 𝜎2 F(u) = e−2𝜋 𝜎 u (21.5)
𝜎√2𝜋
Wollen wir die Fourier-Transformierte von Bildern berechnen, so müssen wir beach-
ten, dass Bilder im Computer immer als digitale Abtastwerte (Bildpunkte = Pixel) re-
präsentiert werden. Die digitale Notation der Fourier-Transformation lautet:

1 N−1 N−1
F(u) = ⋅ ∑ f (x) ⋅ exp(−j ⋅ 2𝜋 ⋅ ux/N) f (x) = ∑ F(u) ⋅ exp(+j ⋅ 2𝜋 ⋅ ux/N) (21.6)
N x=0 x=0
592 | Olaf Dössel

Zu der Zahlenreihe der Funktionswerte f im Abtastabstand 𝛥x gehört damit eine Zah-


lenreihe der Funktionswerte von F im Abstand 𝛥u = 1/(N ⋅ 𝛥x).
Wenn alle f (x) reelle Zahlen sind, so gilt für die Fourier-Transformierte:

F(−u) = F(u)∗ (∗ : konjugiertkomplex) (21.7)

Natürlich gilt auch hier die Eulersche Formel:

exp(−j ⋅ 2𝜋 ⋅ ux/N) = cos(−2𝜋 ⋅ ux/N) + j ⋅ sin(−2𝜋 ⋅ ux/N) (21.8)

und da der Sinus und der Cosinus in 2𝜋 periodisch sind folgt, dass F(u) in N periodisch
ist:
F(u + N) = F(u) (21.9)
Dass die Fourier-Transformation zur Gruppe der linearen Abbildungen gehört, er-
kennt man, wenn man die Summengleichung (󳶳Gl. (21.6)) etwas anders schreibt:
F(0) 1 1 ⋅⋅⋅ 1 f (0)
F(1) 1 1 exp(−j ⋅ 2𝜋 ⋅ 1/N) ⋅⋅⋅ exp(−j ⋅ 2𝜋 ⋅ (N − 1)/N) f (1)
( .. )= (. .. .. .. )⋅( .. )
. N .. . . . .
F(N − 1) 1 exp(−j ⋅ 2𝜋 ⋅ (N − 1)) ⋅⋅⋅ exp(−j ⋅ 2𝜋 ⋅ (N − 1)2 /N) f (N − 1)
(21.10)
An dieser Schreibweise sieht man auch, dass F(0) der Mittelwert aller Funktionswer-
te f (x) ist.
Bilder sind nun zweidimensionale Objekte. Die Erweiterung all dieser Definitio-
nen und Erkenntnisse ins Zweidimensionale mit Funktionen f (x, y) ist naheliegend:
Für die analoge Schreibweise gilt:
+∞

F(u, v) = ∬ f (x, y) ⋅ exp(−j ⋅ 2𝜋 ⋅ (ux + vy))dxdy


−∞
+∞

f (x, y) = ∬ F(u, v) ⋅ exp(+j ⋅ 2𝜋 ⋅ (ux + vy))dudv (21.11)


−∞

und für die digitale Schreibweise gilt (für quadratische Bilder):


1
F(u, v) = ∑ f (x, y) ⋅ exp(−j ⋅ 2𝜋 ⋅ (ux − vy)/N)
N x,y
1
f (x, y) = ∑ F(u, v) ⋅ exp(+j ⋅ 2𝜋 ⋅ (ux − vy)/N) (21.12)
N u,v

Damit ist v die Raumfrequenz in y-Richtung. Die 2D-Fourier-Transformation ist ei-


ne nacheinander ausgeführte 1D-Fourier-Transformation in x-Richtung und eine 1D-
Fourier-Transformation in y-Richtung (oder umgekehrt, da die Reihenfolge egal ist).
21 Systemtheorie abbildender Systeme | 593

G FT*

GT* F GT*
0
u
FT* G
Abb. 21.1: Symmetrien in der 2D-Fourier-Transformierten von
0 reellen Zahlen.

Wenn f (x, y) reell ist, so gilt:

F(u, v) = F(−u, −v)∗ (21.13)


F(u + N, v) = F(u, v) (21.14)
F(u, v + N) = F(u, v) (21.15)

Es wäre ungeschickt, die Fourier-Transformation direkt nach der oben genannten


Summenformel als Algorithmus zu implementieren. Inzwischen kennen wir die „Fast-
Fourier-Transformation“ (FFT), bei der man mit einem Trick aus einem Algorith-
mus der Ordnung N 2 einen Algorithmus der Ordnung N ⋅ log(N) machen kann. Bei
Funktionen mit mehr als 100 Werten ist der FFT-Algorithmus deutlich schneller als
die direkte Implementierung. Voraussetzung ist dabei, dass die Zahl N eine Zweier-
potenz ist. Wegen der großen Bedeutung der FFT werden heute die meisten Bilder als
quadratische Matrix mit der Dimension einer Zweierpotenz aufgenommen und abge-
speichert, z. B. 512 × 512 Pixel.

(a) (b)

Abb. 21.2: (a) MRT-Bild eines Kopfes und (b) die dazugehörende Fourier-Transformation (Amplitu-
denspektrum, F(0,0) in der Mitte).
594 | Olaf Dössel

Fast Fourier Transformation (FFT): effizienter mathematischer Algorithmus in der Signalverarbei-


tung, der eine Funktion der Zeit oder des Ortes in eine Funktion der Frequenz bzw. Ortsfrequenz
überführt.

Darstellungen der 2D-Fourier-Transformierten zeigen fast immer den Absolutbetrag


der Fourier-Transformierten im logarithmischen Maßstab. Außerdem werden die
oben genannten Symmetrien genutzt und die Raumfrequenz (0, 0) immer genau in
der Mitte dargestellt (󳶳Abb. 21.1).
Betrachten wir das Beispiel von Bild und Fourier-Transformation in 󳶳Abb. 21.2.
Der Punkt in der Mitte ist wieder der Mittelwert aller Grauwerte des Bildes. Darum her-
um sind die niedrigen Raumfrequenzen angeordnet – sie enthalten die groben und
wesentlichen Informationen des Bildes. Im äußeren Bereich sind die hohen Raumfre-
quenzen dargestellt – sie enthalten Informationen über die scharfen Kanten im Bild.

21.2.2 Das Faltungsintegral und die Faltungsfilter

Faltungsintegral: Unter einem Faltungsintegral versteht man folgenden Operator:


+∞
f (x) ∗ g(x) = ∫ f (x󸀠 )⋅g(x − x󸀠 )dx󸀠 (21.16)
−∞

Die Erweiterung auf zweidimensionale Bilder lautet:


+∞

f (x, y) ∗ g(x, y) = ∬ f (x󸀠 , y󸀠 ) ⋅ g(x − x󸀠 , y − y󸀠 )dx󸀠 dy󸀠 (21.17)


−∞

Damit wird eine Funktion g(x, y) gespiegelt, dann sukzessive über die Funktion f (x, y)
geschoben, an jeder Stelle das Produkt berechnet und darüber wiederum das Integral
über den gesamten Wertebereich gebildet. Das Faltungsintegral ist für die bildgeben-
den Verfahren von großer Bedeutung: In 󳶳Kap. 21.3 werden wir sehen, dass für be-
stimmte bildgebende Systeme das Bild aus dem Original durch eine Faltung mit einer
für das System charakteristischen Funktion berechnet werden kann.
Es gilt nun (ohne Beweis) das Faltungstheorem:

f (x, y) ∗ g(x, y) ∘ ↔ ∙ F(u, v) ⋅ G(u, v) (21.18)

w₁ w₂ w₃

w₄ w₅ w₆

w₇ w₈ w₉
Abb. 21.3: 3 × 3-Maske für eine Faltung.
21 Systemtheorie abbildender Systeme | 595

Es besagt, dass wir eine Faltung auch durchführen können, indem wir die Funktio-
nen f (x, y) und g(x, y) zunächst fouriertransformieren, die Fourier-Transformierten
F(u, v) und G(u, v) miteinander multiplizieren und das Ergebnis dann wieder zurück-
transformieren. Dies ist nicht nur eine wichtige mathematische Erkenntnis – für Bilder
spätestens ab 128 × 128 Pixeln ist dies auch ein Rezept für einen schnellen Faltungs-
Algorithmus, da auch hier natürlich wieder die FFT eingesetzt werden kann.
In der digitalen Schreibweise kann man auch einen etwas anderen Zugang zum
Faltungsintegral wählen: Man lege über das Bild eine Maske mit Gewichtsfaktoren wi
(󳶳Abb. 21.3). Dann multipliziere man jeden Grauwert unter der Maske mit dem dazu
gehörenden Gewichtsfaktor und addiere alle Werte. Das ergibt den neuen Wert, den
wir in das Pixel unter dem mittleren Feld der Maske eintragen. 󳶳Abb. 21.3 zeigt eine
3 × 3-Maske, ebenso sind natürlich 5 × 5- oder 7 × 7-Masken möglich.
Die Gleichungen, mit denen das Faltungsintegral digital approximiert werden
kann, lauten für diese 3 × 3-Maske:
̃ y) = w1 ⋅ g(x − 1, y + 1) + w2 ⋅ g(x, y + 1) + w3 ⋅ g(x + 1, y + 1)
g(x,
+ w4 ⋅ g(x − 1, y) + w5 ⋅ g(x, y) + w6 ⋅ g(x + 1, y)
+ w7 ⋅ g(x − 1, y − 1) + w8 ⋅ g(x, y − 1) + w9 ⋅ g(x + 1, y − 1) (21.19)
Auch dies ist offenbar ein linearer und verschiebungsinvarianter Operator.
Eine mögliche Maske, mit der Bilder nachträglich bearbeitet werden können, ist
die „Mittelwert-Maske“, bei der alle Gewichtsfaktoren gleich sind und 1/9 betragen.
Damit wird das Signal-Rausch-Verhältnis um den Faktor √9 = 3 besser. Nach dem
Faltungstheorem erhält man das gleiche Ergebnis, wenn man das Originalbild und
den Faltungsfilter fouriertransformiert, dann multipliziert und das Ergebnis zurück
transformiert. Die Fourier-Transformierte einer Rechteckfunktion ist aber, wie oben
beschrieben, eine sin(𝜋ux)/(𝜋ux)-Funktion und das bedeutet, dass hohe Raumfre-
quenzen im Bild mit einer oszillierenden Funktion bedämpft bzw. abgeschnitten
werden.
Ein besseres Ergebnis einer räumlichen Glättung eines Bildes erhält man, wenn
man mit einer Maske arbeitet, die eine Gauss-Funktion so gut wie möglich nachemp-
findet. Die Fourier-Transformierte der Gauss-Funktion ist ja wiederum eine Gauss-
Funktion, was dazu führt, dass die hohen Raumfrequenzen mit diesem Filter gleich-
mäßiger bedämpft bzw. abgeschnitten werden.

21.2.3 Das Korrelationsintegral

Korrelationsintegral: Das Korrelationsintegral lautet:


+∞
f (x) ⊗ g(x) = ∫ f (x󸀠 ) ⋅ g(x + x󸀠 )dx󸀠 (21.20)
−∞
596 | Olaf Dössel

Das Korrelationsintegral misst, wie ähnlich sich zwei Bilder sind und ob wir durch
eine Verschiebung (x, y) eine größere Ähnlichkeit herbeiführen können.
Das Korrelationstheorem besagt (ohne Beweis):

f (x) ⊗ g(x) ∘ ↔ ∙ F ∗ (u)G(u) (21.21)

Wir können also ein Korrelationsintegral auch ausrechnen, indem wir die beiden
Funktionen fouriertransformieren, dann die eine Funktion mit dem Konjugiertkom-
plexen der anderen multiplizieren und schließlich das Ergebnis zurücktransformie-
ren. Für die Autokorrelation, bei der man das Korrelationsintegral einer Funktion mit
sich selber berechnet, gilt damit:

f (x, y) ⊗ f (x, y) ∘↔∙ |F(u, v)|2 (21.22)

Die Fourier-Transformierte des Autokorrelationsintegrals ist also das Leistungsdich-


tespektrum der Funktion.

21.3 Räumliche Auflösung und die


Modulationsübertragungsfunktion MTF
In diesem Abschnitt werden allgemeine Zusammenhänge und Erkenntnisse über ab-
bildende Systeme beschrieben. Hierbei kann es sich um Röntgensysteme, Ultraschall-
systeme, Magnetresonanztomographie oder vieles andere mehr handeln (󳶳Abb. 21.4).
Die Kernaussagen dieses Kapitels sind damit sehr universell gültig.
Wir müssen uns dabei allerdings auf einen Typ von abbildenden Systemen be-
schränken: Die Systeme müssen linear und verschiebungsinvariant sein. Was das ge-
nau bedeutet, soll im Folgenden erklärt werden.

2D-Verteilung von Projektionsröntgen-


Röntgenfilm
Röntgenintensitäten System

2D-Verteilung von
DVD
Röntgenschwächungs- CT-System
Datenarchiv
koeffizienten

3D-Verteilung der
Protonendichte MRT-System Befundungsmonitor
im Körper

Abb. 21.4: Beispiele für abbildende Systeme.


21 Systemtheorie abbildender Systeme | 597

Lineare und verschiebungsinvariante Systeme: Ein abbildendes System ist linear, wenn aus
fi (x, y) ≫ System ≫ gi (x, y) für beliebige fi (x, y) folgt, dass

∑ ci ⋅ fi (x, y) ≫ System ≫ ∑ ci ⋅ gi (x, y) (21.23)


i

Ein abbildendes System ist verschiebungsinvariant, wenn zu jedem beliebigen Paar f (x, y) und
g(x, y) gilt:
Aus f (x, y) ≫ System ≫ g(x, y) für beliebige f (x, y) gilt, dass

f (x − x0 , y − y0 ) ≫ System ≫ g(x − x0 , y − y0 ). (21.24)

Lineare und verschiebungsinvariante bildgebende Systeme haben in der Systemtheo-


rie der Elektrotechnik und Informationstechnik ein Analogon: Es sind die linearen
und zeitinvarianten Systeme (Linear and Time Invariant Systems, LTI).
Für lineare und verschiebungsinvariante Systeme gilt ein wichtiger Satz, der in
diesem Kapitel als der „Hauptsatz der Systemtheorie abbildender Systeme“ bezeich-
net werden soll:

Hauptsatz der Systemtheorie abbildender Systeme: Ist ein System linear und verschiebungsinva-
riant, dann gibt es eine Funktion h(x, y), so dass gilt:
+∞
g(x, y) = f (x, y) ∗ h(x, y) = ∬ f (x󸀠 , y󸀠 )⋅h(x − x󸀠 , y − y󸀠 )dx󸀠 dy󸀠 (21.25)
−∞

Was bedeutet dieser Satz? Wenn wir von einem abbildenden System die Funktion
h(x, y) kennen, so können wir zu jedem beliebigen Original am Eingang das Bild am
Ausgang berechnen. Wir brauchen das Original f (x, y) nur mit der Funktion h(x, y) zu
falten.
Die Funktion h(x, y) hat den Namen „Punktbildfunktion“, englisch „Point
Spread Function“, PSF. Ihre Fourier-Transformierte H(u, v) wird als „Systemübertra-
gungsfunktion“, englisch „Modulation Transfer Function“, MTF bezeichnet.

Modulationsübertragungsfunktion (MTF): Die Modulationsübertragungsfunktion MTF ist der bei


der Raumfrequenz (0, 0) auf 1 normierte Absolutbetrag der komplexen Systemübertragungsfunk-
tion:

g(x, y) = f (x, y) ∗ h(x, y) ∘↔∙ G(u, v) = F(u, v) ⋅ H(u, v) (21.26)


h(x, y)∘ ↔ ∙ H(u, v) (21.27)
󵄨󵄨 H(u, v) 󵄨󵄨
󵄨 󵄨󵄨
MTF(u, v) = 󵄨󵄨󵄨 󵄨 (21.28)
󵄨󵄨 H(0, 0) 󵄨󵄨󵄨

Die MTF gibt an, wie gut (mit welcher Modulationsamplitunde) eine Raumfrequenz aus dem Origi-
nal in das Bild übertragen wird.
598 | Olaf Dössel

Der Satz hat eine sehr weitreichende Bedeutung. Er besagt, dass die Kenntnis der
Punktbildfunktion PSF bzw. der Modulationsübertragungsfunktion MTF das abbil-
dende System bezüglich der abbildenden Eigenschaften vollständig charakterisiert.
Dies bedeutet auch, dass wir aus der Kenntnis der MTF wichtige Qualitätsmerkmale
eines abbildenden Systems ablesen können.
Der Hauptsatz der Systemtheorie soll nun bewiesen werden.
Sei O ein Operator, der linear und verschiebungsinvariant ist, und sei f (x, y) ein
beliebiges Original am Eingang des bildgebenden Systems. Es gilt allgemein:
+∞ +∞

f (x, y) = ∫ ∫ f (x󸀠 , y󸀠 )⋅𝛿(x󸀠 − x, y󸀠 − y)dx󸀠 dy󸀠 (21.29)


−∞ −∞

wobei 𝛿(x, y) das sogenannte 𝛿-Funktional ist.


Dann gilt weiter – wegen der Linearität und Verschiebungsinvarianz von O:
+∞ +∞

g(x, y) = O[f (x, y)] = O [ ∫ ∫ f (x󸀠 , y󸀠 )⋅𝛿(x󸀠 − x, y󸀠 − y)dx󸀠 dy󸀠 ]


[−∞ −∞ ]
= ∬ f (x󸀠 , y󸀠 ) O[𝛿(x 󸀠
− x, y󸀠 − y)] dx󸀠 dy󸀠
⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟
h(x󸀠 −x,y󸀠 −y)

= ∬ f (x󸀠 , y󸀠 ) ⋅ h(x󸀠 − x, y󸀠 − y)dx󸀠 dy󸀠 (21.30)

Man erkennt, dass die Funktion h(x, y) eine Abkürzung für das Bild ist, welches das
bildgebende System aus einem einzigen extrem hellen Punkt erzeugt (𝛿-Funktional),
daher der Name Punktbildfunktion.
Die Fourier-Transformierte von h(x, y), also H(u, v), ist, wie 󳶳Gl. (21.26) zeigt, eine
Filterfunktion, die Raumfrequenzen, die im Original F(u, v) noch vorhanden sind, be-
dämpft. Fast alle bildgebenden Systeme der Medizin haben den Charakter eines Tief-
passes, d. h., dass ab einer Grenzfrequenz die höheren Raumfrequenzen abgeschnit-
ten werden. Damit kann man an der MTF erkennen, wie scharf eine Abbildung ist,
welche Details in einem Bild noch zu erkennen sind oder welche 󳶳Auflösung das
System erreicht. Um die Auflösung in mm zu erkennen, kann man beispielsweise das
Reziproke der Raumfrequenz bilden, bei der die MTF auf den Wert 50 % oder 10 % her-
abgesunken ist. Eine andere Variante ist die 3 dB Breite der Punktbildfunktion PSF.
󳶳Abb. 21.5 zeigt den typischen Verlauf der MTF von drei verschiedenen abbilden-
den Systemen und 󳶳Abb. 21.6 zeigt ein CT-Bild des Kopfes aufgenommen mit unter-
schiedlichen MTFs.
Die MTF eines abbildenden Systems kann auf verschiedene Arten gemessen wer-
den. Eine nicht sehr praktikable Art, die aber am besten die Bedeutung der MTF ver-
ständlich macht, soll als Erstes am Beispiel des Projektionsröntgens beschrieben wer-
den.
Wir erzeugen uns viele Bleifolien, in die wir sinusförmige Muster eingeprägt ha-
ben, mit Raumfrequenzen von 0,5/mm, 1/mm, 2/mm bis vielleicht 5/mm. Diese Blei-
21 Systemtheorie abbildender Systeme | 599

MTF schlechtes System


mittelmäßiges System
sehr gutes System
1

0
0 1 2 3 4 Abb. 21.5: Typischer Verlauf der MTF von drei
u in lp/mm abbildenden Systemen.

Abb. 21.6: Schichtbild eines Kopfes, aufgenommen mit drei unterschiedlichen MTFs.

folien halten wir nacheinander in den Strahlengang eines Röntgensystems und mes-
sen im Bild die Modulationshöhe des Signals. Dann teilen wir die jeweilige Modula-
tionshöhe durch die Modulationshöhe, die wir bei einer sehr kleinen Raumfrequenz
(z. B. u = 0,5/mm) gemessen haben. Das Vorgehen folgt exakt den oben angegebenen
󳶳 Gleichungen (21.26), (21.27) und (21.28). Nach diesem Gedankenexperiment hat die
MTF ihren Namen bekommen: Modulationsübertragungsfunktion. Die Methode kann
sinngemäß auf jedes andere bildgebende Verfahren übertragen werden.
Eine andere und durchaus übliche Variante, um die MTF eines Systems zu mes-
sen, geht von einem Strichraster aus, das von einem Ende zum anderen Ende des Pro-
benträgers immer feiner wird. Wieder kann man die Modulationshöhe für verschiede-
ne Raumfrequenzen (Rechteck!) messen, nennen wir sie R(u). Nun muss noch berück-
sichtigt werden, dass wir nicht mit einer Sinusfunktion gemessen haben. Wir kennen
aber die Fourier-Transformierte des Rechteckrasters und können damit „rückwärts“
die MFT aus den Modulationshöhen des Rechteckrasters bei vielen Raumfrequenzen
(u, 3u, 5u etc.) ausrechnen (ohne Beweis):
𝜋 R(3u) R(5u) R(7u)
MTF(u) = [R(u) + − + − . . .] (21.31)
4 3 5 7
Eine dritte Methode geht von einem sehr schmalen Schlitz aus, der in einen Röntgen-
strahlengang gehalten wird. Genau genommen wird hiermit die Linienbildfunktion
600 | Olaf Dössel

in einer Raumrichtung senkrecht zur Richtung des Schlitzes gemessen. Mit einem ein
wenig schräg gestellten Schlitz und einer Auswertung mehrerer Zeilen der Bildmatrix
kann man erreichen, dass man trotz des relativ groben Pixelrasters eine hohe Messauf-
lösung für die Linienbildfunktion bekommt. Der normierte Absolutbetrag der Fouri-
er-Transformierten der Linienbildfunktion ist dann die MTF.
Eine vierte Methode ist mit der dritten sehr verwandt: Statt eines Schlitzes wird
eine scharfe Kante in den Strahlengang gehalten. Da wiederum nicht genau die MTF
selbst gemessen wird, muss eine kleine Umrechung erfolgen, die in den entsprechen-
den Messvorschriften festgelegt ist.
Interessant und wichtig ist es noch, die MTF einer Abbildungskette zu betrachten.
Oft besteht ein abbildendes System aus mehreren Komponenten, die hintereinander-
geschaltet sind. So besteht ein Röntgenbildverstärker aus einem Leuchtschirm, einer
Photokathode, einer Elektronenoptik, einem Ausgangsbildschirm und einer Fernseh-
kamera. Alle Komponenten tragen irgendwie zur gesamten MTF bei. Die folgenden
Gleichungen zeigen den mathematischen Zusammenhang:

Modulationshöhe Ausgang N
MTFgesamt =
Modulationshöhe Eingang 1
Modulationshöhe Ausgang 1 Modulationshöhe Ausgang 2
= ⋅
Modulationshöhe Eingang 1 Modulationshöhe Eingang 2
Modulationshöhe Ausgang N
⋅ ... ⋅ . (21.32)
Modulationshöhe Eingang N

Da die Modulationshöhe am Ausgang 1 mit der Modulationshöhe am Eingang 2 über-


einstimmt, kann man die Größen kürzen. Das geht so weiter durch die gesamte Kette.
Es wird deutlich, dass sich die MTF des Gesamtsystems als das Produkt der MTFs aller
einzelnen Komponenten ergibt.

MTFgesamt = MTF1 ⋅ MTF2 ⋅ . . . ⋅ MTFN (21.33)

Hieraus folgen wichtige Hinweise für die Optimierung eines abbildenden Systems:
Diejenige Komponente, die als Erstes mit ihrer MTF gegen Null geht, bestimmt die Ei-
genschaften des Gesamtsystems. Die anderen MTFs können alle noch so gut sein, wird
bei einer Raumfrequenz das Ganze an einer Stelle mit Null multipliziert, so ist auch
die gesamte MTF Null. Das schwächste Glied in der Kette bestimmt die Gesamtqualität
und an dieser Stelle muss der Entwickler ansetzen, um das System zu verbessern.
21 Systemtheorie abbildender Systeme | 601

21.4 Das Abtasttheorem


Das Abtasttheorem für Signale im Zeitbereich wird als bekannt vorausgesetzt:

Abtasttheorem: grundlegendes Theorem der Signalverarbeitung/Informationstheorie. Ist ein Sig-


nal g(t) bandbegrenzt, d. h., es gibt eine Frequenz fmax , so dass das Spektrum G(f ) = 0 für f > fmax
ist, dann bleibt die vollständige Information des Signals erhalten, wenn das Signal mindestens in
Zeitintervallen von 𝛥t ≤ 1/(2fmax ) abgetastet wird. Das Original kann dann aus der Zeitreihe der
Abtastwerte vollständig rekonstruiert werden.

Wird seltener abgetastet, so kann es zu „Aliasing-Artefakten“ kommen. Daher wer-


den vor einem A/D-Konverter üblicherweise Tiefpass-Filter (Anti-Aliasing-Filter) ein-
gesetzt, die eine zum Abtastintervall passende Maximalfrequenz fmax erzwingen.
Das Abtasttheorem kann ohne Änderung auf das Abtasten von Bildern übertra-
gen werden. Ein Bild wird im Computer als 2D-Feld repräsentiert, wobei die einzelnen
Elemente „Pixel“ genannt werden und jedes Pixel die Bildinformation (Intensität bzw.
Grauwert) eines abgetasteten Punktes (besser: einer kleinen Fläche im Bild) enthält.
Das Bildsignal enthält ein Spektrum an Raumfrequenzen. Die größte vorkommen-
de Raumfrequenz umax bzw. vmax definiert nach dem Abtasttheorem den notwendigen
Abtastabstand:
𝛥x ≤ 1/(2umax ) ; 𝛥y ≤ 1/(2vmax ) (21.34)
In der Medizin ist man immer an einer möglichst guten Auflösung interessiert. Daher
stellt sich hier nicht die Frage nach einem Anti-Aliasing-Filter. Man geht in der Regel
anders herum vor: Aus der MTF folgt die größtmögliche Raumfrequenz, die das bild-
gebende System noch darstellen kann, und der Bildsensor wird dann so konzipiert,
dass das Abtasttheorem eingehalten wird.
Das Thema „Abtasttheorem“ wird in zwei Kapiteln dieses Bandes adressiert: Bei
der Computertomographie (s. 󳶳Kap. 3) wird ein „springender Fokus“ in der Röntgen-
röhre realisiert, um das Abtasttheorem einzuhalten. Und bei der Magnetresonanzto-
mographie (s. 󳶳Kap. 9.3) muss das Abtasttheorem im Fourier-Raum eingehalten wer-
den, da dort die Datenakquisition im Bereich der Fourier-Transformierten des Bildes
erfolgt – eine etwas andere, aber im Prinzip äquivalente Sichtweise.

21.5 Das Rauschen und die detektierte Quantenausbeute DQE


Neben der räumlichen Auflösung, für die als Qualitätsmaß im 󳶳Kap. 21.3 die MTF(u)
eingeführt wurde, ist das Rauschen in einem Bild ein entscheidender Faktor für die
Qualität. Nicht immer ist das Signal-Rausch-Verhältnis (Signal-to-Noise Ratio, SNR)
im Bild ein Qualitätsmaß, welches das bildgebende System charakterisiert. Vielmehr
hängt es auch sehr stark davon ab, wie der Anwender die Parameter bei der Bildauf-
nahme gewählt hat. So wird unten gezeigt, dass für Röntgensysteme die Zahl der nach-
602 | Olaf Dössel

gewiesenen Röntgenquanten für das Rauschen im Bild entscheidend ist. Eine Verdop-
pelung der Aufnahmezeit wird automatisch das SNR um den Faktor √2 verbessern. Bei
der Magnetresonanztomographie stellt sich heraus, dass die wesentliche Rauschquel-
le der Körper des Patienten ist. Auch hier wird eine Verdoppelung der Aufnahmezeit
eine Verbesserung des SNR im Bild zur Folge haben.
Die Frage stellt sich also: Wie kann der Anwender herausbekommen, ob das bild-
gebende System des einen Herstellers bezüglich des Rauschens besser ist als das des
Konkurrenten?
Das Thema soll am Beispiel der Röntgentechnik behandelt werden, viele Aspekte
können auch auf die anderen bildgebenden Verfahren übertragen werden.
Bei einer Röntgenaufnahme landet in jedem Pixel des Bildsensors eine gewisse
Zahl von Röntgenquanten, unabhängig davon, ob es sich um ein digitales Aufnah-
mesystem oder um einen Röntgenfilm mit Verstärkerfolie etc. handelt. Wenn man die
gleiche Aufnahme unter exakt den gleichen Bedingungen immer wieder wiederholt,
wird man feststellen, dass nicht immer genau die gleiche Zahl von Röntgenquanten in
einem Pixel gezählt wird. Misst man die Häufigkeit, mit der eine Quantenzahl x gezählt
wird, so wird man – bei einer sehr großen Zahl von identischen Experimenten – eine
Häufigkeitsverteilung erhalten. Diese Häufigkeitsverteilung wird durch die sogenann-
te Poisson-Verteilung beschrieben (und nicht etwa, wie man naiv meinen könnte,
durch die etwas bekanntere Gauss-Verteilung).

Poisson-Verteilung: Die Häufigkeitsverteilung p(x) für einen Messwert x beträgt bei der Poisson-
Verteilung
𝜇x e−𝜇
p(x) = (21.35)
x!
wobei 𝜇 der Mittelwert der Verteilung ist.

Diese Verteilung wird nur durch einen Parameter vollständig beschrieben, nämlich
den Mittelwert 𝜇. Auch für diese Verteilung kann man die Standardabweichung nach
der bekannten Formel bestimmen:
1
𝜎=√ ∑ (xi − 𝜇)2 (21.36)
N −1
Es ergibt sich:
𝜎2 = 𝜇 𝜎 = √𝜇 (21.37)
d. h., die Standardabweichung ist immer gleich der Wurzel aus dem Mittelwert.
󳶳Tab. 21.1 zeigt, wie sich Mittelwert und Standardabweichung beispielsweise für
immer größer werdende Quantenzahlen in einem Pixel eines Röntgendetektors ver-
halten.
Man erkennt, dass zwar die Standardabweichung mit immer größer werdender
Quantenzahl größer wird, dass sie aber prozentual – wegen der Wurzelfunktion – im-
mer kleiner wird. Werden bei einer Röntgenaufnahme nur 10 Quanten in einem Pi-
xel gezählt, so wird diese Zahl um 31,6 % schwanken. Das Bild ist so verrauscht, dass
21 Systemtheorie abbildender Systeme | 603

Tab. 21.1: Mittlere Zahl der Röntgenquanten, absolute Standardabweichung und relative Standard-
abweichung bei der Poisson-Statistik.

Mittelwert Absolute Standardabweichung Relative Standardabweichung


10 3,16 31,60 %
100 10,00 10,00 %
1000 31,60 3,16 %

nichts darauf zu erkennen ist. Belichten wir aber mit 1000 Quanten pro Pixel, so ist die
Schwankungsbreite nur noch 3,16 %, und da kann man schon etwas erkennen. Unter-
scheiden sich aber zwei Gewebearten, die der Arzt gerne trennen möchte, in der Inten-
sität nur um 3 %, so wird auch diese Aufnahme nicht ausreichen, um die gewünschte
Information zu bekommen.
Im Kapitel zur biologischen Wirkung von ionisierender Strahlung (s. 󳶳Kap. 7) und
im Kapitel zum Projektionsröntgen (s. 󳶳Kap. 2) wird der Zusammenhang zwischen der
Röntgendosis und der Zahl der Röntgenquanten erläutert. Ein Resultat der Überlegun-
gen ist aber schon hier klar zu erkennen: Ohne eine gewisse Dosis an ionisierender
Strahlung wird es nicht möglich sein, eine brauchbare Röntgenaufnahme zu machen.
Wiederum wird deutlich, dass das Rauschen im Bild kein Qualitätsmaß für das
bildgebende System ist. Es kann durch längere Belichtungszeit beliebig herauf- und
heruntergesetzt werden. Was charakterisiert dann aber ein gutes Röntgensystem?
Entscheidend für die Qualität eines Systems ist offenbar, wie viel Rauschen es zum
unvermeidbaren Rauschen hinzufügt. Der Gedanke führt zu folgender Definition:

Detektive Quantenausbeute: Zahl der nachgewiesenen Röntgen- bzw. Gammaquanten bezogen


auf die Zahl der auf den Detektor einfallenden Röntgen- oder Gammaquanten. Die DQE gibt an, mit
welchem Faktor sich das Signal-Rausch-Verhältnis durch ein abbildendes System verschlechtert.
Sie wird definiert als:
SNR(u, v)Ausgang
DQE(uv) = (21.38)
SNR(u, v)Eingang
wobei mit SNR das Verhältnis aus Signalleistungsdichte und Rauschleistungsdichte bezeichnet
wird.

Ein System, das kein Rauschen hinzufügt, hat eine DQE von 1. Je kleiner die DQE,
desto schlechter ist das System. Typisch für Röntgensysteme sind Werte zwischen 0,3
(Speicherfolien) und 0,6 bis 0,7 (Flachbilddetektoren).
Der Name „detektive Quantenausbeute“ hat seinen Ursprung in der Röntgentech-
nik. Dort schwankt die Zahl der auf den Bilddetektor auftreffenden Röntgenquanten
nach der Poisson-Statistik – man beobachtet das sogenannte Quantenrauschen.
Daraus ergibt sich zum einen für ein gleichmäßig beleuchtetes Bild ein weißes
Rauschleistungsspektrum und zum anderen eine Rauschleistungsdichte, die iden-
2
tisch ist mit 𝜎Eingang und damit mit der mittleren Quantenzahl pro Pixel am Eingang
604 | Olaf Dössel

𝜇Eingang . Werden im Eingangsleuchtschirm des Detektors nun nicht alle auftreffenden


Quanten nachgewiesen, so wird das Rauschleistungsspektrum durch die Zahl der
wirklich nachgewiesenen Quanten bestimmt, 𝜇nachgewiesen . Setzen wir diese Größen in
die oben genannte Formel ein, so ergibt sich:
SNR(u, v)Ausgang 𝜇nachgewiesen
DQE(u, v) = = (21.39)
SNR(u, v)Eingang 𝜇Eingang

Damit gibt in diesem Falle die DQE tatsächlich den Prozentsatz der nachgewiesenen
Quanten an, eben die Detective Quantum Efficiency. Der Name DQE wird aber auch für
andere Rauschquellen und andere Systeme verwendet.
Es ist noch interessant – ähnlich wie bei der MTF –, nach der DQE einer Abbil-
dungskette zu fragen. Ähnlich wie dort gilt auch hier:
SNR Ausgang N
DQEgesamt =
SNR Eingang 1
SNR Ausgang 1 SNR Ausgang 2 SNR Ausgang N
= ⋅ ⋅ ... ⋅ . (21.40)
SNR Eingang 1 SNR Eingang 2 SNR Eingang N
Wiederum ist das SNR am Ausgang 1 identisch mit dem SNR am Eingang 2 usw., so
dass auch hier folgt:

DQEgesamt = DQE1 ⋅ DQE2 ⋅ . . . ⋅ DQEN (21.41)

Die DQE einer Abbildungskette ist das Produkt der DQEs jeder einzelnen Komponente.
Ist eine der DQEs der Kette auf Werte nahe Null gesunken, so können die anderen
Komponenten noch so gut sein, das Produkt geht gegen Null.
Eine weitere interessante Frage ist, wie das Rauschleistungsspektrum (Noise
Power Spectrum, NPS) am Ausgang aussieht, wenn das Rauschleistungsspektrum
am Eingang bekannt ist.
Sei NPSEingang (u, v) das Rauschleistungsspektrum am Eingang, so erhalten wir

NPSAusgang (u, v) = NPSEingang (u, v) ⋅ DQE(u, v) ⋅ MTF2 (u, v) (21.42)

Wenn das Rauschleistungsspektrum am Eingang (wie beim Quantenrauschen) weiß


und auch die DQE für alle Raumfrequenzen gleich ist, so wird das Rauschleistungs-
spektrum am Ausgang trotzdem „farbig“ sein: Es trägt einen Stempel der MTF.
Nach den Ausführungen zum Korrelationsintegral (󳶳Kap. 21.2.3) erhalten wir das
Rauschleistungsspektrum auch als Fourier-Transformierte des Autokorrelationsinte-
grals. Gibt man also auf den Eingang eines bildgebenden Systems weißes Rauschen,
so zeigt das Autokorrelationsintegral nur einen Peak bei Null: Sobald das eine Rausch-
bild nur geringfügig gegen das andere verschoben wird, haben die Bilder keinerlei
Ähnlichkeit mehr miteinander. Macht man das Gleiche mit dem Rauschbild am Aus-
gang, so zeigt die Autokorrelationsfunktion einen breiten Fleck. Benachbarte Pixel
sind „miteinander verwandt“ – eine unmittelbare Folge der breiten Punktbildfunkti-
on bzw. der endlichen MTF.
21 Systemtheorie abbildender Systeme | 605

21.6 Der Kontrast


Der Begriff „Kontrast“ gibt an, wie gut sich zwei unterschiedliche Gebiete im Bild
unterscheiden lassen. Es geht also um relative Signalunterschiede, Intensitätsunter-
schiede oder Grauwertunterschiede. Für den Kontrast gibt es drei verschiedene Defi-
nitionen, die je nach Lehrbuch und Zusammenhang verwendet werden:

Kontrast: technischer Parameter in der BMT, der angibt, wie gut sich zwei Gewebearten in einem
Bild unterscheiden lassen bzw. wie gut sich ein Gewebe vom Hintergrund abhebt.
Definitionen des Kontrastes:
(Signal im Gebiet 1) − (Signal im Gebiet 2)
Kontrast1 = (21.43)
(Signal im Gebiet 1) + (Signal im Gebiet 2)
(Signal im Gebiet 1) − (Signal im Gebiet 2)
Kontrast2 = (21.44)
((Signal im Gebiet 1) + (Signal im Gebiet 2)) /2
Kontrast3 = (Signal im Gebiet 1) − (Signal im Gebiet 2) (21.45)

Damit gibt der Kontrast an, ob sich die bei der medizinischen Frage zu trennenden
Gebiete durch die bildgebende Modalität und die gewählten Aufnahmeparameter un-
terscheiden. Zeigen zwei Gebiete einen großen Signalunterschied, so ist der Kontrast
auch bei stark verrauschten Bildern gut zu erkennen. Für kleine Kontraste ist ein sehr
gutes Signal-Rausch-Verhältnis nötig. Die Modulationsübertragungsfunktion MTF be-
schreibt, wie stark die Modulationshöhe bei hohen Raumfrequenzen bedämpft wird.
Damit werden kleine Details mit kleinen Kontrasten durch eine schlechte MTF un-
sichtbar. 󳶳Abb. 21.7 zeigt mit einem Testbild, dass auch die Größe einer Struktur die
Erkennbarkeit beeinflusst.
Ärzte – insbesondere Radiologen – haben in systematischen Studien herausge-
funden, mit welchen bildgebenden Systemen und bei welchen Aufnahmeparametern
der Kontrast für eine spezifische Frage optimal wird. Oft sind diese Ergebnisse in ärzt-
lichen Leitlinien festgehalten, die den Arzt oder die Ärztin dabei unterstützen, gleich
die bestmöglichen Parameter zur Klärung der diagnostischen Fragestellung zu wäh-
len.

Abb. 21.7: Testbild mit unterschiedlich starkem Rauschen.


606 | Olaf Dössel

21.7 Die zeitliche Auflösung


Die zeitliche Auflösung gibt an, wie lang das kleinstmögliche Zeitfenster ist, das für
die Datenaufnahme eines Bildes verwendet werden kann. Beim Projektionsröntgen ist
der Vergleich mit der Belichtungszeit der Fotografie naheliegend. Bei der CT, SPECT
und PET müssen Projektionen über einen Winkelbereich von 180°gesammelt werden;
hierfür ist eine gewisse Zeit notwendig. Auch bei der MRT müssen mehrere Pulsse-
quenzen durchlaufen werden, bis genügend Daten für eine Bildrekonstruktion vor-
handen sind. Beim Ultraschall muss die Schallkeule ein Gebiet überstreichen; dabei
dürfen sich keine aufeinanderfolgenden Sendepulse in ihren Echos überlagern. So hat
jedes System eine typische Aufnahmezeit, die sich nur schwer unterschreiten lässt.
Bei der Aufnahme von wiederholbaren Ereignissen, also z. B. bei Aufnahmen vom
schlagenden Herzen, kann folgender Trick verwendet werden, um die zeitliche Auflö-
sung zu verbessern: Die Datenakquisition erfolgt getriggert (z. B. EKG-getriggert) und
es werden viele aufeinanderfolgende identische Herzschläge für eine einzige zeitlich
hoch aufgelöste Bildsequenz zusammengesetzt. Damit verlängert sich automatisch
die gesamte Aufnahmezeit – daher soll hier auf den Zusammenhang zwischen der
zeitlichen Auflösung und der gesamten Aufnahmedauer hingewiesen werden.
Eine kurze zeitliche Auflösung ist zunächst immer vorteilhaft, da die Bilder dann
seltener verwackelt sind. Bewegungen des Patienten z. B. wegen der Atmung sind nie
ganz vermeidbar. Eine gute zeitliche Auflösung ist notwendig, wenn bewegte Orga-
ne oder Organbewegungen abgebildet werden sollen, z. B. das schlagende Herz, oder
wenn dynamische Vorgänge, z. B. das Einfließen und Ausspülen eines Kontrastmit-
tels, dargestellt werden sollen.
Für die gesamte Aufnahmedauer gibt es unterschiedliche Definitionen: Manch-
mal ist die reine Zeit der Datenakquisition für das Bild gemeint, manchmal werden
„Rüstzeiten“ wie z. B. die richtige Einstellung des Systems und die Lagerung des Pa-
tienten hinzugerechnet. Die Datenakquisitionszeit ist wichtig, da sie die Geduld des
Patienten strapaziert. Die Gesamtzeit inklusive Patientenlagerung bestimmt den Pati-
entendurchsatz, den ein Radiologe in seiner Praxis maximal erzielen kann.

21.8 Erkennen von Details in Bildern und die Perzeption


Ein Bild entsteht genau genommen erst im Kopf des Betrachters. Dazu muss das Bild
durch das visuelle System (Auge) über den visuellen Kortex übertragen werden, um
dann schließlich mithilfe von kognitiven Fähigkeiten verarbeitet und interpretiert zu
werden. Der Gesamtprozess wird auch „Perzeption“ (englisch: perception) genannt.
Das visuelle System kann bei unterschiedlichen Grundhelligkeiten kleinste Grau-
wertunterschiede verschieden gut wahrnehmen. Ein Lichtkasten oder ein Befun-
dungsmonitor müssen diese Erkenntnisse aus der Physiologie des Sehens berück-
sichtigen.
21 Systemtheorie abbildender Systeme | 607

Tab. 21.2: Wahrheitsmatrix, übertragen auf das Erkennen von Details in Bildern.

Detail war wirklich da Detail war wirklich nicht da


Detail wurde als „da“ erkannt wahr positive falsch positive
true positive, TP false positive, FP
Detail wurde als „nicht da“ erkannt falsch negative wahr negative
false negative, FN true negative, TN

Was in einem Bild von einem geübten Arzt erkannt wird, lässt sich mithilfe statis-
tischer Methoden analysieren. Ein wichtiges Werkzeug ist dabei die sogenannte Re-
ceiver Operating Characteristic (ROC). Hierbei werden Werte aus einer „Wahrheits-
matrix“ gegeneinander aufgetragen (󳶳Tab. 21.2).
Mit diesen Definitionen ist offenbar die Summe aus TP + FP + TN + FN die Zahl der
dem Arzt zur Entscheidung vorgelegten Bilder.
Um die Möglichkeit zur Befundung mithilfe eines bildgebenden Verfahrens objek-
tiver messen und bewerten zu können, werden nun folgende Größen definiert:

Sensitivität: Trefferquote eines Klassifikationsverfahrens (Richtig-Positiv-Rate), die den Anteil der


korrekt als positiv klassifizierten Objekte an der Gesamtheit der tatsächlich positiven Objekte an-
gibt.
Zahl der wahr positiv erkannten TP
Sensitivität = = (21.46)
Zahl aller positiven Fälle TP + FN
Selektivität, Spezifität: Trefferquote eines Klassifikationsverfahrens (Richtig-Negativ-Rate), die
den Anteil der korrekt als negativ klassifizierten Objekte an der Gesamtheit der in Wirklichkeit
negativen Objekte angibt.

Zahl der wahr negativen erkannten TN


Selektivität = Spezifität = = (21.47)
Zahl aller negativen Fälle FP + TN

Die Falsch-Positiv-Rate (False Positive Fraction, FPF) gibt den Anteil der fälschlich
als positiv klassifizierten Objekte an, die in Wirklichkeit negativ sind.

Zahl der falsch positiv erkannten FP


FPF = = (21.48)
Zahl aller negativen Fälle FP + TN

Die Falsch-Negativ-Rate (False Negative Fraction, FNF) gibt den Anteil der fälschlich
als negativ klassifizierten Objekte an, die in Wirklichkeit positiv sind.

Zahl der falsch negativ erkannten FN


FNF = = (21.49)
Zahl aller positiven Fälle TP + FN

Die Receiver Operating Characteristic (ROC) ist nun eine Darstellung, bei der bei-
spielsweise die Ergebnisse für die Sensitivität (= Richtig-Positiv-Rate, TPF) gegen
die Falsch-Positiv-Rate, FPF (= 1-Spezifität) für alle Ärzte, die an dem Test teil-
genommen haben, aufgetragen wird [Oppelt 2005] (󳶳Abb. 21.8). Offenbar ist ein
608 | Olaf Dössel

Richtig-positiv-Rate zunehmende
Qualität
Sensitivität

0
0 0,5 1 Abb. 21.8: Receiver Operating Characteristics,
Falsch-positiv-Rate ROC.

bildgebendes Verfahren besonders gut für eine medizinische Frage geeignet, wenn
die Kurve ähnlich wie die Kurve (a) im Bild verläuft. Wird ein Verlauf beobachtet, der
auf der Diagonalen liegt, so haben alle Testteilnehmer eigentlich nur geraten und das
bildgebende System hat nichts zur Entscheidung beigetragen.

21.9 Das Dreieck aus räumlicher Auflösung, zeitlicher Auflösung


und Rauschen
Für die Bewertung der Qualität eines abbildenden Systems in der Medizin sind die
Größen „räumliche Auflösung“, „zeitliche Auflösung“ und damit in engem Zusam-
menhang die „Aufnahmezeit“ und das „Signal-Rausch-Verhältnis“ (SNR) bzw. der er-
reichbare „Kontrast“ von großer Bedeutung. Aus diesen Größen kann man ein Quali-
tätsdreieck konstruieren (󳶳Abb. 21.9).
Es stellt sich heraus, dass oft die eine Größe zu Lasten einer anderen verbessert
werden kann. Nimmt man eine längere Aufnahmezeit in Kauf, so kann das Rauschen
im Bild verkleinert werden. Ebenso kann durch Opfern von räumlicher Auflösung
(auch durch nachträgliche Bildbearbeitung) das Rauschen im Bild verkleinert wer-
den. Es gibt einen indirekten Zusammenhang zwischen Kontrast und SNR. Ob der
Kontrast für die diagnostische Fragestellung ausreichend ist, hat zunächst weniger
mit der technischen Qualität des Gerätes zu tun, sondern vielmehr, ob die Modalität
überhaupt für diese Fragestellung geeignet ist. Durch geschickte Wahl der Aufnah-
meparameter lässt sich der Kontrast aber oft noch verbessern (z. B. durch die richtige
Wahl der Anodenspannung beim Röntgen, die richtige Wahl der Pulssequenz bei der
MRT oder durch den Übergang zu einer anderen Sendefrequenz bei der Ultraschall-
Bildgebung). Nach dieser Optimierung bleibt am Ende das Signal-Rausch-Verhältnis
der Aufnahme als Kriterium, ob es gelingt, kleinste Signalunterschiede in benach-
21 Systemtheorie abbildender Systeme | 609

räumliche
Auflösung
0,1 mm

1 mm

10 mm

1s 1%

100 ms 0,1 %

zeitliche 10 ms 0,01 %
Rauschen
Auflösung

Aufnahme-
Kontrast
zeit

Abb. 21.9: Das Dreieck aus räumlicher Auflösung, zeitlicher Auflösung bzw. Aufnahmezeit und Sig-
nal-Rausch-Verhältnis bzw. Kontrast, in blau: ein willkürliches Beispiel.

barten Bildgebieten als unterschiedlich wahrzunehmen. Oft geht man davon aus,
dass sich zwei Gebiete im Bild unterscheiden lassen, wenn der Grauwertunterschied
größer als das Dreifache der Standardabweichung beträgt.

Weiterführende Literatur
Jähne B.: Digitale Bildverarbeitung, 4., völlig neubearbeitete Auflage. Berlin: Springer-Verlag, 1997.
Lehmann T., Oberschelp W., Pelikan E., Repges R.: Bildverarbeitung für die Medizin. Berlin:
Springer-Verlag, 1997.
Oppelt A.: Imaging Systems for Medical Diagnostics. Erlangen: Publicis Corporate Publishing, 2005.
610 | Olaf Dössel

Testfragen
1. Mit welcher Gleichung berechnet man die Fourier-Transformation eines Bildes? In welchen Be-
reichen der Fourier-Transformierten findet man die Grobstruktur und in welchen die Detailstruk-
turen des Bildes?
2. Was versteht man unter einer Faltung zweier Bilder und wie kann man die Faltung zweier Bilder
vorteilhaft berechnen?
3. Was versteht man unter dem Korrelationsintegral zweier Bilder und wie kann man die Korrelation
zweier Bilder vorteilhaft berechnen?
4. Welche Voraussetzungen erfüllt ein lineares und verschiebungsinvariantes bildgebendes Sys-
tem?
5. Mithilfe welcher Funktion kann man bei einem linearen und verschiebungsinvarianten System
aus jedem beliebigen Original das Bild berechnen?
6. Wie kann man die Modulationsübertragungsfunktion MTF messen?
7. Formulieren Sie das Abtasttheorem für die Aufnahme von Bildern.
8. Was versteht man unter der detektiven Quantenausbeute DQE? Wie groß ist die DQE der ersten
Stufe eines Röntgensystems?
9. Mit welcher Häufigkeitsverteilung kann man die Zahl der Quanten in einem Pixel bei einer Rönt-
genaufnahme beschreiben? Welche Beziehung gibt es zwischen dem Mittelwert und der Stan-
dardabweichung?
10. Wie kann man die MTF einer Abbildungskette aus den MTFs der einzelnen Komponenten berech-
nen?
11. Wie kann man die DQE einer Abbildungskette aus den DQEs der einzelnen Komponenten berech-
nen?
12. Welche Definitionen für den „Kontrast“ in medizinischen Bildern kennen Sie?
13. Wie sind die Begriffe „Sensitivität“ und „Selektivität“ definiert?
14. Welche Größen werden bei einer „Receiver Operation Curve“ ROC gegeneinander aufgetragen?
Wann ist ein Bild optimal für die Befundung geeignet?
Autorenverzeichnis
Kapitel 1
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.

Kapitel 2
Prof. Dr.-Ing. Til Aach
Lehrstuhl für Bildverarbeitung, RWTH Aachen, Sommerfeldstraße 24, 52074 Aachen.

Prof. Dr. rer. nat. Olaf Dössel


Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.

Kapitel 3
Prof. Dr. Thorsten M. Buzug
Institut für Medizintechnik, Universität zu Lübeck, Ratzeburger Allee 160, 23538
Lübeck, E-Mail: buzug@imt.uni-luebeck.de, www.imt.uni-luebeck.de

Dr. Thomas Flohr


Siemens AG Healthcare Sector, Computed Tomography, Siemensstraße 1, 91301
Forchheim, Germany, E-Mail: thomas.flohr@siemens.com

Kapitel 4
Dr. Thomas Mertelmeier
Siemens AG Healthcare Sector, 91050 Erlangen, E-Mail:
thomas.mertelmeier@siemens.com.

Kapitel 5
Prof. Dr. Henrik Botterweck
Labor für medizinische Bildgebung, Fachhochschule Lübeck, Mönkhofer Weg 239,
23562 Lübeck, E-Mail: botterweck@fh-luebeck.de, tandem.medisert.de/tandem.html

Kristin Kötz
Sektion Biomedizinische Bildgebung, Klinik für Diagnostische Radiologie UKSH,
Campus Kiel, Christian-Albrechts-Universität zu Kiel, Molecular Imaging North
Competence Center (MOIN CC), Am Botanischen Garten 14, 24118 Kiel, E-Mail:
kkoetz@nuc-med.uni-kiel.de.
612 | Autorenverzeichnis

Kapitel 6
Dr. Simone Beer
Forschungszentrum Jülich, Institut für Neurowissenschaften und Medizin, 52425
Jülich, E-Mail: si.beer@fz-juelich.de.

Prof. Dr. Henrik Botterweck


Labor für medizinische Bildgebung, Fachhochschule Lübeck, Mönkhofer Weg 239,
23562 Lübeck, E-Mail: botterweck@fh-luebeck.de,
www.tandem.medisert.de/tandem.html.

Kapitel 7
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.

Kapitel 8
Prof. Dr.-Ing. Helmut Ermert
Forschungsgruppe Hochfrequenztechnik, Ruhr-Universität Bochum/Geb. ID 03/343,
44780 Bochum, E-Mail: helmut.ermert@rub.de, www.hf.rub.de.

Dr.-Ing. Dipl.-Wirt. Ing. Christian Hansen


Forschungsgruppe Hochfrequenztechnik, Ruhr-Universität Bochum, 44780 Bochum,
E-Mail: christian.hansen@rub.de, www.hf.rub.de/hf_technik/hansen/index.html.

Kapitel 9
Prof. Dr. Tobias Schaeffter
King’s College London, Division of Imaging Sciences and Biomedical Engineering,
St. Thomas Hospital, 4th Floor, Lambeth Wing, SE1 7EH London, United Kingdom,
E-Mail: Tobias.Schaeffter@kcl.ac.uk.

Kapitel 10
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.

Kapitel 11
Prof. Dr. Thorsten M. Buzug
Institut für Medizintechnik, Universität zu Lübeck, Ratzeburger Allee 160, 23538
Lübeck, E-Mail: buzug@imt.uni-luebeck.de, www.imt.uni-luebeck.de
Autorenverzeichnis | 613

Bernhard Gleich
Philips Technologie GmbH, Innovative Technologies, Research Laboratories,
Röntgenstraße 24–26, 22335 Hamburg, E-Mail: bernhard.gleich@philips.com.

Dr. Jörn Borgert


Philips Technologie GmbH, Innovative Technologies, Research Laboratories,
Röntgenstraße 24–26, 22335 Hamburg, E-Mail: joern.borgert@philips.com.

Kapitel 12
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.

Kapitel 13
PD Dr.-Ing. Thomas Wittenberg
Fraunhofer Institut für Integrierte Schaltungen IIS, Abteilung für Bildverarbeitung
und Medizintechnik, Am Wolfsmantel 33, 91058 Erlangen, E-Mail:
thomas.wittenberg@iis.fraunhofer.de, www.iis.fraunhofer.de/med

Kapitel 14
Dr. Julia Walther, Prof. Dr. Edmund Koch
Medizinische Fakultät Carl Gustav Carus, Klinisches Sensoring und Monitoring,
Fetscherstraße 74, 01307 Dresden, E-Mail: Edmund.Koch@TU-Dresden.de,
www.tu-dresden.de/medksm.

Kapitel 15
Dr. Dirk Grosenick, Prof. Dr. Rainer Macdonald
Physikalisch-Technische Bundesanstalt (PTB), Abbestraße 2–12, 10587 Berlin, E-Mail:
dirk.grosenick@ptb.de und Rainer.Macdonald@ptb.de,
http://www.ptb.de/cms/en/fachabteilungen/abt8/fb-83.html

Kapitel 16
Prof. Dr. Thorsten M. Buzug
Institut für Medizintechnik, Universität zu Lübeck, Ratzeburger Allee 160, 23538
Lübeck, E-Mail: buzug@imt.uni-luebeck.de, www.imt.uni-luebeck.de.

Prof. Dr.-Ing. Cila Herman


Heat Transfer Lab, Department of Mechanical Engineering, Johns Hopkins
University, 3400 N. Charles St., Baltimore, MD 21218, USA, e-mail:
cherman.jhu@gmail.com.
614 | Autorenverzeichnis

Kapitel 17
Dr.-Ing. Marko Helbig
Technische Universität Ilmenau, Institut für Biomedizinische Technik und
Informatik, Gustav-Kirchhoff-Str. 2, 98693 Ilmenau, E-Mail:
marko.helbig@tu-ilmenau.de, www.tu-ilmenau.de/bmti.

Kapitel 18
Prof. Dr. Fabian Kiessling, MD
Institut für Experimentelle Molekulare Bildgebung, Helmholtz-Institut,
RWTH-Aachen, Pauwelsstraße 20, 52074 Aachen, E-Mail: fkiessling@ukaachen.de,
http://exmi.rwth-aachen.de.

Kapitel 19
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.

Kapitel 20
Prof. Dr. Michael Kaschke
Carl Zeiss AG, Carl-Zeiss-Str. 22, 73447 Oberkochen, E-Mail: kaschke@zeiss.de.

Dr. Michael Stefan Rill


Carl Zeiss AG, Carl-Zeiss-Str. 22, 73447 Oberkochen, E-Mail: m.rill@zeiss.de.

Kapitel 21
Prof. Dr. rer. nat. Olaf Dössel
Karlsruher Institut für Technologie (KIT), Institut für Biomedizinische Technik,
Fritz-Haber-Weg 1, 76131 Karlsruhe, olaf.doessel@kit.edu, www.ibt.kit.edu.
Bandspezifisches Glossar
ABCD-Regel (ABCD rule): Regel die die kritischen Parameter von Hautläsionen an-
gibt: Asymmetrie, Grenze (border), Farbe (colour) und Durchmesser. 󳶳Kapitel 16

Abtasttheorem (sampling theorem): grundlegendes Theorem der Signalverarbei-


tung/Informationstheorie. Ist ein Signal g(t) bandbegrenzt, d. h., es gibt eine Fre-
quenz fmax , so dass das Spektrum G(f ) = 0 für f > fmax ist, dann bleibt die vollstän-
dige Information des Signals erhalten, wenn das Signal mindestens in Zeitintervallen
von Δt ≤ 1/(2fmax ) abgetastet wird. Das Original kann dann aus der Zeitreihe der
Abtastwerte vollständig rekonstruiert werden. 󳶳Kapitel 21

Acoustic Radiation Force Impulse Imaging (ARFI-Imaging): spezielle Version der


Elastographie, bei der die Gewebedeformation durch akustisch induzierte Strahlungs-
drücke hervorgerufen wird. 󳶳Kapitel 8

Afokales Linsensystem (afocal lens system): Linsensystem, das weder bündelnd


noch zerstreuend wirkt. Parallel einfallende (kollimierte) Lichtstrahlen werden zwar
innerhalb des Systems gebrochen, verlassen es jedoch wieder in paralleler Ausrich-
tung. 󳶳Kapitel 20

Afterglow (dt. Nachleuchten): Nachleuchten der Detektorkristalle eines Röntgende-


tektors. 󳶳Kapitel 3

Akkommodation (accomodation): Fähigkeit des Auges, auf Objekte in unterschied-


lichen Entfernungen zu fokussieren. Dabei wird die Brechkraft der Linse durch Kon-
traktion und Relaxation des Ziliarmuskels variiert. Die Einstellung des Auges beim Se-
hen auf entfernte Punkte (entspanntes Auge) wird als Fernakkommodation bezeich-
net. Bei einem gesunden Auge werden dabei die parallelen Strahlen eines „unendlich“
fernen Punktes auf der Netzhaut scharf abgebildet. Die Einstellung auf nahe Punkte
(maximale Akkommodation) wird als Nahakkommodation bezeichnet. Letztere liegt
im Kindesalter bei etwa 7 cm und entspricht bei einem jungen normalsichtigen Er-
wachsenen der Bezugssehweite lb von ca. 25 cm. Ab einem Alter von etwa 45 Jahren
nimmt die Nahakkommodationslänge zu. 󳶳Kapitel 20

Aktionspotential (action potential): Verlauf der Transmembranspannung nach der


Aktivierung einer Nervenzelle oder einer Herzmuskelzelle. 󳶳Kapitel 10

Aktivität (activity): Zerfallsrate, Zahl der radioaktiven Zerfälle pro Sekunde.


󳶳Kapitel 5 und 6

Akustischer Strahlungsdruck (acoustic radiation pressure): Durch die nichtlinea-


re Wirkung eines Mediums erzeugter Gleichanteil des Schalldruckes in einem akusti-
schen Wellenfeld. 󳶳Kapitel 8
616 | Bandspezifisches Glossar

Anger-Kamera (Anger camera): Abbildung von Gammaphotonen mittels Kollima-


tor, Szintillator und Photomultipliern. Bei jedem detektierten Ereignis wird zur Er-
höhung der Ortsauflösung der Schwerpunkt von allen Photomultipliersignalen be-
stimmt. 󳶳Kapitel 5

Angiographie (angiography): Abbildung der Blutgefäße. 󳶳Kapitel 2

Annihilation (lat.: annihilatio – das Zunichtemachen; annihilation): Vorgang der


Paarvernichtung beim Aufeinandertreffen von Teilchen und Antiteilchen. Im Falle der
Positron-Elektron-Annihilation werden beide Teilchen vollständig vernichtet. Dabei
entstehen nach E = mc2 zwei Gammaquanten mit einer Energie von jeweils 511 keV.
󳶳Kapitel 6

Apertur (aperture): Begriff aus der Antennentheorie, der die Geometrie (Länge oder
Fläche) eines Sende- oder Empfangssystems (einzelne Antenne, Gruppenantenne) be-
schreibt. 󳶳Kapitel 8

Apodisierung (apodisation): Amplitudenbelegung der Elemente einer Gruppenan-


tenne. 󳶳Kapitel 8

Äquivalentdosis H (equivalent dose, equivalent absorbed radiation dose): Pro-


dukt aus Energiedosis und einem strahlenartabhängigen Faktor, der die biologische
Wirksamkeit berücksichtigt. Dieser Faktor wurde für Röntgenstrahlen auf 1 festgelegt.
Die Äquivalentdosis wird in der Einheit Sievert (Sv) angegeben. 󳶳Kapitel 7

Äquivalentdosisleistung (equivalent dose rate, biological dose rate): Äquivalent-


dosis pro Zeitintervall, die Einheit ist J/kgs = Sv/s. 󳶳Kapitel 7

Array (dt. Reihe, Gruppe): in der Radar- und Ultraschalltechnik eine aus einzelnen
Antennenelementen bestehende Gruppenantenne. 󳶳Kapitel 8

A-Scan: eindimensionale echosonographische „Abtastung“ von Objekten; Aufnahme


eines Ultraschallechos aus einer einzelnen Richtung, z. B. zur Berechnung einer ein-
zelnen Bildlinie aus der Amplitude des demodulierten hochfrequenten Echos (A . . .
Amplitude). 󳶳Kapitel 8

Attributives Risiko (attributive risk): relatives Risiko minus 1. Damit ist das attributi-
ve Risiko Null, wenn durch die bewerteten Einflüsse keine zusätzlichen Erkrankungen
auftreten. 󳶳Kapitel 7

Auflösung, räumlich bzw. zeitlich (resolution): Maß für die Fähigkeit eines Abbil-
dungssystems, kleine, nah beieinander liegende Objekte als separate Objekte darstel-
len zu können bzw. die kleinstmögliche Zeitdauer, die für die Bildaufnahme nötig ist.
Als Maß für die räumliche Auflösung wird häufig die Halbwertsbreite der Punktbild-
funktion verwendet. 󳶳Kapitel 8 und 21
Bandspezifisches Glossar | 617

Backing (dt. Hinterfüllung): dämpfendes, an der nicht benutzten Rückseite eines pie-
zoelektrischen Schallwandlerelements angekoppeltes Material. 󳶳Kapitel 8

Ballondilatation (balloon dilation, percutaneous transluminal angioplasty): Auf-


weitung eines verengten Blutgefäßes mithilfe eines aufblasbaren Ballons. 󳶳Kapitel 2

Bandbreite (bandwidth): spektrale Breite eines Signals oder des Übertragungsver-


haltens (Durchlass, Dämpfung) eines Übertragungssystems (z. B. eines Bandfilters).
󳶳Kapitel 8

Bandpass (band-pass): Filter, das die Übertragung von Signalen auf eine bestimmte
Bandbreite begrenzt. 󳶳Kapitel 8

B-Bild (B-scan image): auf dem B-Scan-Konzept (B . . . Brightness; dt. Helligkeit)


basierendes Ultraschallbild mit grauwertcodierter Schnittbild-Darstellung von Objek-
ten. 󳶳Kapitel 8

Beam Former (dt. Strahlformer): Basisalgorithmus in der UWB-Radar-Bildgebung


zur Lokalisierung reflektierender Bereiche innerhalb des Untersuchungsmediums.
Die Bezeichnung beruht auf der Analogie zur Ansteuerung eines Antennenarrays,
um ein bestimmtes Strahlungsprofil zu erzeugen. Der Prozess wird als beam forming
(auch Beamforming, Migration) bezeichnet. 󳶳Kapitel 8 und 17

Beamforming (dt. Strahlformung): Methode zur Erzeugung einer bestimmten Strahl-


form (Breite und Richtung) durch die Ansteuerung der Elemente eines Arrays.
󳶳Kapitel 8

Bildgebungsmodalitäten für die molekulare Bildgebung (imaging modalities for


molecular imaging): nichtinvasive Verfahren wie SPECT, PET, MRT, US und die opti-
sche Bildgebung, die in Verbindung mit molekularen Sonden zelluläre und moleku-
lare Vorgänge im Körper darstellen können. 󳶳Kapitel 18

Bildkontrast: Diese Kenngröße beschreibt, wie stark sich unterschiedliche Gewebe


im Bild unterscheiden lassen. 󳶳Kapitel 9 und 21

Biologische Barriere (biological barrier): Gewebestruktur, die die Verteilung eines


Pharmazeutikums beschränkt. 󳶳Kapitel 18

Blei-Zirkonat-Titanat (PZT; Plumbum/Lead Zirconate Titanate): für die Verwen-


dung in Schallwandlern geeignetes Keramikmaterial mit piezoelektrischen Eigen-
schaften. 󳶳Kapitel 8

Body Surface Potential Mapping (BSPM; dt. Darstellung der Potentialverteilung auf
der Körperoberfläche): Messung und Kartierung der elektrophysiologisch erzeugten
Potentialverteilung auf der Körperoberfläche. 󳶳Kapitel 10

Bolus: Intravenöse Schnellinjektion eines Kontrastmittels. So entsteht ein mit Kon-


trastmittel angereicherter Abschnitt im Blut. 󳶳Kapitel 2 und 8
618 | Bandspezifisches Glossar

Bremsstrahlung (bremsstrahlung): bei Röntgenstrahlung diejenige Strahlung, die


durch das Abbremsen schneller Elektronen entsteht. Bremsstrahlung hat ein breites
Spektrum. 󳶳Kapitel 2

B-Scan: zweidimensionale echosonographische Abtastung von Objektquerschnit-


ten mittels räumlich versetzter A-Scans zum Aufbau eines flächenhaften B-Bildes.
󳶳Kapitel 8

Carrier-Protein (dt. Tranport-Protein): Protein, das andere Stoffe temporär bindet


und transportiert (z. B. im Blut oder durch die Zellmembran hindurch). 󳶳Kapitel 18

C-Bogen (C-arm system): System aus Röntgenröhre und flächenhaftem Röntgende-


tektor, die in Form eines großen „C“ fest miteinander verbunden sind, aber zusammen
um den Patienten herum bewegt werden können. 󳶳Kapitel 2

Center of Rotation (COR; dt. Rotationszentrum; auch fulcrum): Punkt, in dem sich
bei der Tomosynthese alle Verbindungslinien vom punktförmig gedachten Röntgen-
fokus zum Zentrum der Bildebene schneiden. 󳶳Kapitel 4

Charakteristische Strahlung (characteristic X-ray radiation): Röntgenstrahlung,


die durch hochenergetische Übergänge in den Elektronenhüllen von Atomen oder Mo-
lekülen entsteht. Sie bewirkt diskrete Linien im Röntgenspektrum. 󳶳Kapitel 2

Chemical Exchange Saturation Transfer (CEST; dt. Sättigungsübertragung bei che-


mischem Austausch): molekulare MRT- Sättigungsbildgebung. 󳶳Kapitel 18

Chromophor (chromophore): Teil eines Moleküls, der für die Farbigkeit verantwort-
lich ist. 󳶳Kapitel 14

Color Flow Imaging (dt. „Farbdoppler“): farbkodierte Dopplersonographie. Farbko-


dierte, ortsaufgelöste, quantitative Echtzeit-Darstellung des Blutflusses (Richtung,
mittlere Geschwindigkeit) in Gefäßen durch Nutzung des Doppler-Effektes und Aus-
wertung von Amplitude und Phase der Echosignale. 󳶳Kapitel 8

Compounding (dt. Zusammensetzung): Abbildung einer einzelnen Querschnittsebe-


ne eines Objektes durch Kombination mehrerer aus verschiedenen Aspektwinkeln
aufgenommener Schnittbilder. 󳶳Kapitel 8

Compton-Effekt (Compton effect): Ergebnis des Wechselwirkungsprozesses von


Photonen mit Materie. Das Photon streut an einem Elektron, gibt dadurch einen Teil
seiner Energie an das Elektron ab und ändert seine Richtung (Compton-Streuung).
󳶳Kapitel 2 und 5

Compton-Streuung (Compton scatter): Photonen-Streuung an quasifreien, äuße-


ren Hüllenelektronen. Kollidiert ein Photon mit einem solchen Elektron, so kann es
bei dem Stoß Energie und Impuls auf das Elektron übertragen, vergleichbar mit dem
Zusammenstoß von zwei Billardkugeln. 󳶳Kapitel 2
Bandspezifisches Glossar | 619

Computerized Axial Tomography (CAT): Computertomographie im anglikanischen


Sprachraum. 󳶳Kapitel 3

Computertomographie (CT; computed tomography): abbildendes Verfahren in der


Medizin zur überlagerungsfreien Schnittbilddarstellung auf Basis von Röntgenstrah-
len. 󳶳Kapitel 3

Continuous Wave (CW; dt. Dauerstrich): Betriebsart mit kontinuierlichen Wellenfor-


men (z. B. Sinuswellen). 󳶳Kapitel 8

Contraves-System (Contraves system): Stativ, das durch dynamische Gegenge-


wichte ein montiertes System mechanisch ausbalanciert. Dadurch lässt sich das
angebrachte System nahezu kraftlos verschieben. „Contraves“ bezieht sich auf den
Namen einer Schweizer Firma Oerlikon Contraves, die diese Stativvorrichtung
entwickelt und patentiert hat. 󳶳Kapitel 20

Curved Array (dt. gebogene Gruppe): Array mit gekrümmter, z. B. konvexer Apertur-
geometrie. 󳶳Kapitel 8

Dämpfung (attenuation): Reduktion der Amplitude bzw. der Leistung einer Welle
infolge Absorption, Reflexionen, Streuung und/oder Beugung im Übertragungs-
medium; definiert als Verhältnis zweier (elektrischer, optischer, akustischer o. a.)
Leistungs- (oder Amplituden-)werte, oder der 10fache (Leistung) bzw. 20-fache (Am-
plitude) dekadische Logarithmus dieses Verhältnisses mit der Einheit Dezibel (dB).
󳶳Kapitel 8

Depth of Interaction (DOI; dt. Wechselwirkungstiefe): Wechselwirkungstiefe im


Detektor. Mithilfe ihrer Bestimmung kann der Parallaxeneffekt reduziert werden.
󳶳Kapitel 6

Detektive Quantenausbeute (detective quantum efficiency, DQE) (auch detektive


Quanteneffizienz genannt): Zahl der nachgewiesenen Röntgen- bzw. Gammaquanten
bezogen auf die Zahl der auf den Detektor einfallenden Röntgen- oder Gammaquan-
ten. Die DQE gibt an, mit welchem Faktor sich das Signal-Rausch-Verhältnis durch ein
abbildendes System verschlechtert. 󳶳Kapitel 2 und 21

Deterministische Schäden (deterministic radiation damage): Schäden des Kör-


pers durch ionisierende Strahlen, die umso größer werden, je größer die Dosis ist.
󳶳Kapitel 7

Dielektrischer Kontrast (dielectric contrast): Relativer Permittivitätsunterschied


zwischen aneinander grenzenden Geweben, der sich im Reflexionsfaktor widerspie-
gelt. 󳶳Kapitel 17

Diffusion (lat. diffundere – ausgießen, verstreuen, ausbreiten; diffusion): physikali-


scher Prozess, der bei ungleichmäßiger Verteilung von Teilchen zu einem Transport
der Teilchen bis zu ihrer gleichmäßigen Durchmischung führt. 󳶳Kapitel 15
620 | Bandspezifisches Glossar

Digitale Subtraktionsangiographie (DSA; digital subtraction angiography): Ver-


fahren zur Gefäßdarstellung mittels Röntgenstrahlen, bei dem zwei logarithmierte Bil-
der subtrahiert werden – eines mit Kontrastmittel (Fülllauf) und eines ohne Kontrast-
mittel (Maske). So werden nur die Blutgefäße dargestellt, in die das Kontrastmittel
hineingelangt ist. 󳶳Kapitel 2

Dipole Fit (dt. Dipol-Anpassung): Verfahren, bei dem ein Stromdipol so lange im Kör-
per bewegt und verändert wird, bis die gewonnenen Messsignale am besten zu den
berechneten Signalen passen. 󳶳Kapitel 10

Dispersion (dispersion): bezogen auf die Impedanz die charakteristische Änderung


der Impedanz von Gewebe als Funktion der Frequenz. 󳶳Kapitel 12

Distales Ende (distal end): dem Benutzer abgewandtes Ende eines Endoskops.
󳶳Kapitel 13

Doppelbrechung (birefringence): Auftrennung eines Lichtbündels in zwei senk-


recht zueinander polarisierte Teilbündel beim Durchgang durch bestimmte, optisch
anisotrope Materialien. Ursache ist das Auftreten von zwei unterschiedlichen Aus-
breitungsgeschwindigkeiten des Lichts in diesen Materialien. 󳶳Kapitel 14

Doppler-Effekt (Doppler effect): Verschiebung von Frequenzen bzw. Spektren von


Signalen während der wellenförmigen Ausbreitung infolge der Bewegung des Senders
und/oder des Empfängers und/oder eines im Wellenfeld befindlichen Streuobjektes.
󳶳Kapitel 8

Doppler-Sonographie (Doppler sonography): Methode zur Bestimmung der Ge-


schwindigkeit von fließendem Blut (oder auch der Bewegung von Gewebe) mithilfe ei-
nes Ultraschallsystems. Die Methode basiert auf dem Doppler-Effekt (benannt nach
Christian Doppler). 󳶳Kapitel 8

Drehanode (rotating anode): Konstruktionsprinzip einer Röntgenröhre, bei dem die


Anode als ein sich sehr schnell drehender Anodenteller realisiert ist. Dies dient dazu,
die Wärme besser zu verteilen. 󳶳Kapitel 2

Dual Source CT (dt. Doppelquellen-CT): Computertomographie mit zwei Röntgenröh-


ren und Detektorsystemen, die um etwa 90° versetzt sind. 󳶳Kapitel 3

Duplexer: Signalweiche zur Trennung von Sende- und Echosignal in einem Puls-
Echo-System. 󳶳Kapitel 8

Dynamikbereich (dynamic range): Verhältnis zwischen dem maximalen Signalpe-


gel und dem kleinsten, über dem Rauschuntergrund detektierbaren Signalpegel in ei-
nem System. 󳶳Kapitel 8

Dynamische Fokussierung (dynamic focusing): Zeitliche Steuerung der Fokustiefe


einer Gruppenantenne (Array) in der Empfangsphase eines Puls-Echo-Systems. Der
Bandspezifisches Glossar | 621

momentane Ort des Fokus entspricht dabei jeweils dem Entstehungsort des momen-
tan empfangenen Echos. 󳶳Kapitel 8

EEG-Mapping (dt. Abbildung, Kartierung, räumliche Zuordnung des EEGs): Messung


und Kartierung der elektrophysiologisch erzeugten Potentialverteilung auf der Kopf-
haut. 󳶳Kapitel 10

Elastographie (elastography): Qualitative oder quantitative Darstellung mechani-


scher Gewebeeigenschaften (z. B. weich/hart bzw. Schermodul) in medizinischen Bil-
dern (z. B. mittels Ultraschall, MRT oder OCT). 󳶳Kapitel 8

Electronic Portal Imaging Device (EPID): bildgebendes System, das während einer
Strahlentherapie die durch den Patienten hindurchtretenden Gammastrahlung dar-
stellt. Es dient der schnellen Kontrolle, ob die Gammastrahlung exakt das Zielorgan
trifft, und gesundes Gewebe so gut wie möglich geschont wird. 󳶳Kapitel 19

Elektro- und Magnetoenzephalographie (EEG/MEG; electro- and magnetoence-


phalography): Messung der elektrischen Spannungen und der Magnetfelder an der
Kopfhaut, die durch elektrophysiologische Quellen im Gehirn verursacht werden.
󳶳Kapitel 10

Elektro- und Magnetokardiographie (EKG/MKG; electro- and magnetocardiogra-


phy): Messung der elektrischen Spannungen und der Magnetfelder am Körper, die
durch elektrophysiologische Quellen im Herzen verursacht werden. 󳶳Kapitel 10

Elevation: bei Schnittbildverfahren die Richtung senkrecht zur Schnittbildebene.


󳶳Kapitel 8

Endoskopie (endoscopy): visuelle Untersuchung von Hohlorganen und Körperhohl-


räumen durch starre oder schlauchartige optische Geräte (Endoskope) zwecks Dia-
gnose und Intervention. 󳶳Kapitel 13

Energiedosis D (energy dose, absorbed dose): in einem Körper durch Strahlung de-
ponierte Energie pro Masse des Körpers, in J/kg = Gy (Gray). 󳶳Kapitel 7

Energiedosisleistung (energy dose rate, absorbed dose rate): Energiedosis pro


Zeitintervall, in J/kgs = Gy/s. 󳶳Kapitel 7

Energiefluenz (energy fluence): Energieflussdichte, integriert über ein Zeitintervall,


in J/m2 . 󳶳Kapitel 7

Energieflussdichte (energy flux density): durch eine Fläche pro Zeitintervall hin-
durchtretende Energie in Form von Strahlung, in J/m2 s = W/m2 . 󳶳Kapitel 7

Fast Fourier Transformation (FFT): effizienter mathematischer Algorithmus in der


Signalverarbeitung, der eine Funktion der Zeit oder des Ortes in eine Funktion der
Frequenz bzw. Ortsfrequenz überführt. 󳶳Kapitel 21
622 | Bandspezifisches Glossar

FDG, 18 F-Fluordesoxyglukose: Standardtracer für PET. 󳶳Kapitel 6

Feldfreier Punkt (FFP; field-free point): Nulldurchgang eines magnetischen Gradi-


entenfeldes. 󳶳Kapitel 11

Femtosekundenlaser (femtosecond laser): Laser, der extrem kurze Lichtpulse


mit hoher Energiedichte aussendet, die eine Dauer im Bereich von Femtosekunden
(10−15 s) haben. 󳶳Kapitel 14

Film-Folien-System (film-screen system): System zur Aufnahme von Röntgenbil-


dern. Hierbei wird die Röntgenstrahlung mittels Lumineszenz-Folie in sichtbares Licht
umgewandelt, das dann mit einem Film aufgenommen wird. 󳶳Kapitel 2

Flat-Panel-Detektor: Flächendetektor für Röntgenstrahlen. 󳶳Kapitel 2 und 3

Fluide Medien (fluid media): Medien ohne Formelastizität (z. B. Gase, Flüssigkeiten),
in denen sich im Fall idealer Fluidität nur longitudinale akustische Wellen, nicht aber
Scherwellen ausbreiten können. 󳶳Kapitel 8

Fluoreszenz (fluorescence): kurzzeitige, spontane Lichtemission beim Übergang ei-


nes elektronisch angeregten Systems in einen Zustand niedrigerer Energie, wobei das
emittierte Licht im Regelfall energieärmer ist als das vorher absorbierte. Fluoreszenz-
übergänge erfolgen zwischen Zuständen mit gleichem Spin. 󳶳Kapitel 15

Fluoreszenzangiographie (fluorescence angiography): Bildgebungsverfahren zur


Untersuchung der Blutzirkulation der Netzhaut unter Verwendung von fluoreszieren-
den Markern, siehe auch Angiographie. 󳶳Kapitel 14

Fluoreszenzdiagnostik (fluorescence diagnostics): Methode, bei der die Fluores-


zenz von Gewebe mit dem Ziel gemessen und analysiert wird, eine Erkrankung des
Gewebes (meist eine Tumorerkrankung) zu erkennen. Hierbei kann es sich um die na-
türliche Fluoreszenz von Stoffen im Körper des Patienten handeln oder um die Fluo-
reszenz künstlich applizierter Stoffe. 󳶳Kapitel 1 und 18

Flying-Focus (dt. Springfokus): von Projektion zu Projektion wechselnde Position des


Elektronenfokus auf der Anode der Röntgenröhre. 󳶳Kapitel 3

Fokusfeld (focus field): MPI-Verfahren zur räumlichen Verschiebung eines feldfreien


Punktes für einen vergrößerten Erfassungsbereich. 󳶳Kapitel 11

Fourier-Scheiben-Theorem (Fourier-slice theorem): die 1D-Fouriertransfor-


mierte einer Projektion beschreibt die Werte der 2D-Fouriertransformierten einer
Funktion f (x, y) auf einem Radialstrahl zu dem Winkel, der zur Projektion gehört.
󳶳Kapitel 3

Full Angle Spatial Compounding (FASC; dt. Zusammensetzung über den gesam-
ten Raumwinkelbereich): Compounding über einen Aspektwinkelbereich von 360°.
󳶳Kapitel 8
Bandspezifisches Glossar | 623

Funktionelle Abbildung (functional imaging): Darstellung funktioneller Vorgänge


(z. B. Bewegung, Fluss, Stoffwechselprozesse) in medizinischen Bildern. 󳶳Kapitel 1
und 8

F-Zahl (F-number): Kenngröße von Ultraschallwandlern; Verhältnis von Fokus-


Abstand (Wandler – Fokus) zum Wandlerdurchmesser. 󳶳Kapitel 8

Gammakamera: Gerät zur Abbildung mit Gammaphotonen, vgl. Anger-Kamera.


󳶳Kapitel 5

Gantry (dt. Gerüst, Kranportal): Rahmen, der die Bildaufnahmeeinheit trägt.


󳶳Kapitel 3

Gastroskopie (gastroscopy): Untersuchung von Speiseröhre, Magen und Zwölffin-


gerdarm mithilfe eines Gastroskops. 󳶳Kapitel 13

Glasfaser (glass fiber): optischer Übertragungsleiter (auch Lichtwellenleiter ge-


nannt) aus einem dünnen, biegsamen Glasfaden mit hoher Lichtbrechung, umman-
telt mit einem schwachen lichtbrechenden Material. 󳶳Kapitel 13

Gradientenindexlinse (GRIN-Linse; graded index, gradient index lens): Linse, bei


der die Brechzahl eine radiale oder axiale Funktion des Ortes ist. 󳶳Kapitel 14

Grenzschicht (boundary layer): flächenhafter Raumbereich zwischen zwei Medien


mit Unterschieden in den für die Wellenausbreitung (Brechung, Reflexion, Streuung)
relevanten Materialparametern (Wellenwiderstand, Ausbreitungsgeschwindigkeit).
󳶳Kapitel 8

Halbleiter-Flachdetektor (solid state X-ray detector): System zur Aufnahme von


Röntgenbildern, basierend auf einer Umwandlung von Röntgenquanten in elektrische
Ladung, die dann mithilfe einer Elektronik bestimmt („ausgelesen“) wird. 󳶳Kapitel 2

Hämodynamik (hemodynamics): die von den Gefäßeigenschaften beeinflussten


räumlich-zeitlichen Zusammenhänge zwischen Drücken, Flussgeschwindigkeiten,
Flussmengen etc. beim Blutfluss in Gefäßen. 󳶳Kapitel 8

Hanning- oder Von-Hann-Fenster (Hanning window, von-Hann window): Fens-


terfunktion, um digitale Signale zu filtern (abgeleitet von „to hann“ nach Julius von
Hann, nicht zu verwechseln mit Hamming-Fenster). Im Intervall ± 𝜋 hat es die Form
einer Kosinus-Funktion, die um eins addiert stets positiv ist. 󳶳Kapitel 4 und 14

Harmonic Imaging (dt. nichtlineare Bildgebung): echosonographisches Abbildungs-


verfahren, bei dem durch nichtlineares Verhalten des Übertragungsmediums (Gewe-
be) oder von Objekten (Kontrastmittel) erzeugte harmonische Spektralanteile des Sen-
designals als Echosignale aufgenommen und für die Bildgebung verarbeitet werden.
󳶳Kapitel 8
624 | Bandspezifisches Glossar

Heel-Effekt: bei der Abstrahlcharakteristik einer Röntgenröhre kommt es in dem


Winkelbereich, der fast parallel zur Anodenoberfläche liegt, durch Selbstabsorption
zu einer Reduktion der abgestrahlten Röntgenleistung. 󳶳Kapitel 3

Histologische Abbildung (histological imaging): Gewinnung und Darstellung ge-


webetypischer Merkmale in medizinischen Bildern. 󳶳Kapitel 8

Hochfrequenz-Hochspannungsgenerator (high frequency high voltage gene-


rator): Einrichtung zur Erzeugung der für eine Röntgenröhre notwendigen Hoch-
spannung. Hierbei wird die Netzspannung zunächst gleichgerichtet, dann in eine
hochfrequente Spannung umgewandelt, auf die Hochspannung transformiert und
wieder gleichgerichtet. 󳶳Kapitel 2

Hounsfield-Skala (Hounsfield unit scale): auf die Eigenschaften von Wasser nor-
mierte Schwächungswerte in der Computertomographie. Die CT-Zahl (angegeben in
HU – Hounsfield unit) gibt die Abweichung vom Schwächungswert des Wassers in
Promille an. 󳶳Kapitel 3

Hybride Abbildung (hybrid imaging): Abbildung, bei der mehrere unterschiedliche


Strahlungs- oder Wellenarten, die auch in Wechselwirkung miteinander stehen kön-
nen, genutzt werden (z. B. foto-akustische Bildgebung). 󳶳Kapitel 8

Hypoxie-Tracer für die PET (hypoxia tracer): 18 F-FMISO, 18 F-FAZA, 64 Cu-ATSM als
lipophile Substanzen gelangen passiv in die Zelle, werden dann im Fall von Sauer-
stoffmangel (Hypoxie) reduziert und hierdurch hydrophil, wodurch sie die Zelle nicht
mehr verlassen können und sich im Gewebe anreichern. 󳶳Kapitel 18

Impedanztomographie (impedance tomography, electrical impedance tomogra-


phy EIT): Messung und Darstellung von Bildern der elektrischen Impedanz des Kör-
pers. 󳶳Kapitel 12

Indocyaningrün (ICG; indocyanine green): fluoreszierender Farbstoff, der in der Me-


dizin u. a. als Indikatorsubstanz für die photometrische Leberfunktionsdiagnose und
Fluoreszenzangiographie bei Herz-, Kreislauf-, Leber- und Augenerkrankungen einge-
setzt wird. 󳶳Kapitel 15

Interventionelle Magnetresonanztomographie (inteventional magnetic reso-


nance tomography): Einsatz der MRT-Bildgebung während einer Intervention oder
während eines chirurgischen Eingriffs. 󳶳Kapitel 19

Interventionelle Radiologie (interventional radiology): Einsatz der Röntgen-Bild-


gebung während einer Intervention oder während eines chirurgischen Eingriffs.
󳶳Kapitel 19

Interventionelle Ultraschallbildgebung (interventional ultrasound): Einsatz der


Ultraschallbildgebung während einer Intervention oder während eines chirurgischen
Eingriffs. 󳶳Kapitel 19
Bandspezifisches Glossar | 625

Intralipid (intralipid): Öl-in-Wasser-Emulsion, die zur künstlichen Ernährung ver-


wendet wird. 󳶳Kapitel 14

Intravaskuläre Ultraschallbildgebung, „intravaskulärer Ultraschall“ (IVUS; in-


travascular ultrasound): Form der sonographischen Bildgebung mittels spezieller
Ultraschallkatheter für die Untersuchung von Blutgefäßen. 󳶳Kapitel 8

Inverses Problem (inverse problem): Aufgabe, aus den messbaren Signalen die zu-
grunde liegende Quelle der Signale zu bestimmen. 󳶳Kapitel 10

Ionendosis (exposure dose, ion dose): Maß für die ionisierende Strahlung, in ei-
nem Messobjekt durch Strahlung gebildete Ladung (eines Vorzeichens) pro Masse des
Messobjekts (z. B. der Masse des Gases in einer Messkammer) in As/kg. 󳶳Kapitel 7

Ionendosisleistung (exposure dose rate, ion dose rate): Ionendosis pro Zeitinter-
vall in A/kg. 󳶳Kapitel 7

Isotop (isotope): Variante eines Nuklides, die sich von anderen Varianten mit der-
selben Kernladungszahl Z durch eine unterschiedliche Massenzahl A auszeichnet. In-
stabile Isotope (Radioisotope) gehen unter Aussendung von radioaktiver Strahlung in
einen stabilen Zustand über. 󳶳Kapitel 5

Kavitation (cavitation): Bildung von stabilen oder transienten Hohlräumen in flui-


den Medien durch die Einwirkung akustischer Wellenfelder. 󳶳Kapitel 8

Kerma K (Kinetic Energy Released in Matter): Energiedosis bei Sekundärelektro-


nengleichgewicht. 󳶳Kapitel 7

Kernmagnetische Resonanz (nuclear magnetic resonance): physikalischer Effekt,


der die Grundlage für die Magnetresonanztomographie bildet. Dabei treten Atom-
kerne mit einem Kernspin in Wechselwirkung mit einem magnetischen Wechselfeld.
󳶳Kapitel 9

Koinzidenz (coincidence): zeitgleiches Auftreten, z. B. gleichzeitiger Nachweis eines


zusammengehörenden Photonenpaares in zwei Detektoren. 󳶳Kapitel 6

Kollimator (collimator): Anordnung zur Orts-/Richtungsselektion von Strahlung/


Teilchen, um z. B. im Falle von Gammateilchen ohne Linse eine Abbildung zu errei-
chen. 󳶳Kapitel 5

Kompressibilität (compressibility): Eigenschaft, die die Volumenelastizität elasti-


scher Medien beschreibt (Kehrwert des Kompressionsmoduls). 󳶳Kapitel 8

Konstanzprüfung (constancy test): Gesetzlich vorgeschriebene Prozedur zur Quali-


tätssicherung von bildgebenden Systemen, die mit ionisierenden Strahlen arbeiten.
󳶳Kapitel 2
626 | Bandspezifisches Glossar

Kontrast (contrast): technischer Parameter in der BMT, der angibt, wie gut sich zwei
Gewebearten in einem Bild unterscheiden lassen bzw. wie gut sich ein Gewebe vom
Hintergrund abhebt. 󳶳Kapitel 21

Kontrastmittel (contrast agent): Substanz, die in den Körper des Patienten einge-
bracht wird, um den Kontrast für eine bestimmte diagnostische Fragestellung zu er-
höhen. 󳶳Kapitel 2

k-Raum (k-space): Formalismus in der Magnetresonanztomographie zur mathema-


tischen Beschreibung der Ortskodierung. 󳶳Kapitel 9

LAMBERT–BEERsches Gesetz (Beer–Lambert law): Gesetz, das die Schwächung


von Röntgenstrahlung beim Durchgang durch einen Körper mittels Schwächungsko-
effizienten 𝜇 beschreibt. 󳶳Kapitel 2

Laparoskopie (laparoscopy): endoskopische Untersuchung und Behandlung der


Bauchhöhle und der darin enthaltenen Organe mithilfe eines Laparoskops. 󳶳Kapitel 13

Larmor-Frequenz (Larmor frequency): charakteristische Frequenz der Präzessi-


onsbewegung der Spins in der Magnetresonanztomographie. Diese ist proportional
zur Magnetfeldstärke. 󳶳Kapitel 9

Lead Field (dt. Ableitungsfeld): Vektorfeld, mit dessen Hilfe man das Signal in einem
Detektor (Spannung oder Magnetfeld) ausrechnen kann, indem das lead field an ei-
nem Punkt mit dem Stromdipol an diesem Punkt skalar multipliziert wird. 󳶳Kapitel 10

Ligand (ligand): an die Zielstruktur bindender Abschnitt einer molekularen Sonde.


󳶳Kapitel 18

Limited Angle Spatial Compounding (LASC; dt. Zusammensetzung über einen be-
grenzten Raumwinkelbereich): Compounding über einen begrenzten Aspektwinkelbe-
reich (< 360°). 󳶳Kapitel 8

Line of Response (LOR; dt. Antwortlinie): Verbindungslinie zwischen zwei Detekto-


ren, die ein Photonenpaar in Koinzidenz nachgewiesen haben. 󳶳Kapitel 6

Linear Array (dt. lineare Gruppe): eindimensionale Antennengruppe, bei der die
Gruppenelemente entlang einer Linie angeordnet sind. 󳶳Kapitel 8

Linker (dt. Verbinder): Abschnitt zwischen Ligand und Signalmolekül. 󳶳Kapitel 18

List Mode (LM; dt. Listenmodus): Datenformat, in dem alle Ereignisse nacheinander,
ggf. zusammen mit weiteren Informationen (Zeit, Position, Energie), in Form einer Lis-
te gespeichert werden. 󳶳Kapitel 6

Lithotripsie (lithotripsy): Verfahren zur mechanischen Zertrümmerung von Steinen


in Organen. 󳶳Kapitel 8
Bandspezifisches Glossar | 627

Lock-in-Verstärker (lock-in amplifier): Messtechnik, bei der der Verstärker nur eine
Frequenz (sehr schmalbandig) verstärkt und Signale mit anderen Frequenzen effek-
tiv unterdrückt. In einer erweiterten Variante kann auch die Phasenlage des Wechsel-
signals, das verstärkt werden soll, festgelegt werden. 󳶳Kapitel 12

LWIR-Spektrum (long wave infrared spectrum): Langwellen-Infrarot-Spektralbe-


reich, umfasst den Wellenlängenbereich von ca. 7 bis 15 μm. 󳶳Kapitel 16

Magnetresonanztomographie (MRT; magnetic resonance tomography, nuclear


magnetic resonance imaging, NMRI): strukturabbildendes Verfahren in der Medi-
zin zur überlagerungsfreien Schnittbilddarstellung auf Basis von Kernspinresonanz.
󳶳Kapitel 1 und 9

Mammographie (mammography): Abbildung der weiblichen Brust zur Erkennung


von Tumoren, meistens mithilfe von Röntgenstrahlen. 󳶳Kapitel 2

Matrix-Metalloproteinasen (MMP; matrix metalproteinase): Gruppe von Enzy-


men, die die extrazelluläre Matrix (z. B. Kollagen) spalten können. 󳶳Kapitel 18

Maximumintensitätsprojektion (MIP; maximum intensity projection): Darstel-


lung des maximalen Wertes einer virtuellen Projektion entlang einer Linie durch ein
3D-Volumen. 󳶳Kapitel 3

Maximum-likelihood-Methode (dt. maximale Wahrscheinlichkeit; auch: maxi-


mum-likelihood method): statistisches Schätzkriterium zur Maximierung der Wahr-
scheinlichkeit bei gegebenen Beobachtungen. 󳶳Kapitel 5

Mechanischer Index (mechanical index): aus dem negativen Spitzendruck und der
Frequenz einer Schallwelle abgeleiteter Faktor, der in der Ultraschalldiagnostik als
Grenzwert zur Vermeidung mechanischer Schäden durch die Schallwellen benutzt
wird. 󳶳Kapitel 8

Mehrschicht-CT (multislice CT): CT-Gerät mit mehreren in Patientenlängsrichtung


hintereinander angeordneten Detektorzeilen, das gleichzeitig mehrere Schichten des
Patienten aufnehmen kann. 󳶳Kapitel 3

Micro-Electro-Mechanical System (MEMS; dt. Mikroelektromechanisches System):


Mikroelektromechanisches System, das typischerweise als Aktor oder Sensor einge-
setzt wird. 󳶳Kapitel 14

Mikrochirurgie (microsurgery): Operationsmethode, die spezielle Vergrößerungs-


hilfen verwendet, dank derer selbst winzige Objekte wie Venen und Nerven sowie fein-
strukturierte und extrem empfindliche Organe behandelt werden können. 󳶳Kapitel 20

Mikrowellen (microwaves): elektromagnetische Strahlung im Frequenzbereich zwi-


schen 300 MHz und 300 GHz (Dezimeterwellen bis Millimeterwellen). 󳶳Kapitel 17
628 | Bandspezifisches Glossar

Mikrowellen-Tomographie (microwave tomography): iteratives Rekonstruktions-


verfahren zur Lösung nichtlinearer, inverser, elektromagnetischer Streuprobleme im
Mikrowellenbereich. Das Ergebnis ist ein Mapping von Permittivität und Leitfähigkeit.
󳶳Kapitel 17

Modulationsübertragungsfunktion (modulation transfer function MTF): nor-


mierter Absolutbetrag der komplexen Systemübertragungsfunktion. Die MTF gibt an,
wie gut (mit welcher Modulationsamplitunde) eine Raumfrequenz aus dem Original
in das Bild übertragen wird. 󳶳Kapitel 2 und 21

Molekulare Bildgebung (molecular imaging): Bildgebungsverfahren, mit dessen


Hilfe biologische Prozesse auf molekularer und zellulärer Ebene abgebildet werden
können. 󳶳Kapitel 18

Molekulare Marker (molecular marker): molekulare Zielstruktur, die eine Aussage


über das Gewebe / die Erkrankung erlaubt. 󳶳Kapitel 18

Molekulare Sonde (molecular probe): Molekül, das in der molekularen Bildge-


bung eingesetzt wird, um damit Zielstrukturen im Gewebe darstellen zu können.
󳶳Kapitel 18

Molekulare Ultraschallbildgebung, „Molekularer Ultraschall“ (molecular ultra-


sound, molecular sonography): Verwendung zielspezifischer Mikroblasen zur Mar-
kierung von Krankheitsprozessen und deren Charakterisierung mittels Sonographie.
󳶳Kapitel 18

Molekulares Diagnostikum (molecular diagnostics): spezifisches Kontrastmittel


für die molekulare Bildgebung. 󳶳Kapitel 18

Monomodefaser (monomode fiber): Lichtleitfaser mit einem so dünnen Kern, dass


sich mit der gewünschten Wellenlänge nur ein Wellentyp ausbreiten kann. 󳶳Kapitel 14

Morphologische Abbildung (morphological imaging): Darstellung geometrischer


Formen von Objekten. 󳶳Kapitel 1 und 8

M-Sequenz-Radar (M-sequence radar): ultrabreitbandiges, zeitstabiles Radar-


Verfahren auf der Basis kontinuierlicher, pseudo-zufälliger Binärcodes (M-Sequenzen)
mit steilflankigem Autokorrelations-Peak. 󳶳Kapitel 17

Multimodale Bildgebung (multimodal imaging): Bildgebung mit mehreren, sich


komplementär ergänzenden Modalitäten, z. B. PET/CT oder PET/MRT. 󳶳Kapitel 1
und 6

Multimodenfaser (multimode fiber): Lichtleitfaser mit größerem Kerndurchmesser


als die Monomodefaser, so dass viele unterschiedliche Lichtwege im Kern der Faser
möglich sind. Unterschiedliche Wege haben unterschiedliche Längen. 󳶳Kapitel 14
Bandspezifisches Glossar | 629

Multiplanares Reformatieren (MPR; mulitplanar reformatting): Interpolation des


aufgenommenen 3D-Datensatzes so, dass beliebig geneigte Ebenen durch das Bildvo-
lumen (2D-Bilderstapel) errechnet werden können. 󳶳Kapitel 3

MWIR-Spektrum (middle wave infrared spectrum): Mittelwellen-Infrarot-Spektral-


bereich, umfasst den Wellenlängenbereich von ca. 2,5 bis 7 μm. 󳶳Kapitel 16

Nahinfrarotspektrum (NIR; near infrared spectrum): Spektralbereich des kurzwel-


ligen Infrarotlichts mit Wellenlängen zwischen 700 nm und 2500 nm. 󳶳Kapitel 15

Natural Orifice Transluminal Endoscopic Surgery (NOTES): chirurgischer Ein-


griff am Patienten, der mittels Zugang durch natürliche Körperöffnungen erfolgt.
󳶳Kapitel 19

Newton-Raphson-Methode (Newton-Raphson method): Algorithmus zur Be-


stimmung eines globalen Minimums einer mehrdimensionalen nichtlinearen Funkti-
on. 󳶳Kapitel 12

NIR-Spektrum (near infrared spectrum): Naher Infrarot-Bereich, umfasst den Wel-


lenlängenbereich von 0,7 bis 1,1 μm. 󳶳Kapitel 16

Noise Equivalent Count Rate (NEC; dt. rauschäquivalente Zählrate): auf gestreute
und zufällige Koinzidenzen korrigierte Zählrate; praktisches Maß für das Signal-
Rausch-Verhältnis unter Berücksichtigung der Totzeit. 󳶳Kapitel 6

Nuklid (nuclid): durch Protonen- und Neutronenanzahl spezifizierter Typ von Atom-
kernen. 󳶳Kapitel 5

Numerische Apertur (numerical aperture): dimensionsloser Parameter, der das


Auflösungsvermögen eines optischen Elements oder Systems beschreibt. Die nu-
merische Apertur ist über das Produkt aus dem Sinus des halben objektseitigen
Öffnungswinkels und dem Brechungsindex des Mediums zwischen Objektiv und
Fokus bestimmbar. 󳶳Kapitel 20

Optische Bildgebung (optical imaging): nichtinvasive Bildgebung mit (u. a. fluores-


zentem) Licht im sichtbaren („optischen“) Wellenlängenbereich. Hierunter fallen u. a.
die optische Reflexionsbildgebung, die optische Tomographie und die Biolumines-
zenzbildgebung. 󳶳Kapitel 15 und 18

Optische Kohärenztomographie (OCT; optical coherence tomography): interfero-


metrische Methode mit Licht geringer Kohärenzlänge, bei der Tiefeninformationen
durch Abrasterung zu Schnittbildern oder auch Volumenscans zusammengefasst wer-
den. 󳶳Kapitel 14

Ordered Subset Expectation Maximisation (OSEM): verbreiteter, statistisch basier-


ter, iterativer Rekonstruktionsalgorithmus. 󳶳Kapitel 5
630 | Bandspezifisches Glossar

Panoramaschichtverfahren, Orthopantomographie (orthopantomography): Ver-


fahren zur Aufnahme einer dentalen Röntgenaufnahme, bei der alle Zähne des Ober-
und Unterkiefers in einem Bild dargestellt werden. 󳶳Kapitel 4

Parallaxeneffekt (parallax error): Abstand zwischen Annihilationsort und Verbin-


dungslinie der koinzidenten Detektoren hervorgerufen bei schräg zur Verbindungsli-
nie stehenden Detektoren durch die Wechselwirkungstiefe der Photonen im Detektor.
󳶳Kapitel 6

Parallel-Kollimator (parallel collimator): Kollimator, der aus vielen parallel ange-


ordneten Öffnungen besteht. 󳶳Kapitel 5

Partialvolumeneffekt (partial volume effect): Bildartefakt in der Computertomogra-


phie. Dabei stellt sich ein Volumen, das im Vergleich zur Auflösung klein ist, als grö-
ßeres Volumen mit geringerer Intensität dar. 󳶳Kapitel 6

Peltier-Element (Peltier element): thermoelektrischer Wandler, der bei Durch-


fluss von Strom eine Temperaturdifferenz oder bei Temperaturdifferenz einen Strom-
fluss generiert. Durch Umkehr der Stromrichtung können Peltier-Elemente sowohl
kühlen als auch heizen. 󳶳Kapitel 16

Pencil beam (dt. Nadelstrahl): Nadelgeometrie eines Röntgenstrahls. 󳶳Kapitel 3

Permittivität, (dielektrische Leitfähigkeit, lat. permittere – erlauben, überlassen,


durchlassen; permittivity): frequenzabhängige Materialkenngröße zur Charakte-
risierung der Wechselwirkung elektromagnetischer Wellen mit Medien, d. h. der
Durchlässigkeit des Materials für elektrische Felder. Die relative Permittivität wird
auch Dielektrizitätszahl genannt. 󳶳Kapitel 17

Phantom (phantom): auf eine bestimmte Bildgebungsmodalität zugeschnittene tech-


nische Nachbildung eines diagnostischen Objektes (Gewebe, Organ). 󳶳Kapitel 8

Phase Inversion (dt. Phasenumkehr): Konzept zur Erzeugung und Aussendung einer
Sequenz von Sendesignalen für die nichtlineare Abbildung, bei der das zweite Sen-
designal durch Phasenumkehr aus dem zuerst ausgesandten Sendesignal gewonnen
wird. 󳶳Kapitel 8

Phased Array (dt. phasengesteuerte Gruppe): Gruppenantenne mit elektronischer


Steuerung der Phasenbelegung der Antennenelemente zum Zweck der elektronischen
Fokussierung und des elektronischen Schwenkens der Richtcharakteristik. 󳶳Kapitel 8

Phasenkontrast-Röntgen: Abbildung der Abweichung des Brechungsindex von 1 bei


und mithilfe von Röntgenstrahlung. 󳶳Kapitel 2

Photoeffekt (photoelectric effect): lichtelektrischer Effekt, der auf der Wechselwir-


kung von Photonen mit Materie beruht. Dabei überträgt ein Photon seine Energie auf
ein gebundenes Elektron und löst es aus dem Atomverbund heraus. 󳶳Kapitel 2
Bandspezifisches Glossar | 631

Piezoelektrischer Effekt (piezoelectric effect): in piezoelektrischen Materialien auf-


tretender Effekt, der eine Umwandlung von akustischer in elektrische Energie („direk-
ter“ Effekt) und umgekehrt („reziproker“ Effekt) bewirkt. 󳶳Kapitel 8

Piezomaterial (piezo material): einkristallines, polykristallines (z. B. keramisches)


oder kunststoffartiges Material mit piezoelektischen Eigenschaften. 󳶳Kapitel 8

Pinhole-Kollimator (dt. Lochblenden-Kollimator; pinhole collimator): Kollimator


aus einem oder wenigen Öffnungen („Camera obscura“). 󳶳Kapitel 5

Pitch (dt. Abstand, Anstellwinkel): Tischvorschub pro Umdrehung des Abtastsystems


bei der Computertomographie, normiert auf die kollimierte Detektorbreite. 󳶳Kapitel 3

Polygon-Scanner (polygon scanner): rotierendes System von Spiegeln für die Aus-
lenkung von Lichtwellen. 󳶳Kapitel 14

Positronenemissionstomographie (PET; positron emission computed tomo-


graphy): funktionsabbildendes Verfahren in der Medizin zur überlagerungsfreien
Schnittbilddarstellung auf Basis von Positronenemission durch in den Körper einge-
brachten Radiopharmaka. 󳶳Kapitel 1 und 6

Power Mode (dt. Leistungsmodus): farbkodierte, ortsaufgelöste, qualitative Echtzeit-


Darstellung von Blutflusszuständen in Gefäßen und von Perfusionszuständen im Ge-
webe durch Nutzung des Doppler-Effektes und Auswertung der Echo-Signalleistung.
󳶳Kapitel 8

Projektion (lat. proicere – hinauswerfen, hinwerfen; projection): in der BMT das In-
tegral der abgebildeten Gewebseigenschaften auf dem Strahlweg bei der Bildgebung,
speziell des Röntgenschwächungskoeffizienten durch den Körper des Patienten hin-
durch, entweder als einzelner Nadelstrahl oder als eine Linie aus vielen parallelen
Nadelstrahlen. 󳶳Kapitel 2 und 3

Projektionsröntgen (projection X-ray): strukturabbildendes projektives Verfahren


in der Medizin auf Basis von Röntgenstrahlen. 󳶳Kapitel 2

Proximales Ende (proximal end): dem Benutzer zugewandtes Ende eines Endo-
skops. 󳶳Kapitel 13

Pulsed Wave (PW; dt. Pulswelle): Betriebsart mit gepulsten Wellenformen. 󳶳Kapitel 8

Punktbildfunktion (PBF; point spread function): Bildfunktion eines kleinen (idea-


lerweise punktförmigen) Objekts, das der Charakterisierung eines Abbildungssystems
dient. Die Halbwertsbreite der Punktbildfunktion wird oft als Maß für die räumliche
Auflösung verwendet. 󳶳Kapitel 2, 8 und 21

Quadraturdemodulation (quadrature demodulation): zweikanalige Demodulation


eines Signals durch Abwärtsmischung mit zueinander orthogonalen Mischersignalen
(Sinus/Kosinus). 󳶳Kapitel 8 und 9
632 | Bandspezifisches Glossar

Quantenrauschen (quantum noise): durch den statistischen Charakter beim Nach-


weis von Röntgenquanten hervorgerufenes Rauschen im Bild. Die Häufigkeit, mit der
in einem Pixel eine bestimmte Zahl von Röntgenquanten gezählt wird, schwankt und
kann mit der POISSON-Statistik beschrieben werden. 󳶳Kapitel 2 und 21

Radar (dt. Funkortung und -abstandsmessung; Radio Detection and Ranging):


Detektions- und Ortungsverfahren, wobei Funkwellen ausgesendet und reflektierte
Signale empfangen und ausgewertet werden. 󳶳Kapitel 17

Radon-Transformation: Abbildung einer n-dimensionalen Funktion auf ihre Inte-


grale über (n − 1)-dimensionale Hyperebenen. Vgl. X-ray-Transformation. 󳶳Kapitel 3
und 5

Raumfrequenz (spatial frequency): Kehrwert der räumlichen Periodenlänge. Domi-


niert in einem Bild ein sinusförmiges Signal in x-Richtung mit der Wellenlänge 𝜆, so
zeigt die Fouriertransformierte des Bildes (das Spektrum) ein Maximum bei der Raum-
frequenz u = 1/𝜆. 󳶳Kapitel 3 und 21

Reflektivität (reflectivity): räumlich verteilte Materialeigenschaft, bei Puls-Echo-


Verfahren ein Maß für die durch die Feinstruktur des Materials erzeugten Echopegel
(z. B. im biologischen Gewebe). 󳶳Kapitel 8

Registrierung (registration): Methode, um eine ortsrichtige Überlagerung verschie-


dener Bilder zu ermöglichen. Hierbei können z. B. präoperative 3D-Bilder mit intra-
operativen 3D- oder 2D-Bildern überlagert werden. Oft müssen Bilder unterschiedli-
cher Modalitäten überlagert werden. 󳶳Kapitel 19

Regularisieren (regularisation): Technik zum Umgang mit Singularitäten bzw.


schlecht konditionierten Problemen. Ist ein inverses Problem „schlecht gestellt“, so
kann man äußere Bedingungen an die Lösung stellen, die zu einer stabilen Lösung
führen. Die Lösung ist nur dann richtig, wenn diese Bedingungen auch zutreffend
sind. 󳶳Kapitel 10

Rekonstruktion (reconstruction): Berechnung eines 2D/3D-Schnittbildes aus Pro-


jektionsdaten durch Lösen des zugeordneten inversen Problems. 󳶳Kapitel 3, 4 und 5

Relatives Lebenszeitrisiko (relative lifetime risk): relatives Risiko, irgendwann im


restlichen Leben an Krebs zu erkranken. 󳶳Kapitel 7

Relatives Risiko (RR, relative risk): Risiko, durch eine Strahlenexposition an Krebs
zu erkranken. Es, gibt den Faktor an, um den die Spontanrate der Tumorerkrankung
durch die Exposition erhöht wird. 󳶳Kapitel 7

Relaxation (relaxation): Mechanismus in der Physik, der die Rückkehr eines ange-
regten Zustands in seinen Gleichgewichtszustand beschreibt. Unterschiedliche Ge-
webearten haben unterschiedliche Kernspin-Relaxationszeiten, woraus sich u. a. der
Bandspezifisches Glossar | 633

Bildkontrast zur Darstellung verschiedener Gewebearten mittels MRT gewinnen lässt.


󳶳Kapitel 9

Reportergen (reporter gene): künstlich in die Zelle eingebrachtes Gen, das zu ihrer
Erkennung dient (z. B. durch Kodierung für ein fluoreszentes Protein). 󳶳Kapitel 18

Rezeptor (receptor): in der Molekularen Bildgebung ein Molekül in oder auf der Zel-
le, an das ein anderes Molekül (Ligand) binden kann. Durch die Liganden-Rezeptor-
Interaktionen können Signalkaskaden ausgelöst werden. 󳶳Kapitel 18

Reziprozitätstheorem (reciprocity law): allgemeines Prinzip der Elektrotechnik. Es


besagt, dass man bei passiven linearen Vierpolen die Quelle auf der einen Seite des
Vierpols mit dem Messgerät auf der anderen Seite des Vierpols vertauschen kann.
Es wird dabei immer der gleiche Faktor zwischen Ursache und Wirkung ermittelt.
󳶳Kapitel 10

Röntgenbildverstärker (X-ray image intensifier): System zur Aufnahme von Rönt-


genbildern, bestehend aus einer Lumineszenzschicht, einer Photokathode, einer Elek-
tronenoptik und einem Fluoreszenzschirm. 󳶳Kapitel 2

Röntgenenergiedosis (X-ray absorbed dose, energy dose): Maß für die mit Rönt-
genstrahlen im Körper deponierte Energie bezogen auf die Masse der bestrahlten
Körperregion (des Gewebes bzw. Organs). 󳶳Kapitel 7

Röntgenröhre (X-ray tube): Vakuumröhre, in der elektrische Leistung in Röntgen-


strahlung (und Wärme) umgewandelt wird. 󳶳Kapitel 2

Röntgen-Strahler (X-ray tube assembly): System zur Erzeugung von Röntgenstrah-


len inklusive Gehäuse, Kühlung und Abschirmung. 󳶳Kapitel 2

Röntgenverordnung (RöV; X-ray regulations): Festlegung der grundlegenden Si-


cherheitsnormen für den Schutz der Gesundheit der Arbeitskräfte und der Bevölke-
rung gegen die Gefahren durch ionisierende Strahlung. 󳶳Kapitel 2

Rückprojektion (back projection): Rekonstruktionsmethode von Bildern aus Mess-


daten. Dabei werden eventuell gefilterte Messwerte in ein bestimmtes Gebiet des Bil-
des eingeschrieben. 󳶳Kapitel 3 und 12

Scanning-Laser-Ophthalmoskopie (SLO; scanning laser ophthalmoscopy): kon-


fokales Bildgebungsverfahren zur Untersuchung von Netz- und Hornhaut des mensch-
lichen Auges. 󳶳Kapitel 14

Scanogram: Übersichtsaufnahme bei der Computertomographie (Philips). 󳶳Kapitel 3

Schallgeschwindigkeit (speed of sound): Geschwindigkeit der Ausbreitung einer


ebenen akustischen Welle. 󳶳Kapitel 8
634 | Bandspezifisches Glossar

Schallimpedanz, Feldwellenwiderstand (acoustic impedance): Materialeigen-


schaft, die das Verhältnis zwischen zwei Wellengrößen bestimmt (z. B. Schalldruck
zu Schallschnelle beim Ultraschall). 󳶳Kapitel 8

Schallintensität (acoustic intensity): flächenbezogene Dichte der transportierten


Leistung einer Schallwelle. 󳶳Kapitel 8

Schallschnelle (acoustic particle velocity): Geschwindigkeit der periodischen Aus-


lenkung von Masseteilchen aus ihrer Ruhelage in einem akustischen Wellenfeld.
󳶳Kapitel 8

Schallstrahlungsdruck, s. akustischer Strahlungsdruck. 󳶳Kapitel 8

Schallwandler, Transducer (sound transducer): Bauelement zur bidirektionalen


elektroakustischen Wandlung von Signalen, vorwiegend durch Nutzung des direkten
und des reziproken piezoelektrischen Effektes. 󳶳Kapitel 8

Schlagvolumen (stroke volume): Blutvolumen, das bei jedem Herzschlag aus dem
Herz in den Blutkreislauf gepumpt wird. 󳶳Kapitel 12

Schlecht gestelltes inverses Problem (ill-posed inverse problem): mathematisches


Problem, wenn kleine Fehler bei den Messsignalen zu sehr großen Fehlern bei den
rekonstruierten Quellen führen. 󳶳Kapitel 10

Schleifringtechnologie (slip ring technology): Energieübertragung durch Schleif-


kontakte vom äußeren Rahmen auf die sich drehende Abtasteinheit bei der CT.
󳶳Kapitel 3

Schwarzer Körper (black body): Körper, der alle auf ihn einfallende Strahlungsener-
gie komplett absorbiert. 󳶳Kapitel 16

Sekundäre Rekonstruktion (secondary reconstruction): 3D-Rekonstruktion aus ei-


nem 2D-Bilderstapel. 󳶳Kapitel 3

Selektionsfeld (selection field): MPI-Verfahren zur Erzeugung eines feldfreien Punk-


tes. 󳶳Kapitel 11

Selektivität, Spezifität (selectivity, specificity): Trefferquote eines Klassifikations-


verfahrens (Richtig-Negativ-Rate), die den Anteil der korrekt als negativ klassifizierten
Objekte an der Gesamtheit der in Wirklichkeit negativen Objekte angibt. 󳶳Kapitel 21

Sensitivität (sensitivity): Trefferquote eines Klassifikationsverfahrens (Richtig-


Positiv-Rate), die den Anteil der korrekt als positiv klassifizierten Objekte an der
Gesamtheit der tatsächlich positiven Objekte angibt. 󳶳Kapitel 21

Signalmolekül (signaling molecule): bildgebender Teil einer molekularen Sonde.


󳶳Kapitel 18
Bandspezifisches Glossar | 635

Signal-Rausch-Verhältnis (signal-to-noise ratio, SNR): Verhältnis der Signalleis-


tung bezogen auf die Rauschleistung. 󳶳Kapitel 2 und 21

Single Photon Emission Computed Tomography (SPECT; dt. Einzelphotonen-Emis-


sionscomputertomographie): funktionsabbildendes Verfahren in der Medizin zur
überlagerungsfreien Schnittbilddarstellung auf Basis von Gammastrahlenemission
von in den Körper eingebrachten Radiopharmaka. 󳶳Kapitel 5

Sinogramm (lat. sinus – Krümmung; sinogram): Datenformat, in dem die Projektio-


nen nach Richtung und Verschiebung vom Ursprungsort aufgetragen werden; ergibt
einen vollständigen Datensatz zur Rekonstruktion einer Schicht als Gesamtheit aller
Projektionen, zugeordnet zum Detektionsort, über eine Drehung von 0° bis 180°. Ein
Punkt stellt sich im Sinogramm als Sinuskurve dar. 󳶳Kapitel 3 und 6

Sonographie, Ultraschallbildgebung (US; sonography, ultrasound imaging):


strukturabbildendes Verfahren in der Medizin auf Basis reflektierter und rückgestreu-
ter Schallwellen. 󳶳Kapitel 1 und 8

Speckle (dt. Fleck): granulare Feinstruktur von Bildern bei der Bildgebung mittels ko-
härenter Wellen infolge von Interferenzeffekten. 󳶳Kapitel 8

Speicherfolie (storage phospor (imaging) plate): System zur Aufnahme von Rönt-
genbildern, bei dem zunächst die Speicherfolie belichtet und danach in einer separa-
ten Einrichtung das Bild erzeugt wird. 󳶳Kapitel 2

Spiral-CT: CT-Verfahren mit kontinuierlichem Tischvorschub während der Rotation


des CT-Abtastsystems. 󳶳Kapitel 3

Statische Magnetfeldstärke (static magnetic field strength): Kenngröße in der Ma-


gnetresonanztomographie, die wesentlich die Messempfindlichkeit der kernmagneti-
schen Resonanz bestimmt. 󳶳Kapitel 9

Stent (dt. Stütze, Schiene; stent): Gefäßstütze, um ein verengtes Blutgefäß dauerhaft
wieder durchgängig zu machen. 󳶳Kapitel 2

Steuerungsfeld (drive field): MPI-Verfahren zur räumlichen Verschiebung eines feld-


freien Punktes. 󳶳Kapitel 11

Stochastische Schäden (stochastic radiation damage): Schäden des Körpers durch


ionisierende Strahlen, bei denen die Wahrscheinlichkeit für einen Schaden mit der
Dosis zunimmt. 󳶳Kapitel 7

Stoßwellen (shock waves): pulsförmige akustische Wellen höherer Amplitude, die


durch die nichtlinearen Eigenschaften des biologischen Gewebes bei der Ausbreitung
ihre Form verändern und wegen der Ausbildung steiler Pulsflanken zur Steinzertrüm-
merung genutzt werden können. 󳶳Kapitel 8
636 | Bandspezifisches Glossar

Strahlaufhärtung (beam hardening): Veränderung der Röntgenstrahlung beim


Durchtritt durch Materie. Röntgenröhren emittieren u. a. Bremsstrahlung, die ein
breites Spektrum hat. Trifft die Röntgenstrahlung auf den Patienten, so wird der
niederenergetische Teil stärker abgeschwächt als der höherenergetische Teil, da die
niederenergetischen Quanten im Körper stärker absorbiert werden, so dass sich der
Schwerpunkt des Strahlenspektrums hin zu höheren Energien verschiebt. 󳶳Kapitel 2

Streustrahlenraster (scattered radiation grid): System bei der Aufnahme von Rönt-
genbildern, mit dem die störende Streustrahlung im Bild unterdrückt werden kann.
󳶳Kapitel 2

Stromdipol (current dipole): kurzer Strompfad, der eine Stromquelle mit einer gleich
großen Stromsenke verbindet. 󳶳Kapitel 10

Superkontinuumlichtquelle (supercontinuum light source): sehr breitbandige


Lichtquelle, die auch als weißer Laser bezeichnet wird und auf nichtlinearen opti-
schen Prozessen, angeregt durch einen Kurzpulslaser, basiert. 󳶳Kapitel 14

Superlumineszenzdiode (SLD; superluminescence diode): Lichtquelle mit großer


spektraler Breite und hoher Ausgangsleistung, die sich ähnlich einem Laserstrahl fo-
kussieren lässt. 󳶳Kapitel 14

Supraleitender Quanten-Interferenz-Detektor (SQUID; superconducting quan-


tum interference device): Detektor zur Messung sehr kleiner Magnetfelder bis 10 fT.
󳶳Kapitel 10

SWIR-Spektrum (short wavelength infrared imaging band), umfasst den Wellen-


längenbereich von ca. 1,1 bis 2,5 μm. 󳶳Kapitel 16

Systemtheorie abbildender Systeme (system theory of imaging systems): mathe-


matische Beschreibung von Original und Bild und Erkennen von allgemeingültigen
Zusammenhängen zwischen Original und Bild. 󳶳Kapitel 21

Szintigraphie (scintigraphy): funktionsabbildendes projektives Verfahren in der Me-


dizin auf Basis von Gammastrahlenemission durch in den Körper eingebrachte Radio-
pharmaka. 󳶳Kapitel 1 und 5

Szintillation (scintillation): Abgabe von Lichtblitzen nach Anregung eines Materials


durch energiereiche Strahlung. 󳶳Kapitel 5 und 6

Szintillator: Material, das Lichtblitze aussendet, wenn es von ionisierender Strahlung


getroffen wird. 󳶳Kapitel 5 und 6

Target (dt. Ziel): Zielstruktur (in der Molekularen Bildgebung z. B. Rezeptor auf der
Zellmembran). 󳶳Kapitel 18

Teilchenfluenz (particle fluence): Teilchenflussdichte, integriert über ein Zeitinter-


vall. 󳶳Kapitel 7
Bandspezifisches Glossar | 637

Teilchenflussdichte (particle fluence rate): Zahl der Teilchen bzw. Photonen pro
Durchtrittsfläche und Zeitintervall. 󳶳Kapitel 7

Terahertz-Bildgebung (terahertz imaging): Bildgebung mittels elektromagneti-


scher Strahlung im Frequenzbereich zwischen 100 GHz und 10 THz (3 mm–30 μm).
󳶳Kapitel 17

Textur (texture): Feinstruktur, Musterstruktur in der Helligkeitsverteilung von medi-


zinischen Bildern. 󳶳Kapitel 8

Thermoregulation (thermoregulation): Mechanismus, der die Temperatur des


menschlichen Körpers innerhalb der physiologischen Grenzen hält. 󳶳Kapitel 16

Time Gain Compensation (TGC; dt. Dämpfungskompensation mit zeitlich verän-


derlicher Verstärkung): Zeitsteuerung der Empfangsverstärkung eines Puls-Echo-
Systems, mit dem der Einfluss der Dämpfung im Übertragungsmedium für unter-
schiedliche Objektentfernungen ausgeglichen wird. 󳶳Kapitel 8

Time Motion Scan (TM scan; dt. Abbildung der Bewegung im Zeitverlauf): auf dem
A-Scan basierendes Verfahren zur Beobachtung und Aufzeichnung von Bewegungs-
abläufen von Grenzschichten (z. B. Herzklappen) entlang einer Schallstrahlachse.
󳶳Kapitel 8

Time Shift (TS; dt. Zeitverschiebung): Verfahren, bei dem alternativ zu den Doppler-
Verfahren die Blutflussinformation aus dem Vergleich zeitverschobener Echosignale
gewonnen wird. 󳶳Kapitel 8

Time-of-flight-Verfahren (TOF; dt. Laufzeitverfahren): Technologie, die den Zeitun-


terschied zwischen dem Nachweis von zwei Annihilations-Photonen ausnutzt, wenn
der Annihilationsort näher an einem der beiden Detektoren liegt. 󳶳Kapitel 6

Tissue Harmonic Imaging (THI; dt. Gewebebildgebung mit höheren Harmonischen):


nichtlineare Abbildung (siehe Harmonic Imaging), die auf der nichtlinearen Wirkung
des Übertragungsmediums (z. B. des biologischen Gewebes) basiert. 󳶳Kapitel 8

Tomosynthese (tomosynthesis): Abbildung von Schichten, berechnet aus mehre-


ren Röntgenprojektionen, aufgenommen aus einem eingeschränkten Winkelbereich.
󳶳Kapitel 4

Topogram: Übersichtsaufnahme bei der Computertomographie (Siemens). 󳶳Kapitel 3

Tracer (engl. to trace – verfolgen): mit einem radioaktiven Isotop (Gammastrahler


oder Positronenstrahler) markiertes Molekül in der nuklearmedizinischen Diagnos-
tik, das man im Körper verfolgen möchte. 󳶳Kapitel 5 und 6

Transmembranspannung (transmembrane voltage): elektrische Spannung zwi-


schen dem Zellinnenraum und dem Zellaußenraum. 󳶳Kapitel 10
638 | Bandspezifisches Glossar

Transmission (lat. trans – hinüber; mittere – schicken): Durchstrahlung des Messob-


jektes aus Quellen, die sich innerhalb des Detektorrings befinden; dient zur Abschät-
zung der Schwächung der Emissionsstrahlung durch das Objekt und zur Streukorrek-
tur. 󳶳Kapitel 5 und 6

Transporterkanal (transporter channel): meist membranständiges Protein, das ei-


ne Substanz (z. B. Glukose) durch die Zellmembran hindurch lassen kann. 󳶳Kapitel 18

Überlagerung von prä- und intraoperativen Bildern (registration/overlay of


pre-interventional and postinterventional images): Einsatz von Bildern (oft in 3D)
während der Intervention, die vorher aufgenommen und für die Befundung verwen-
det wurden. Die während der Intervention aufgenommenen Bilder müssen dann
ortsgenau mit den präoperativen Bildern überlagert und geeignet visualisiert werden.
󳶳Kapitel 19

Ultrabreitband (ultra-wideband UWB): Sammelbegriff von Funktechnologien, die


einen sehr breiten Frequenzbereich von mindestens 500 MHz oder mindestens 20 %
der Mittenfrequenz ausnutzen. 󳶳Kapitel 17

(Ultrasmall) Superparamagnetic Iron Oxide Nanoparticles ((U)SPIO): Eisenoxid-


Nanopartikel, die als negative MRT-Kontrastmittel Verwendung finden. 󳶳Kapitel 18

Uniform Double Layer (dt. einheitliche Doppelschicht): Depolarisierungsfront, die


sich bei der Aktivierung des Herzmuskels durch das Herz bewegt. Es handelt sich da-
bei um eine Näherung, da diese Front in Wirklichkeit nicht zwingend „uniform“ ist.
󳶳Kapitel 10

UWB-Radar-Bildgebung (ultra-wideband radar imaging): Ermittlung der Lage und


Ausdehnung von elektromagnetische Wellen reflektierenden Objekten und deren Re-
flexionseigenschaften unter Verwendung extrem breitbandiger Signale im Mikrowel-
lenbereich nach dem Radar-Prinzip. 󳶳Kapitel 17

Varioskop (varioscope): optisches Gerät, mit dessen Hilfe durch Variation des relati-
ven Linsenabstandes der Arbeitsabstand kontinuierlich verändert werden kann (das
Objektiv besteht dabei aus mindestens einer konvexen und einer konkaven Linse).
Typischerweise erreicht man mit dieser Anordnung einen Arbeitsbereich von 20 bis
50 cm. 󳶳Kapitel 20

Verstärkerfolie (intensifying screen): System zur Aufnahme von Röntgenbildern,


bei dem mithilfe einer Fluoreszenzfolie Röntgenquanten in sichtbares Licht umge-
wandelt werden, das dann mit einem Film aufgezeichnet wird. 󳶳Kapitel 2

Videoendoskopie (video endoscopy): Methode der Endoskopie, bei der das Bild auf
einem Monitor dargestellt wird. Die dazu notwendige Kamera kann sich außerhalb
des Körpers am Ende des Endoskops oder innerhalb des Körpers an der Spitze des
Endoskops befinden. 󳶳Kapitel 1 und 13
Bandspezifisches Glossar | 639

Wandfilter: Bandpass zur Unterdrückung der durch statisches Gewebe und durch
sehr langsam bewegte Objekte (z. B. Gefäßwände) erzeugten Signale. 󳶳Kapitel 8

Weißlichtinterferometrie (white light interferometry): Methode, die die Interfe-


renz von Proben- und Referenzstrahl einer breitbandigen Lichtquelle mit entspre-
chend kurzer Kohärenzlänge ausnutzt, um Weglängenunterschiede zu detektieren.
󳶳Kapitel 14

Wellenzahl k (wave number): Kenngröße, die im Sinne einer Ortsfrequenz die räum-
liche Periodizität eines Wellenfeldes beschreibt. Sie ist mit der (Zeit-)Frequenz f und
der Ausbreitungsgeschwindigkeit c (z. B. Schallgeschwindigkeit) über die Beziehung
k = 2𝜋f /c verknüpft. 󳶳Kapitel 8

Wirbelstrom (eddy current): Strom, der in leitenden Medien durch ein sich zeitlich
änderndes Magnetfeld induziert wird. Sie erzeugen selber ein Magnetfeld, welches der
gewünschten Magnetfeldänderung entgegenwirkt. Wirbelströme sind eine wichtige
Ursache für Artefakte in der Magnetresonanztomographie. 󳶳Kapitel 9

Wirkungsgrad (energy conversion efficiency): bei Röntgenröhren der Quotient aus


der aufgenommenen elektrischen Leistung und der herauskommenden Röntgenleis-
tung. 󳶳Kapitel 2

X-ray-Transformation (X-ray transform): Abbildung einer mehrdimensionalen


Funktion auf ihre Integrale entlang eindimensionaler Geraden, vgl. Radon-Trans-
formation. 󳶳Kapitel 3 und 5
Sachwortverzeichnis

3D-Abbildung 218 A-priori-Wahrscheinlichkeit 161


3D-Verfahren 277 Äquipotentialfläche 446
Äquivalentdosis 208
A Äquivalentdosisleistungskonstante 211
Abbildung Array 245
– funktionelle 219 Artefakt
– morphologische 218 – Abtast- 89
Abbildungsmaßstab 154 – Aliasing- 89
Abbildungsoperator 160 – Aufhärtung 87
Absorption 234 – Bewegung 88
Absorptionskoeffizient 508 – Metall 88
Absorptionsrate, spezifische; SAR 392, 433 – Reduktion 124
Abtasttheorem 601 – Ring- 90
Abtastung 116, 117, 119 – Tomosynthese 118, 122
Acoustic Radiation Force Impulse Imaging, – Unterdrückung 300
ARFI 306 A-Scan 252
Afterglow 73 Aspektwinkel 299
Akkommodation 580 Attenuation Map 165
Aktionspotential 408 Auflösung 180, 263
Aktivierungszeit 416 – axiale 264, 275
Aktivität 139, 156 – elevationale 266, 275
Aliasing 361 – isotrope 94, 300
Analog-Digital-Konverter 147 – laterale 265, 275
Angiographie 3 – räumlich und zeitlich 598
Angiographie, zerebrale 55 – räumliche 358
Angioplastie, perkutane transluminale coronare; – zeitliche 606
PTCA 564 Aufnahme, schlierenoptische 244
Angioplastie, perkutane transluminale Aufnahmeplanung 91
koronare; PTCA 56 Aufnahmezeit 159
Ankopplungsmedien 248 Ausbeute 150, 168
Annihilation 175 Avanlanche-Photodiode 185
Anodenmaterial 27
Anodenspannung 15 B
Anodenstrom Ballondilatation 56
– CT 70 Bandbreite 252
Anodenteller 71 B-Bild-Technik 260
Anpassungsschicht 242, 243 Beam Forming 218, 257
Anregungsfeld 432 Beatmungsmonitoring 452
Antennen 539 Becquerel 139
Antennenarray 539 Befund, negativer 6
anterior-posterior 91 Befundungsmonitor 8
Anti-Stokes-Raman-Streuung 494 Beschleunigungsspannung 70
Apertur 233 Beschreibung, semiklassische 332
Apertur, numerische 579 Beschreibungsgleichung 333
Apodisierung 259, 271 Beta-Plus-Zerfall 174
642 | Sachwortverzeichnis

Beugung 232 Brusttumor 510


Bewegungsartefakt 381 B-Scan 252
Bewegungsgleichung der Magnetisierung 337,
339 C
Bewegungskorrektur 167 Cadmium-Wolframat 73
Bilderfassung, dynamische 427 Cardio-CT 96
Bildgebung Cäsiumjodid 73, 77
– funktionelle 3, 514 C-Bogen 55, 563
– interventionelle 3 Center-of-rotation-Korrektur 164
– molekulare 3, 308, 546 Central Field of View, CFOV 154
– morphologische 3 Chelatkomplex 346
– multimodale 3 Chirurgie, minimalinvasive 457
– nichtlineare 272 Chromoendoskopie 468
– optische 551, 555 Chromophor 487
– parallele 377 coherent anti-Stokes–Raman scattering,
– quantitative 3 CARS 494
Bildgebung, molekulare 400 Color Fow 219
Bildgebungsverfahren, optisches 506 Common Path OCT 478
Bildkontrast 363 composite transducer 238
Compounding 218
– Gradientenecho-Bildgebung 367
Compton-Effekt 142, 145, 176
– Spinecho-Bildgebung 364
Compton-Streuung 19, 22, 165
Bildorientierung 222
Computerized Axial Tomography, CAT 61
Bildqualität 182
Computertomographie 60, 558
Bildregistrierung 110
Computertomographie-Artefakte 87
Bildverarbeitung, digitale 8
Cone Beam CT 565
Bildwiederholrate 262
Cooled Detectors 523
Biolumineszenzbildgebung 555
CsI-Szintillator 76
Biomarker 468
CT-Angiographie 96
Birdcage Resonator 388
CT-Dosisreduktion 104
Blei-Zirkonat-Titanat, PZT 238 CT-Hirnperfusionsuntersuchung 100
Blochsche Gleichungen 344 CT-Strahlendosis 102
Block-Detektor 186 CT-Tumorperfusionsuntersuchung 101
Blood Oxygen Level Dependent, Curved-Array 263
BOLD-Contrast 396 CW-Doppler 295
Blut 283 CW-Doppler-Verfahren 284
Blutflussgeschwindigkeit 490
Body-Surface-Potential-Mapping, BSPM 410 D
BOLD-Contrast 396 Dämpfung 234
Boltzmann-Verteilung 336 Dämpfungsmaß 536
Born-Approximation 255 Darmverschluss 55
Brechung 231 Darstellung, schlierenoptische 244
Bremsspektrum 71 Debye-Modell 535
Bremsstrahlung 12 Dehnungsbilder 304
Brennfleck, optischer 71 Dehnungsbildgebung 306
Brennfleckbahn 71 Delay-and-Sum Beamformer 541
Brennfleckgeometrie 71 Dephasierung 344
Bronchoskopie 464 Dephasierungsgradient 380, 381
Brustkrebs-Diagnose 534 Depth of Interaction, DOI 179, 186
Sachwortverzeichnis | 643

Dermatologie 487 E
Detektor Echo Planar Imaging, EPI 374
– Block- 186 Echo-Planar-Bildgebung, EPI 374
– PET 183 Echozeit, effektive 373
– Phoswich 186 Echtzeitfähigkeit 221
– Szintillation 183 Ectomographie 118
Detektorfächer 67 Effekt, nichtlinearer 234
Diagnostik, morphologische 224 Effekt, piezoelektrischer 236
Diagnostikum Eigenschaften, optische von Gewebe 508
– aktivierbares 551 Eindringtiefe 506
– molekulares 548 Einknopf-Steuerung 32
Dichte 226, 228 Einthoven-Ableitung 410
Dickenschwinger 240, 242 Einzeilen-Spiral-CT 82
Dickenschwingungen 240 Eisenoxidpartikel, superparamagnetische,
differentielle infrarote Thermographie, DIT 528 SPIO 400
Differenzverstärker bei Eisenoxidpartikel, superparamegnetische, SPIO
Impedanztomographie 444 347, 426
Diffusionsbewegung 372 Elastographie 303
Diffusionsbildgebung 372 Electrical Impedance Tomography, EIT 444
Diffusionsgleichung, optische 510 Electrical Properties Imaging, EPI 450
Dipole Fit 419 Electronic Portal Imaging Device, EPID 569
𝛽-Dispersion 442 Elektroenzephalogramm, EEG 408
Doppelbrechung 473, 489, 493 Elektrokardiogramm, EKG 408
Doppler-Blutflussmessung 221 Elektromyogramm, EMG 408
Doppler-Effekt 279 Elektroneneinfang 138
Doppler-Frequenz 282 Elektronenstrahl-Computertomographie 108
Doppler-OCT, DOCT 490, XXIV Element, piezoelektrisches 237
Doppler-Sonographie 219 Empfangsfokussierung, dynamische 257
Doppler-Verfahren 224, 225, 295 Empfangsspule 342
Doppler-Verschiebung 282, 286 Empfindlichkeitsklassen des
Dosimeter 211 Film-Folien-Systems 32, 35
Dosis, effektive 139, 199 Endoscopy 456
Dosisreduktion 104 Endoskop
Down-scatter 163 – Anwendungen 469
Drehanode 26 – Kapsel- 466
Drehimpulserhaltungssatz 333 – Stablinsen- 460
Drehkolben-Röhre 29 – starres 459
Dreiknopf-Steuerung 32 – Stereo- 461
Drive Field 432 – Typen 469
Druck 226 – Video- 465
Druckkonstante, piezoelektrische 238 Endoskop-Faser 462
Drug Delivery 308 Endoskopie 5, 456
Dual Source CT 106 Energieauflösung 151
Dünnfilmbeschichtungstechnik 76 Energiedosis 23, 139, 207
Duplexer 250 Energiefenster 157, 166
Durchleuchtung 37 Energiefluenz 206
Dynamikbereich 262 Energieflussdichte 205
Dynamikkennlinie 76 Energieniveauschema 14
Epilepsie 412
644 | Sachwortverzeichnis

Ernst-Winkel 367 Fourier Domain OCT, FD OCT 477


Ersatzschaltbild 241, 242 Fourier-Scheiben-Theorem 78
Erwärmungseffekte 313 Fourier-Schichten-Theorem 78
Erythrozyt 283 Fourier-Slice-Theorem 78, 119
Euler-Gleichung 227 Fourier-Transformation 289, 480, 590
Eulersche Formel 592 Fraktur 55
Frame Mode 155
F Frame Rate 262
Fächer, inverser 67 Free Induction Decay, FID 345
Falsch-Negativ-Rate, FNF 607 Frequenzbereich 226
Falsch-Positiv-Rate, FPF 607 Frequenzkodierung 355
False Negative Fraction, FNF 607 Fulcrum 114
False Positive Fraction, FPF 607 Full Angle Spatial Compounding, FASC 303
Faltungsfilter 595 Full Width at Half Maximum, FWHM 151
Faltungsintegral 594 Full Width at Tenth Maximum, FWTM 151
Faltungskern 81, 104 full width half maximum, FWHM 491
Faradaysches Induktionsgesetz 342 Funktionsdiagnostik 224
Farb-Doppler 295, 299
Faserendoskop, flexibles 456, 462 G
Fast-Fourier-Transformation, FFT 593 Gadolinium 400
FDG 195 Gadolinium-Chelat 394
Feldfreier Punkt, FFP 430 Gadolinium-Ion 346
Feldgleichungen 228 Gammakamera 136, 142, 143, 149, 154
Feldgradient, magnetischer 351
Gammakamerakorrekturen 164
Feldinhomogenität 349
Gammastrahlung 138
Feldstärke 337, 344, 350, 385
Gasdetektor 73
Feldwellenwiderstand 229
Gating 155, 167, 385
Femtosekundenlaser 475, 494
Geiger-Müller-Zählrohr 73
Fenster, gewebeoptisches 506
Geisterbilder 383, 385
Fensterung 93
Gesichtsfeld 149, 154, 158
Fernfeld 244
Gewebedämpfung 234
Fernrohrlupe 578
Gewebeeigenschaften,
Fettunterdrückung 380
kontrastbestimmende 363
Fibrose, nephrogene systemische; NSF 394
Gewebeperfusion 308
Field of View, FOV 149
Ghosts 383
Filterkern 104
Gibbs-Ringing-Artefakt 382
Finite-Elemente-Methode, FEM 416, 448, 514
Gitterkeulen 270
Flachdetektor für Röntgenstrahlung 40
Glasfaserbündel 461
Flächendetektor 76
Gleichgewicht, dynamisches 363, 366
flip-angle 341
Gradient, bipolarer 351, 371, 393
Fluoreszenz 512
Gradientenecho-Sequenz 366
Fluoreszenzangiographie 485
Gradientenfolge, flusskompensierte 372
Fluoreszenzdiagnostik 468
Gradientenindexlinse 486
Fluoreszenzemission 551
Gradientenspule 387
Fluoreszenzproteine 555
Gradiometer 412
Flying-Focus 89
Gratinglobes 271
Fokusfeld 434
Gray 139
Fokussieren 259
Fokustiefe 257
Sachwortverzeichnis | 645

H Ionendosis 23, 206


Halbleiterdetektor 142 Ionendosisleistung 206
Halbwertsbreite 491 IR-Sequenz 379
Halbwertsdicke 177 Isochromate 345
Halbwertszeit, biologische 137–139, 174
Half -Fourier 376 K
Hanning-Fenster 480 Kalzium-Scoring 99
Hanning-Filter 120 Kapselendoskop 466
Harmonic Imaging 218, 273 Kapselendoskopie 456
Hautdosis 23 Kathode, Röntgenröhre 28
Hautkrebs 543 Kavitation 235, 314
Heel-Effekt 72 – harte 314
Helixverfahren 83 – weiche 314
Hilbert-Transformation 289 Kegelstrahl-CT 565
Hochfrequenz-Hochspannungsgenerator 30 Kegelwinkel 85
Hochspannungsgenerator für Röntgenröhre 30 Kerma 23, 207
Homogenität 152, 386 Kernspin 330
Hounsfield-Einheit 92 Kippwinkel 341, 388
Hounsfield-Skala 92 Kippwinkel, optimaler 367
Hüllkurvendetektion 253 Knochenfenster 93
Huygens-Prinzip 232 Kohärenztomographie 6, 555
Hybridbildgebung 169, 187 Koinzidenz 176
– echte 178
I – gestreute 178
Ill-Posed Problem 419, 449 – zufällige 178
Impedanz 442 Kollimator 143, 144, 157
Impedanztomographie, schlecht gestelltes Kompressibilität 226, 228
Problem 449 Konstanzprüfung 54, 213
Impulshöhenanalysator 148 Kontinuitätsgleichung 227
Impulshöhenanalyse 148 Kontraindikationen der MRT 393
Impuls-Radar 539 Kontrast 43, 605
Index, mechanischer 230 Kontrastmittel 7, 219, 306, 346, 426
Indocyaningrün 512 Kontrastmittel, fluoreszierendes 512
Induced Current Electrical Impedance Kontrastmittelanwendung 221
Tomography, ICEIT 450 Kontrast-Rausch-Verhältnis 363
Induktionszerfall, freier 345 Konvektion 520
Information, morphologische 110 Konzept, multimodales 313
Infrared Functional Imaging, IRFI 521 Koordinatensystem, rotierendes 338, 339
Infrarot-Thermographie 520 Koppelfaktor 238
InSb 524 Koronarangiographie 55
Interaktivität 222 Korrelationsintegral 596
Internationale Strahlenschutzkommission, ICRP k-Raum 354
199, 210 k-Raum-Formalismus 359
Intralipid 491, 492 k-Raum-Trajektorien 361
Inverses Problem der Kryostat 386
Impedanztomographie 449
Inversion-Recovery-Sequenz 348 L
Inversionspuls 379 Ladungskonstante, piezoelektrische 237
Inversionszeit 348 Lambert–Beersches Gesetz 18
646 | Sachwortverzeichnis

Langevin-Theorie 428 Magnetoenzephalographie, MEG 408


Längsrelaxation 343 Magnetokardiographie, MKG 408
Larmor-Frequenz 334, 389 Magnetquantenzahl 332
Lead Field 417 Magnetresonanztomographie 5, 542, 556
Least Squares, LSQ 161 Makuladegeneration 472, 483, 495
Lebenszeitrisiko Mammadiagnostik 223
– attributives 209 Mamma-Tomosynthese 126
– relatives 209 Mammogramm, optisches 511
Leistungsdichtespektren 298 Mammographie 55, 124, 126, 451
Leukozyt 283 Marker, molekularer 547
Level and Window 93 Massenschwächungskoeffizient 19
Lichtleiteffekt 77 Material, piezoelektrisches 237
Lichtleiter 457 Matrix 154, 157
Lichtstreuung 506, 507 Maximum a posteriori, MAP 161
Likelihood 161 Maximum-Intensity-Projection, MIP 94
Limited Angle Spatial Compounding, LASC 301 Maximum-likelihood 161
Limited Angle Tomography 116 Maximum-Likelihood-Schätzung 122
Line of Response, LOR 176 Maxwell-Konfiguration 433
Linear and Time Invariant System, LTI 597 Medium, fluides 226
Linear-Array 263 Mehrfachreflexionen 255
Lineare OCT 477 Mehrschicht-Spiral-CT 85
Linearisierung 227 MEMS 481
Linearität 152, 168 Messempfindlichkeit 390
Linearverstärker 147 Messverfahren, zeitaufgelöstes 510
Linienspektrum 71 Metabolismus 110
List Mode 155 MeV-Imaging 569
Lock-in-Technik 444 Micro-CT 109
Lokalisierung 569 Mikrobläschen 225
Lungenfenster 93 Mikrochirurgie, transanale endoskopische;
TEM 567
M Mikroskop
Magnet 385 – Auflösung 579
Magnetfeld – Köhlersche Auflichtbeleuchtung 582
– effektives 340 – Kondensor 582
– örtliche Inhomogenität 345 – Schärfentiefe 580
– statisches 331, 385 – Stativ 583
– zeitlich variierendes 337 – Vergrößerung 579, 581
Magnetic Induction Tomography, MIT 450 – Vergrößerung, förderliche 579
Magnetic Particle Imaging, MPI 426 Mikrowellen 534
– Funktionsweise 428 Mikrowellen-Tomographie 540
– Rekonstruktion 434 Modalität 2
Magnetic Resonance Electrical Impedance Modell, pharmakokinetisches 400
Tomography, MREIT 450 Modulation Transfer Function, MTF 153, 597
Magnetisierung, longitudinale und transversale Modulationsfeld 429
Komponente 342 Modulationstransfer-Funktion, MTF 373
Magnetisierung, makroskopische 335 Modulationsübertragungsfunktion, MTF 47, 153,
Magnetisierung, transversale 597
– Detektion 342 Molecular Imaging, molekulare Bildgebung 545
– Zerfall 345 Moment, magnetisches 330, 331
Sachwortverzeichnis | 647

Monitoring 6 Ophthalmologie 472, 494


Monomodefasern 473 Optical Doppler Tomography, ODT 490, XXIV
Monte-Carlo-Simulation 166, 510 Optical Frequency Domain Imaging, OFDI 478
Moving Dipole 415 Optische Doppler-Tomographie 490, XXIV
MR-Bildgebung, molekulare 400 Optische Kohärenztomographie 472
MR-Flussmessung 397 Ordered Subset EM, OSEM 162
MR-sicher 394 Orthopantomographie 115
MR-sicher, bedingt 394 Ortsauflösung 144, 146, 150, 154, 156
MR-Spektroskopie 401 Ortsauflösung, tiefenabhängige 166
MR-Tomographie, funktionelle; fMRT 396 Ortskodierung 351
MRT-Sonden 551 Ortszuordnung, elektronische 147
MR-unsicher 394 Ortungselektronik 147
M-Sequenz-Radar 539 Osteoporose-Diagnose 542
multimodal 187 Oszillation, nichtlineare 307
Multimodefasern 473 Out-of-plane-Artefakt 118
Mutter-Tochter-Endoskopie 464
P
N Panoramabildgebung 302
Nachleuchten 73 Pantomographie 115
Nadelstrahl 63 Parallaxeneffekt 178
Nahfeld 244 Partialvolumenartefakte 87
Nanopartikel 426 Partialvolumeneffekt 182
Narrow-Band Imaging 468 Peak 157, 167
Natural Orifice Transluminal Endoscopic Perfusionsabbildung 306, 308, 309
Surgery, NOTES 562 Perfusionsdynamik 309
Nebenkeulen 270 Permeabilität 512
Nebenwirkungen der PET 199 Permittivität 535
Nekrose 489 Personendosis 54
NEMA-Standard 198 Perzeption 606
Nervenstimulation, periphere; PNS 393 PET 554
Netzwerkanalysator 539 – Kardiologie 195
Newton–Raphson-Algorithmus 449 – Kleintier- 196
Nichtlinearitätsparameter 235 – Neurologie 196
Niedrigkontrastauflösung 102 – Onkologie 195
Nierenstein 56 – präklinisch 196
Noise Equivalent Count Rate, NECR 181 PET-CT 110
Noise Equivalent Differential Temperature, PET-Grenzwerte 199
NEDT 524 Phase Contrast Angiography 370
Noise Equivalent Quanta, NEQ 46 Phased-Array 259, 263
Noise Equivalent Temperature Difference, Phaseninversionstechnik 275
NETD 524 Phasenkodierung 357
Noise Equivalent Temperature, NET 524 Phasenkontrast-Röntgen 51, 630
Noise Power Spectrum, NPS 604 Phasenmaß 536
Not-Abschalten 392 Phoswich 186
Nuklid 174 Photoeffekt 21, 142, 145, 176
Nulleffekt 167 Photomultiplier 143, 146, 184
Photonen, ballistische 507
O Photonen-Banane 508
Oberflächen-Rendering 95 Photonenlaufzeitverteilung 511
648 | Sachwortverzeichnis

Pitch 84, 86, 271 Quench 386, 392


Pitchfaktor 103 Querrelaxation 343
Pixel 95
Pixel Binning 125 R
Pixelbandbreite 382 Radiofrequenzspule 385
Plancksches Wirkungsquantum 330 Radio-Isotop 174
Planigraphie 114 Radioisotop 137, 138, 140
Pleurafenster 93 Radionuklid 137, 138, 140, 167
PNS-Nervenstimulation, periphere 433 Radionuklidgenerator 140
Point Spread Function, PSF 151, 166, 384, 598 Radiopharmakon 136, 140, 154
Poisson-Verteilung 161, 602 Radiotracer 554
Polarisationssensitive OCT, PS OCT 493 Radon-Raum 78
Polygon-Scanner 480 Radon-Transformation 160
Polyvinylidendifluorid,PVDF 238 Raman-Spektroskopie 555
Positronen-Emissions-Tomographie, PET 110 RAMLA 162
Positronenreichweite 176 Rampenfilter 119
Power Mode 219, 299 Rapid Acquisition with Relaxation Enhancement,
Power-Doppler-Konzept 297 RARE 373
Power-Flow-Verfahren 297 Rapid Scanning Optical Delay Lines, RSOD 477
Präparationssequenz 378 Rauschen 222, 388
Präzession 334 Rauschleistungsdichtespektrum 47
Problem Rausch-Reduktion 300
– inverses 77, 419, 436 Rauschspannung 391
– schlecht gestelltes 419 Rayleigh-Integral 233
Projection-Slice-Theorem 78, 119 Rayleigh-Streuung 22, 165, 233
Projektion 10, 155, 159 Rayleigh-Verteilung 267
Projektionsröntgen 4, 10 Receiver Operating Characteristic, ROC 607
Pseudoinverse 421 Recovery-Koeffizient 182
Puls-Doppler-Verfahren 291 Reflektivität 233, 251
Puls-Echo-Betrieb 224, 251 Reflexion 230
Reflexion, diffuse 508
Pulsinversionstechnik 275
Reflexionsbildgebung 555
Pulswiederholrate 261
Reflexionsfaktor 536
Punkt-Abbildungsfunktion 166
Reflexionskoeffizient 231
Punktbildfunktion, PSF 263, 384, 598
Refokussierung 349
PW-Doppler 291, 295
Refokussierungsgradient 354, 355
Pyramidenzellen, Hirnrinde 408
Refokussierungspuls 363
Reformatierung, multiplanare; MPR 94
Q Registriereinheit 148
QRS-Kompex 410 Registrierung 278, 571
Quadratur-Anordnung 337 Regularisierung 160, 420
Quadraturdetektor 343 Reichweite 262
Qualitätskontrolle 197 Reihenfolge
Quanteneffizienz 73, 77 – lineare 373
Quanteneffizienz, detektierte; DQE 46 – zentrische 373
Quanten-Interferenz-Detekor, supraleitender; Rekonstruktion 513, 514
SQUID 411 – analytische 161
Quantenrauschen 45, 603 – iterative 121, 122
Quantum Well Infrared Photodetector, QWIP 524 – quantitative 163
Sachwortverzeichnis | 649

– sekundäre 94 Schäden
– statistische 161 – deterministische 205
Rekonstruktionsalgorithmus 116, 158 – stochastische 205
Relaxation Schallfeld
– Spin-Gitter- 343 – Konturen 243
– Spin-Spin- 343 Schallgeschwindigkeit 226, 228
Relaxationsmechanismen 343 Schallimpedanz 229
Relaxationsprozess 344 Schallintensität 229
Relaxationsrate 347 Schichtanregung, selektive 351
Relaxationszeit 345 Schichtdicke 103, 260
Relaxivität 347 Schichtdickenfilter 120
Repetition Time 348, 363 Schichtprofil 354
Rephasierung der Isochromate 350 Schichttechnik 115, 130
Resolution 525 Schlaganfall-Diagnostik 451
Resonanz 337 Schleifringtechnologie 67, 83
Resonanz, kernmagnetische 329, 341
Schlüssellochchirurgie 457
Retinopathie 483
Schmalband-MPI 427
Reziprozitätstheorem 342, 418
Schnelle 226
RF-Ablation 565
Schwächung durch Absorption 164
RF-Anregung 341
Schwächungsgesetz 17
RF-Puls 337
Schwächungskoeffizient 18
Richtig-Positiv-Rate, TPF 607
Schwächungskoeffizient, linearer 177
Risiko
Schwächungskorrektur, CT-basierte 187
– attributives 209
Schwärzungskurve 34
– relatives 209
Schwenken 259
Röhrenspannung 103
Scout View 91
Röntgenbildverstärker 37
Röntgenfluoroskopie 37 Screening 6, 221
Röntgengenerator 30 Segmentierung 514
Röntgenröhre 12, 26 Sehweite, deutliche 579
Röntgen-Strahler 29, 30 Selbstabsorption 72
Röntgenstrahlung Selektionsfeld 430
– Detektion 72 Sende-Empfangsweiche 250
Röntgenverordnung, RöV 54, 213 Sendefokussierung 257
Rotationsbewegung 158 Sendespule 337
Rotationsform 158 SENSE-Technik 377
Rotationswinkel 158 Sensitivität 181
Rotationszentrum 168 Sequenz 348
Rückfaltung 361, 377, 381 Shannon-Theorem 357, 361
Rückprojektion 121, 446 Shift-and-Add-Algorithmus 118
– gefilterte 79, 116, 122 Shimming 387
– ungefilterte 118 Short Wavelength Infrared Imaging Band,
Rückprojektion, nichtlineare 123 SWIR 522
Sidelobes 271
S Sievert 139
Sättigung 381 Signalamplitude der
Scankonvertierung 263 Gradientenecho-Sequenz 368
Scanning-Laser-Ophthalmoskopie 485 Signal-Rausch-Verhältnis 45, 125, 181, 267, 390
Scanogram 91 Signal-to-Noise Ratio, SNR 390, 601
650 | Sachwortverzeichnis

Signalverarbeitung Stereomikroskop 577


– direktionale 287 – Aufbau 578
Singular Value Decomposition, SVD 420, 449 – Tiefenwahrnehmung, stereoskopische 580
Singuläre Wertezerlegung, SVD 449 Störstrahlung 74
Singulärwertezerlegung 420 Störungsansatz 514
SNR siehe Signal-Rausch-Verhältnis Stoßwelle 235
Sonde, molekulare 548 Strahlaufhärtung 31
Sonographie 555 Strahlendosis 103
Sonohistologie 311, 312 Strahlenpass 54
Spatial Compounding 300 Strahlenschutz 54, 197
Spatial Resolution 525 Strahlenschutzverordnung, StrlSchV 213
Speckle 266 Strahlformung 257
Speckle-Muster 222 Strahlung
Speckle-Rauschen 487 – charakteristische 14
SPECT 136, 155, 156, 554 – ionisierende 73
– Bildrekonstruktion 159 𝛾-Strahlung 138
– Hybridbildgebung 169 Strahlungsdosis 114, 122
– klinische Anwendung 168 Strahlungsdruck 235, 307
– Qualitätskontrollen 167 Strahlungskühlung 520
Spectral Presaturation Inversion Recovery, Strahlungstransport-Gleichung 509
SPIR 380 Stratigraphie 114
Speicherfoliensystem 36 Streifenartefakt 125
Spektral Domain OCT 478 Streukoeffizient 507
Spektralparameter 312 Streukoeffizient, reduzierter 507
Spektralregionen 522 Streuquerschnitt 233
Spektrometerbasierte OCT 478 Streustrahlenartefakte 91
Spill-Over Ratio, SOR 182 Streustrahlenraster 42, 74
Spin-1/2 330 Streustrahlenraster, Selektivität 44
Spindichte 356 Streuung 165, 233, 234
Spindichte-Gewichtung 364 Stromdipol 413
Spinecho Stromquelle der Impedanztomographie 444
– Bildgebungssequenz 364 Subtraktionsangiographie, digitale; DSA 56
– Sequenz 349 Superkontinuumlichtquelle 475
– Signal 350 Superlumineszenzdiode 475, 483
Spinquantenzahl 330 Suszeptibilitätssprung 370, 383
Spiralartefakte 84 Swept Source OCT, SS OCT 478
Spiral-CT 83 Symmetrie, hermitische 376
Spiralverfahren 82 Systemfunktion 436
Spitzendruck 230 Systemhomogenität 168
Spoiling 366 Systemtheorie abbildender Systeme 590
Springfokus 89 Szintigraphie 136
Spulenempfindlichkeit 377 Szintillation 142
Stablinse 456 Szintillationsdetektor 73, 142, 183
Stablinsenendoskop 460 Szintillationskristall 73, 143, 145
Steady State 366 Szintillator 37
Steady State Free Precession, SSFP 368 – BGO 184
Stent 56, 564 – GSO 184
Step-and-Shoot-Betrieb 124 – LSO 184
Stereo-Endoskop 461
Sachwortverzeichnis | 651

T Triggering 155, 385


T1 343 TS-Verfahren 294
T1 -Gewichtung 367 Tuned Aperture Computed Tomography,
T1 -Kontrast 379 TACT 121
T2 343 Turbo-Spinecho 373
T2∗ 345
T2 -Gewichtung 364 U
T2 -Präparationspuls 379 Übergang, isomerer 138
TR 348 Übersichtsaufnahme 92
Targeted Imaging 308 Übertragungsfunktion 119, 123
Teilchenfluenz 206 Ultrabreitbandtechnik 535
Teilchenflussdichte 205 Ultraschall
Temperaturmessung 520 – Artefakte 268
Terahertzwellen 536 – Differentialdiagnostik 220
Texturparameter 312 – Gewebephantome 317
Theragnostics 546 – Grenzwerte 316
Theranostics 546 – Hochfrequenz- 310
Thermoregulation 520 – medizinisch-therapeutische Anwendung 225
Thrombozyten 283 – Wellenfeld 246
THz-Puls-Imaging-System 537 Ultraschallabbildung,
Tiefenschärfe 257 kontrastmittelspezifische 225
Tikhonov-Regularisierung 420, 436, 449 Ultraschallanwendung, intravaskuläre;
Time Domain OCT, TD OTC 476 IVUS 218
Time Gain Compensation, TGC 255 Ultraschall-Bildgebung 5, 555
Time-of-flight 180 Ultraschalldiagnostik, intravaskuläre 311
Tissue Harmonic Imaging, THI 277 Ultraschall-Doppler-Verfahren 283
TM-Scan-Verfahren 256 Ultraschall-Elastographie 218, 303
Tomographie Ultraschallgel 248
– diffuse optische 513 Ultraschallgruppenwandler 245
– klassische 114 Ultraschallkatheter 311
– konventionelle 114 Ultraschallkontrastmittel 225, 306
– optische 555 Ultraschallkontrastmittel-Abbildung 276
Tomosynthese, optische 514 Ultraschallwandler 249
Tomosynthesewinkel 116, 119, 125 Umgebung, chemische 350
Topogram 91 Umkehrlinsensystem 459
Toträume 74 Umlenkprisma 460
Totzeit 181 Uncooled Detectors 524
Tracer 141 Unidirektionalität 222
– exogene 403 Uniform Double Layer 415
– radioaktiver 110 Unterdrückung 381
Trajektorien 360 Untersuchungsverfahren,
Transilluminationsbildgebung 510 nuklearmedizinisches 140
Transkatheter-Aortenklappenimplantation, Useful Field of View, UFOV 154
TAVI 567 UWB-Radar-Bildgebung 540
Transmembranspannung 408
Transmissionsgrenzen 221 V
Transmissionskoeffizient 232 Verfahren, hybrides 313
Transmissionsultraschall 312 Verhältnis, gyromagnetisches 330
Triangulierung 95 Verschiebung, chemische 350
652 | Sachwortverzeichnis

Verstärkerfolie 34 Winkelunschärfe 176


Verwischungsartefakt 118, 123 Wirbelstrom 382, 387
Verwischungstomographie 114 Wirbelstromeffekt 375
Videoendoskop 456, 465 Wirkung
Virtuelle Endoskopie 101 – biologische 315
Volumen-Rendering 95 – mechanische 313
von-Hann-Fenster 480 Wirkungsgrad der Röntgenröhre 17
von-Hann-Filter 120 Wismutgermanat 73
Vorpuls 378 Wolf-Parkinson-White-Syndrom, WPW 413
Vorsättigung, regionale 381 Wolframanode 71
Vorverstärker 147
Vorwärtsproblem 416
X
Vorwärtsprojektor 165
X-ray-Transformation 160
Voxel 95

W Z
Wandfilter 287 Zeeman-Effekt 332
Wärmeleitung 520 Zeitauflösung 145, 152
Wechselwirkungstiefe 179, 186 Zentrum, ektopes 413
Wehnelt-Zylinder 28 Zerfallsgesetz 138
Weichteilfenster 93 Zerstörung 366
Weißlichtinterferometrie 472 Zoom 158
Welle, homogene, ebene, monofrequente 228 Zoom-System 581
Wellenfeld 243 – Abbildung, afokale 582
Wellengleichungen 228 – Kompensator 582
Wellenlänge 229 – Variator 582
Wellenzahl 229 Zustandsgleichung 227
Wiederholzeit 348, 363 Zweikopf-Steuerung 32

Das könnte Ihnen auch gefallen