6l 2012

I N UNSERER ZEI T
PHYSIK
PHYSIKGESCHICHTE
Kolhörster
NOBELPREIS
Quantenkontrolle
FESTKÖRPERPHYSIK
Spinkaloritronik
4
3
.

J
a
h
r
g
a
n
g
N
o
v
e
m
b
e
r

2
0
1
2




I
S
S
N

0
0
3
1
-
9
2
5
2




P
H
U
Z
A
H




D

4
7
8
7
w
w
w
.
p
h
i
u
z
.
d
e
DUNKLE MATERIE
EDI TORI AL
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 263
S
chon seit den 1930-er Jahren gibt es Hinweise darauf,
dass der größte Teil, der im Universum vorhandenen Ma-
terie unsichtbar ist. Diese überraschende Erkenntnis ge-
wann mit der rasanten Zunahme von Beobachtungsdaten in
den letzten Jahrzehnten enorm an Bedeutung. Insbesonde-
re zeigten sich diese Hinweise auf unterschiedlichen kos-
mologischen Größenskalen.
B
ald wurde auch klar, dass konventionelle Erklärungs-
versuche wie planetenartige Körper, Braune Zwerge
oder Schwarze Löcher, die schon in geringer Entfernung
nicht mehr nachweisbar sind, nicht die Lösung sein können.
Eine beachtliche Reihe von Indizien ergibt inzwischen ein
konsistentes Bild: Nur etwa 4 % der insgesamt im Universum
vorhandenen Materie besteht aus gewöhnlicher, baryoni-
scher Materie, während etwa 25 % aus einer bisher nicht be-
kannten Form von Dunkler Materie
besteht. Weitere 70 % liefert die Dunk-
le Energie, die in der einfachsten Form
der von Einstein eingeführten, aber
dann verworfenen Kosmologischen
Konstante entsprechen könnte.
D
ie Natur der Dunklen Materie und Dunklen Energie
zählt heute zu den spannendsten ungelösten Fragen
der Grundlagenphysik. Prinzipiell ist auch eine Veränderung
des Gravitationsgesetzes denkbar, aber bisherige Ansätze
sind nicht in der Lage, alle Effekte konsistent zu beschrei-
ben. Die derzeit favorisierte Hypothese sagt eine neue und
unsichtbare Teilchensorte voraus. Diese Hypothese wird
durch verschiedene Indizien gestützt. So kommen Teilchen
mit den geeigneten Eigenschaften in notwendigen Erwei-
terungen des Standardmodells der Teilchenphysik vor. Zu-
dem führt die Einführung sogenannter WIMPs (Weakly In-
teracting Massive Particles) im Urknall automatisch in etwa
zur beobachteten Menge an Dunkler Materie.
Z
urzeit läuft weltweit ein Wettrennen zum direkten Nach-
weis von WIMPs. Dieser ist allerdings sehr schwierig.
Die Raten, mit denen diese Teilchen an typischen Detekto-
ren streuen sollten, sind um viele Größenordnungen kleiner
als der Untergrund. Letzterer stammt zum Beispiel von Teil-
chen der kosmischen Strahlung oder vom natürlichen Zer-
fall radioaktiver Elemente. Daher müssen Detektoren aus
extrem reinen Materialien gebaut werden und sich zur
Abschirmung vor der kosmischen Strahlung tief unter der
Erde befinden.
I
n den letzten Jahren wurden in der Messtechnik enorme
Fortschritte erzielt. Mit jeder Verbesserung der Mess -
genauigkeit muss man aber bei einem auftretenden Signal
vorsichtig sein, weil es sich um einen neuartigen, bisher un-
bekannten Untergrund handeln könnte. Experimente, die
dagegen keine Ereignisse registrieren, sind leichter zu in-
terpretieren: Eine Nullmessung schließt sowohl neue Un-
tergründe als auch ein Signal aus und muss also nicht wei-
ter analysiert und interpretiert werden.
A
ktuell gibt es drei Experimente, die Ereignisse mit einer
Rate sehen, die oberhalb des angegebenen Untergrunds
liegen. Über eines von ihnen, das im Gran-Sasso-Unter-
grundlabor arbeitende Experiment CRESST, berichtet
Michael Kiefer in diesem Heft. Allerdings liegen die gemes-
senen Ereignisse der drei Experimente in sich gegenseitig
ausschließenden Parameterbereichen.
Erschwerend kommt hinzu, dass zwei
andere Experimente (XENON100 und
CDMS) in diesen Bereichen keine Er-
eignisse sehen. Wie lässt sich das er-
klären?
E
ine konsistente Lösung wäre, dass zwei Experimente
einen unverstandenen Untergrund messen, während das
dritte Signal tatsächlich von speziellen WIMPs herrührt. Die-
se müssten dann aber sehr ungewöhnliche Eigenschaften
besitzen, so dass sie sowohl für XENON100 als auch für das
unterschiedlich funktionierende CDMS Experiment un-
sichtbar sind. Ganz ausschließen lässt sich das nicht, weil
beispielsweise CRESST den Lichtblitz und die Wärmeent-
wicklung misst, die ein WIMP bei Kollision mit einem Atom
im Detektor erzeugt. XENON100 hingegen misst den Licht-
blitz und die erzeugte Ionisierungsrate. Die andere Lösung
mit weniger speziellen Annahmen ist, dass keines der bis-
her gesehenen Signale von WIMPs stammt.
I
m Moment ist es für definitive Schlussfolgerungen noch
zu früh. Weitere Daten sind zur Klärung der derzeitigen
Umgereimtheiten nötig. Es wird aber fieberhaft an immer
besseren Detektoren gearbeitet, die einen großen Teil des
theoretisch erwarteten WIMP-Bereichs immer zuverlässiger
abdecken. In den kommenden zehn Jahren sollte es sich ent-
scheiden, ob WIMPs die Erklärung für Dunkle Materie sind
oder ob ein noch exotischeres Phänomen dahinter steckt.
Dunkle Materie:
Sehen und gesehen
werden
Prof. Manfred Lindner
ist Direktor am
Max-Planck-Institut
für Kernphysik in
Heidelberg und
Leiter der dortigen
Forschergruppe
von XENON100 und
XENON1T.
FÜR DEFI NI TI VE
SCHLUSSFOLGERUNGEN
I ST ES NOCH ZU FRÜH
264
|
Phys. Unserer Zeit
|
6/2012 (43)
I MPRESSUM
|
EDI TORI AL
|
263 Dunkle Materie:
Sehen und gesehen werden
Manfred Lindner
PHYSI K-NOBELPREI S 2012
|
272 Von der Paul-Falle zu Schrödingers
Katze
Dieter Meschede
ASTROTEI LCHENPHYSI K
|
274 Die Suche nach dem Unsichtbaren
Michael Kiefer
PHYSIK
IN UNSERER ZEIT
www. phi uz. de
274 Die Suche nach dem Unsichtbaren
Normale baryonische Materie, aus der alle
Sterne, Planeten und auch wir Menschen
bestehen, macht nur wenige Prozent der ins-
gesamt im Universum vorhandenen Materie
aus. Ein weitaus größerer Teil bleibt unsicht-
bar: die Dunkle Materie. Mit mehreren Experi-
menten versuchen Forscher weltweit, Teilchen der Dunklen Materie nach-
zuweisen. Einige von ihnen, wie das Experiment CRESST, könnten sie
schon gefunden haben.
Verlag:
WILEY-VCH Verlag GmbH & Co. KGaA Weinheim,
Boschstraße 12, Postfach 10 11 61,
69451 Weinheim;
Telefon +49 (0)62 01/6 06-0,
Tele fax +49 (0)62 01/6 06-3 28
Redaktion
Dr. Thomas Bührke, Wiesenblättchen 12,
68723 Schwetzingen,
Telefon +49 (0)62 02/5 77 97 49
Thomas.Buehrke@t-online.de
Roland Wengenmayr, Konrad-Glatt-Straße 17,
65929 Frankfurt/M., Telefon +49 (0)69/30 85 41 76
roland@roland-wengenmayr.de
Kuratorium
Stefan Brönnimann, Bern
Heinz Krenn, Graz
Günter Lugert, Erlangen
Hinrich Meyer, Hamburg
Thomas Müller, Karlsruhe
Gerhard Rempe, Garching
Elke Scheer, Konstanz
Michael Vollmer, Brandenburg
Herstellung
Marita Beyer, Telefon +49 (0)62 01/6 06-2 68,
Telefax +49 (0)62 01/6 06-3 28.
Anzeigen:
Nicole Schramm, Telefon +49 (0)62 01/6 06-5 59,
Telefax +49 (0)62 01/6 06-5 50.
Abonnenten-Service:
Telefon: 0800/1800536 (innerhalb Deutschland),
+44 (0)1865476721 (außerhalb Deutschland)
E-Mail: cs-germany@wiley.com
Abonnementpreise
(inklusive Versand und MwSt.) für 12 Monate/
6 Hefte: Persön liche Bezieher: A 127,33, Studenten:
A 87,74, Institutionelle Bezieher: A 272,85 (print),
A 303,45 (online), A 331,09 (print und online).
Studen tische Abonnenten werden gebeten, ihrer
Bestellung eine Kopie der Immatrikula tions -
bescheinigung beizulegen. Persönliche Abonne-
ments dürfen nicht an Bibliotheken verkauft oder
als Bibliotheksexemplare benutzt werden.
Abbestellungen nur bis spätestens 3 Monate
vor Ablauf des Bezugsjahres.
Satz:
TypoDesign Hecker, Leimen.
Druck und Bindung:
ColorDruck, Leimen.
© WILEY-VCH Verlag GmbH & Co. KGaA Weinheim,
69451 Weinheim, 2012.
Printed in the Federal Republic of Germany.
ISSN 0031-9252
281 Werner Kolhörster:
Pionier der Höhenstrahlungsforschung
Neben Victor Franz Hess gehört Werner
Kolhörster (1887–1946) zu den herausragen-
den Pionieren in der Entdeckungs- und Früh-
geschichte der kosmischen Strahlung. Den-
noch überschattet heute der Ruhm von Hess
weitgehend Kolhörsters Verdienste.
6/2012 (43)
|
Phys. Unserer Zeit
|
265
|
I NHALT
|
I NHALT
PHYSI KGESCHI CHTE
|
281 Werner Kolhörster: Pionier der
Höhenstrahlungsforschung
Dieter Hoffmann
FESTKÖRPERPHYSI K
|
288 Heiße Elektronik
Markus Münzenberg | Andy Thomas
SPI ELWI ESE
|
296 Lauftiere: vom Spielzeug
zum Roboter
Christian Ucke | H. Joachim Schlichting
ERNEUERBARE ENERGI E
|
300 Erneuerbare Energie für Europa
Tobias Tröndle | Ulrich Platt |
Werner Aeschbach-Hertig | Klaus Pfeilsticker
6|2012
TREFFPUNKT FORSCHUNG
|
266 Phiuz in die Schulen!
266 Suprafluidität in zwei Dimensionen
268 Leuchtendes Graphen
269 Weiße Zwerge senden Gravitations -
wellen aus
270 Physics News
270 Van Goghs Gelb
271 Sicherheit für die Schifffahrt
MAGAZI N
|
307 Prost Neujahr:
die Physik von Champagnerflaschen
309 Der Radar-Ritter
309 Treffpunkt TV
310 Explosionen in der Champagnerflöte
288 Heiße Elektronik
Die zunehmend attraktive Spintronik basiert
auf der Steuerung von Strömen über die Elek-
tronenspins. Doch es gibt auch einen Weg,
diese Spins über Wärmezufuhr zu manipulie-
ren. In einigen Nanostrukturen funktioniert
dies sehr effektiv. Dieses noch junge Gebiet der
Spinkaloritronik begründete der altbekannte
Seebeck-Effekt. Es könnte zum Beispiel die
Abwärme von Mikroprozessoren als Energiequelle für Elektroniken
effizient nutzbar zu machen.
300 Erneuerbare Energie
für Europa
Ein weitgehender
Umstieg von fossilen
auf erneuerbare
Energieträger in
Europa erfordert
ein Umdenken in der
Elektrizitätsversorgungsstruktur. Regelbare Kraft -
werke, Energie speicher und ein leistungsfähiges Elek-
trizitätsnetz sind hierbei wichtige Bausteine. Das zeigt
das vorgestellte Szenario für Europa bis 2050.
296 Lauftiere:
vom Spielzeug zumRoboter
Lauftiere wackeln eine schiefe Ebene hinunter. Schon Klein -
kinder sind fasziniert von diesem über hundert Jahre alten
Spielzeug. Ingenieure beschäftigen sich aktuell damit, da sich
mit dem dahinter stehenden Prinzip überraschend energie -
sparende Konstruktionen von Laufrobotern realisieren lassen.
TREFFPUNKT FORSCHUNG
QUANTENHYDRODYNAMI K
|
Suprafluidität in zwei Dimensionen
Suprafluidität ist einer der verblüffendsten Effekte der Quantenmecha-
nik. Dieser Zustand, bei dem sich eine Flüssigkeit ohne Reibung bewegt,
wurde 1938 in flüssigem Helium entdeckt. Seit einigen Jahren studiert
man ihn zudem intensiv an ultrakalten atomaren Quantengasen. Un -
serer Gruppe an der Ecole Normale Supérieure in Paris ist es kürzlich
gelungen, die Supraflüssigkeit auch in einem zweidimensionalen Bose-
Gas direkt zu beobachten [1].
In unserer Alltagserfahrung ist Bewe-
gung immer von Reibung begleitet.
In der Quantenphysik dagegen kön -
nen einige Materialen unterhalb
einer kritischen Temperatur ein
Suprafluid bilden, in dem die Rei-
bung verschwindet. Damit wird ein
anhaltender Fluss möglich. Das Phä -
nomen ist auch von Supraleitern
bekannt, in denen die Elektronen ein
Suprafluid bilden und darum der
elektrische Strom ohne Widerstand
fließt.
In dem Suprafluid gibt es wegen
der Wechselwirkung zwischen den
Teilchen ein bestimmtes Spektrum
von kollektiven Anregungen. Sie
heißen Phononen, Rotonen oder
Vortices. Der anhaltende Strom
eines Suprafluids relativ zum Be -
hälter ist zwar nicht der Grund -
zustand, aber der Fluss kann nicht
zerfallen, weil die Natur der Anre -
gungen das nicht erlaubt. Darum
spricht man von einem metastabilen
266 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
PHYSI KDI DAKTI K
|
Phiuz in die Schulen!
Seit rund zehn Jahren arbeitet die Initiative Wissenschaft in die Schulen!
(WiS). Sie hat zum Ziel, Schülerinnen und Schüler an Themen der
aktuellen Forschung heranzuführen und sie dafür zu begeistern. Den
Lehrern fehlt hierfür aber häufig das entsprechende Unterrichtsmateri-
al. Deswegen stellt WiS auf www.wissenschaft-schulen.de Originalarti-
kel aus wissenschaftlichen Zeitschriften sowie zusätzliches, von erfahre-
nen Didaktikern erstelltes Unterrichtsmaterial zur Verfügung. Bislang
sind Zeitschriften aus dem Spektrum-Verlag, wie Spektrum der Wissen-
schaft und Sterne und Weltraum, daran beteiligt, seit diesem Monat ist
auch Physik in unserer Zeit dabei.
Die Projektidee entstand als Reaktion
auf die erste Pisa-Studie im Jahre
2000, die bei vielen Jugendlichen ein
großes Desinteresse an den Natur-
wissenschaften aufzeigte. Dieser
Entwicklung soll mit WiS gegenge-
steuert und eine Brücke von der
Wissenschaft zum Unterricht geschla-
gen werden.
Die zur Verfügung stehenden
Materialien lassen sich direkt im
Unterricht einsetzen, die ausgewähl-
ten Originalartikel aus Physik in
unserer Zeit ermöglichen es den
Lehrern, sich über den aktuellen
Stand der Forschung zu informieren
und Schülerinnen und Schüler die
Faszination moderner Physik nahe zu
bringen. Außerdem liefert das WiS-
Portal Hinweise auf Didaktikprojekte
an Universitäten und ausgewählte
Veranstaltungen.
Die Materialien stammen derzeit
überwiegend aus den Fachgebieten
Astronomie, Biologie, Geowissen-
schaften und Chemie. Physik in
unserer Zeit wird dieses Spektrum
um die Physik erweitern. In den
ersten Beiträgen geht es unter ande-
rem um akustische Phänomene am
Beispiel von Westerngitarren und um
Polarisation am Beispiel von Flach-
bildschirmen. Das Angebot wird
ständig erneuert. Der Abruf der
Materialien und der Zugang zu den
Projekten sind kostenlos und unver-
bindlich.
www.wissenschaft-schulen.de
TB
ABB. 1 LASERPROBE
Ein stark fokussierter Laserstrahl rührt
in einer suprafluiden zweidimensiona-
len Wolke aus ultrakalten Atomen.
Da er sich in konzentrischen Kreisen
bewegt, probt er die Wolke bei kon-
stanter Dichte, die vom Zentrum nach
außen abfällt.
TREFFPUNKT FORSCHUNG
OPTOELEKTRONI K
|
Leuchtendes Graphen
Die steigende Anforderung an Übertragungskapazität optoelektroni-
scher Bauelemente erfordert die Erforschung von neuartigen Nano -
materialien. Unserer Forschungsgruppe am Karlsruher Institut für
Technologie in Zusammenarbeit mit Forschungsgruppen bei IBM und
der Universität Cambridge ist es gelungen, Graphen an eine optische
Mikrokavität zu koppeln [1]. Damit konnten sowohl grundlegende
physikalische Effekte studiert als auch wellenlängenselektive Emitter
und Detektoren auf Basis von Graphen demonstriert werden.
schaften von Graphen, was schließ-
lich im Nobelpreis für Physik 2010
mündete (Physik in unserer Zeit
2010, 41(6), 272).
Graphen absorbiert gleichmäßig
Licht im sichtbaren Spektralbereich,
erscheint dem menschlichen Auge
also farblos. Für bestimmte optoelek-
tronische Anwendungen ist aber eine
spektrale Selektivität gewünscht.
Dies ist nun gelungen, indem Gra-
phen an ein photonisches Element
gekoppelt wurde, um eine gewünsch-
te Farbe zu erhalten.
Die einfachste Realisierung eines
photonischen Elements ist eine
planare Mikrokavität, bestehend aus
zwei hoch reflektierenden Spiegeln
mit einem definierten Abstand L. Die
Mikrokavität ist resonant für Licht,
268 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Die schnellst mögliche Übertragung
von Information kann nur mit opti-
schen Signalen erfolgen. Diese müs -
sen sowohl elektrisch generiert als
auch detektiert werden. Hierfür
benötigt man elektrooptische Wand-
ler. Wir untersuchen optoelekroni-
sche Bauelemente auf Basis von Gra -
phen, das aus einer einzigen Lage
von Kohlenstoffatomen besteht, die
in einem hexagonalen Gitter ange-
ordnet sind. Erst 40 Jahre nach der
Entdeckung von Graphen [2] war
man in der Lage, es zu isolieren, um
dessen physikalische Eigenschaften
genauer zu untersuchen [3]. An-
schließende weltweite Forschungs -
anstrengungen zeigten dann die
außerordentlichen elektrischen,
optischen und mechanischen Eigen-
wenn der Abstand L genau einem
Vielfachen der halben Wellenlänge
dieses Lichtes entspricht. Nur Licht,
dessen Wellenlänge der Resonanz -
wellenlänge der Mikrokavität ent-
spricht, kann detektiert oder emit-
tiert werden.
Abbildung 1 zeigt das Konzept
einer verstärkten oder unterdrückten
Emission und Absorption von Licht
innerhalb einer Mikrokavität. Die
zugrunde liegende Idee besteht darin,
die Rate, mit der Licht absorbiert
oder emittiert wird, zu ändern. Die
wesentliche Physik geht zurück auf
Enrico Fermi und dessen Goldene
Regel: Die Rate, mit der Licht absor-
biert oder emittiert wird, ist unter
anderem proportional zu der so
genannten photonischen Zustands-
dichte. Analog den elektronischen
Energieniveaus in Atomen, Molekülen
und Festkörpern gibt es auch für
Licht erlaubte und verbotene Zustän-
de innerhalb der Mikrokavität.
Abbildung 2a zeigt den experi-
mentellen Messaufbau zur Untersu-
chung der Emissions- und Absorp-
tionseigenschaften von Graphen. Die
wesentliche technische Schwierig-
keit bestand darin, mit metallischen
Elektroden kontaktiertes Graphen in
eine Mikrokavität zu integrieren.
Zunächst wurden die Emissionseigen-
schaften durch das Anlegen einer
elektrischen Spannung untersucht.
Dabei erhitzt der elektrische Strom
das Graphen, das bei hohen Tempera-
turen Licht emittiert. Die Farbe des
emittierten Lichtes ist jedoch nicht
weiß, sondern durch die Resonanz -
wellenlänge der Mikrokavität be-
stimmt (Abbildung 2b).
Für den umgekehrten Fall der
Lichtdetektion nutzen wir aus, dass
Graphen eine endliche Photoleitfähi-
gleit besitzt. Von Graphen absorbier-
tes Licht generiert freie Elektronen-
Loch-Paare, die über gegenüberlie-
gende Elektroden abfließen und als
Photostrom gemessen werden. Misst
man nun den Photostrom als Funk-
tion der Wellenlänge, so stellt man
fest, dass die Stärke des Photostroms
vollständig durch die Mikrokavität
bestimmt ist (Abbildung 2c).
Verstärkung
Ort
E
n
e
r
g
i
e
Emission
Absorption
Spiegelabstand
L=n∙λ/2 L≠n∙λ/2
Unterdrückung
Spiegel
Graphen
ABB. 1 GRAPHEN I N DER MI KROKAVI TÄT
Verstärkung und Unterdrückung von Lichtabsorption und -emission innerhalb einer
optischen Mikrokavität als Funktion des Spiegelabstands. Im Resonanzfall (links,
Spiegelabstand entspricht einem Vielfachen der halben Wellenlänge) kommt es zur
verstärkten Absorption oder Emission von Licht innerhalb der Mikrokavität.
Das bislang ergiebigste System
zur Überprüfung der Allgemeinen
Relativitätstheorie ist der Doppelpul-
sar 1913+16, für dessen Entdeckung
und ersten indirekten Nachweis von
Gravitationswellen Russell Hulse und
Joseph Taylor 1993 den Physik-
Nobelpreis erhielten.
Literatur
[1] J. J. Hermes et al., Astrophys. J. (einger.),
arxiv.org/abs/1208.5051
TB
TREFFPUNKT FORSCHUNG
Die Ergebnisse dieser Arbeit zei -
gen das Potenzial für Graphen für die
Optoelektronik auf. Durch Einstellen
der optischen Eigenschaften der
umgebenden Mikrokavität lassen sich
beliebige Emissions- und Detektions-
wellenlängen, sprich Farben, erzielen.
In Zukunft sollen durch Kopplung an
komplexere photonische Strukturen
die Effizienz der Lichtemission und
-detektion gesteigert und neue Funk -
tionalitäten ermöglicht werden.
Literatur
[1] M. Engel et al., Nat Commun 2012, 3, 906.
[2] H. E. Boehm et al., Z. Naturforsch. 1961,
17b, 150.
[3] K. Novoselov et al., Science 2004, 306, 666.
Michael Engel, Ralph Krupke,
Karlsruher Institut für Technologie
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 269
ASTROPHYSI K
|
Weiße Zwerge senden
Gravitationswellen aus
Ein amerikanisch-spanisches Astronomenteam hat ein Doppelstern -
system entdeckt, in dem sich zwei Weiße Zwerge in geringem Abstand
umkreisen. Ihre Umlaufperiode verringert sich stetig. Ursache ist der
Energieverlust durch abgestrahlte Gravitationswellen.
Das etwa 3200 Lichtjahre entfernte
Doppelsystem mit der Bezeichnung
J0651 besteht aus zwei Weißen Zwer -
gen mit jeweils 0,26 und 0,5 Sonnen-
massen. Da sich die beiden Körper
bei jedem Umlauf gegenseitig bede-
cken, kommt es zu einer periodi-
schen Helligkeitsvariation, aus der
sich die Umlaufdauer zu 12,75 Minu -
ten ermitteln lässt. Abbildung 1 zeigt,
wie sich der tatsächlich gemessene
Bedeckungszeitpunkt mit jedem Um -
lauf gegenüber einer konstant ange-
nommenen Umlaufdauer verringerte.
Die gemessene Abnahme der Umlauf-
dauer beträgt 0,31 ± 0,09 ms/a, wäh -
rend die Allgemeine Relativitätstheo-
rie einen Wert von 0,26 ± 0,05 ms/a
vorhersagt.
In einer Gruppe von rund zwei
Dutzend engen Doppelsystemen,
nach denen in den vergangenen
zwei Jahren gesucht wurde, bildet
J0651 das engste Paar. Es eignet sich
daher am besten, um Vorhersagen
der Allgemeinen Relativitätstheorie
zu testen. Wenn sich die beiden
Körper zukünftig weiter einander
annähern und sich die Umlaufdauer
weiter verringert, werden Gezeiten-
effekte eintreten und die Körper
verformen. Dieser Effekt gilt als
größte Schwierigkeit bei der relati-
vistischen Berechnung des Systems.
Voraussichtlich werden die beiden
Weißen Zwerge in etwa zwei Millio-
nen Jahren miteinander verschmel-
zen.
Al
2
O
3
Si
3
N
4
Ag
Ag
V
L
V
g
1131K
1020K
908K
790K
680K
I
n
t
e
n
s
i
t
ä
t

b
e
l
.

E
i
n
h
.
10
0
10
1
10
2
10
3
10
4
10
5
Wellenlänge / nm
875 925 975
N
o
r
m
.

t
r
a
n
s
m
i
t
i
e
r
t
e

I
n
t
e
n
s
i
t
ä
t
Wellenlänge / nm
P
h
o
t
o
s
t
r
o
m

/

n
A
0
0,5
1,0
0
10
20
550 600 650
Graphen
Photostrommessung
optische Anregung
emittiertes/transmittiertes
Licht
a
b c
ABB. 2 EMI SSI ON UND ABSORPTI ON
a) Experimenteller Aufbau zur Messung
von Transmission, Emission und Detek-
tion des Lichts aus dem integrierten
Graphentransistor innerhalb der
Mikrokavität. Der Querschnitt durch
die Probe zeigt die verschiedenen
Schichten und Materialien. b) Elektrisch
generierte, durch die Mikrokavität
erzwungene, thermische Lichtemission
von Graphen (Blautöne). Die Lichtemis-
sion aus der Mikrokavität ist spektral
stark eingeschnürt. Zum Vergleich ist
hinterlegt die thermische Lichtemission
von Graphen ohne Mikrokavität.
c) Generierter Photostrom (rote Punkte)
überlagert mit der Intensität des
transmittierten Lichts durch die Mikro-
kavität (schwarze Linie) als Funktion
der Wellenlänge.
0 100 200 400 300
Zeit/Tage
0
–2
–4
–6
–8
–10
Z
e
i
t
v
e
r
s
c
h
i
e
b
u
n
g
/
s
ABB. 1 UMLAUFPERI ODE
Kumulierte Abnahme der Bedeckungszeitpunkte gegenüber
einer konstant angenommenen Umlaufdauer. Rot, durchge-
zogen: Best-Fit der Beobachtungsergebnisse, schwarz, gestri-
chelt: Vorhersage der Allgemeinen Relativitätstheorie
(nach [1]).
TREFFPUNKT FORSCHUNG
RÖNTGENANALYSE
|
Van Goghs Gelb
Vincent van Gogh ist berühmt für das Verwenden leuchtend gelber
Farben. Doch auf seinem Bild „Blumen in blauer Vase“ von 1887 er-
scheinen einige der Blumen in einem matten Orange-Grau. Untersu-
chungen an der DESY-Röntgenquelle PETRA III und der Europäischen
Synchrotronquelle ESRF in Grenoble haben nun enthüllt, dass ein che-
mischer Zer setzungsprozess des Farbpigments Cadmiumgelb in Kontakt
mit einem falschen Firnis dafür verantwortlich ist.
voll ist, ist aber nicht geklärt. In den
nächsten vier Jahren will die Gruppe
um Koen Janssens von der Univer-
sität Antwerpen untersuchen, wie
sich die Umgebungsbedingungen in
Museen sowie die Luftverschmut-
zung auf Cadmiumgelb und andere
sulfidhaltige Pigmente auswirken.
Literatur
G. v. d. Snickt et al., Analyt. Chem. Online,
30.8. 2012; DOI: 10.1021/ac3015627;
pubs.acs.org/doi/abs/10.1021%2Fac3015627
270 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Van Gogh selbst versah seine Werke
nicht mit einem Firnis, dieser wurde
auf dem untersuchten Gemälde
nachträglich aufgetragen – wie auf
eine Reihe anderer Van-Gogh-Gemäl-
de in der ersten Hälfte des 20. Jahr -
hunderts. Die Forscher untersuchten
mit Röntgenbeugung die chemische
Zusammensetzung und innere Struk-
tur an der Farb-Firnis-Grenze. Dabei
zeigte sich, dass die Sulfat-Ionen aus
dem Cadmiumgelb (Cadmiumsulfid,
CdS) mit Blei aus dem Firnis das
opake Bleivitriol (PbSO
4
) gebildet
hatten. An der Grenzschicht zwischen
Farbe und Firnis entstand zudem mit
Abbauprodukten aus dem Firnis eine
Schicht aus Cadmiumoxalat (CdC
2
O
4
).
Beide Subsanzen sind für die un-
durchsichtige, orange-graue Kruste
auf den cadmiumgelben Bereichen
des Gemäldes verantwortlich.
Diese neuen Erkenntnisse könn-
ten für zukünftige Konservierungs-
techniken bedeutend sein. Ob eine
Entfernung des Firnis auf dem unter-
suchten Gemälde möglich und sinn -
PHYSI CS NEWS
|
Element 113 haben Physiker der RIKEN Radioiso-
tope Beam Factory in Japan erzeugt. Dies gelang
ihnen, indem sie ein Target aus
209
Bi mit
70
Zn-Ionen
beschossen. Das Element
278
113 zeigte sich in sechs
Alpha-Zerfallsketten. Allerdings beanspruchen das Joint
Institute for Nuclear Research in Dubna und das ameri-
kanische Lawrence Livermore National Laboratory die
Erstproduktion dieses Isotops für sich, das sie schon
2003/2004 in anderen Zerfallsketten identifiziert haben
wollen (K. Morita et al., J. Phys. Soc. Jpn., 2012, 81,
103201; http://jpsj.ipap.jp/link?JPSJ/81/103201).
+++
475 Wassermoleküle bilden einen Eiskristall, erste
Ansätze davon sind bereits ab 275 Molekülen zu
erkennen. Dies fand eine Kooperation mit Physikern
aus Göttingen und Prag heraus. Zuvor galten 1000
Moleküle als Minimum für einen vollständigen Kristall
(C. C. Pradzynski et al., Science 2012, 3337, 1529).
+++
Die Heisenbergsche Unschärferelation gilt in
ihrer klassischen Form nicht in allen Fällen. Eine
abgewandelte Form ist zum Beispiel nötig, wenn die
Kopplung zwischen Messgerät und Quantensystem so
gering, dass dieses kaum beeinflusst wird. Hier ist die
Störung des Systems geringer als üblicherweise ange-
nommen, wie eine Forschergruppe der Universität
Toronto feststellte (L. A. Rozema et al., Phys. Rev. Lett.
2012, 109, 100404).
+++
Einen neuen Entfernungsrekord über 143 km für
die Quantenteleportation von Photonen haben
Physiker vom Institut für Quantenoptik und
Quanteninformation der Universität Wien und
vom Max-Planck-Institut für Quantenoptik in
Garching aufgestellt. Der Transport erfolgte durch
die Luft von der Insel la Palma nach Teneriffa, wo für
den Empfang ein Teleskop der europäischen Weltraum -
agentur ESA zur Verfügung stand (X. S. Ma et al., Nature
online, 5.9.2012, DOI: 10.1038/nature11472).
+++
Ein Verfahren zur räumlichen Strukturermittlung
von frei schwebenden Molekülen haben Physiker
der University of Nebraska-Lincoln entwickelt.
Dafür bestrahlten sie die Moleküle mit linear polarisier-
ten Lichtpulsen, so dass sie sich ausrichteten. Anschlie-
ßend wurden die Moleküle mit Elektronen bestrahlt
und aus deren Beugung an den Molekülen die Struktur
abgeleitet (C. J. Hensley et al., Phys. Rev. Lett. 2012,
109, 133202).
+++
Die magnetische (spinaufgelöste) Struktur von
Einzelmolekülorbitalen haben Physiker der Univer-
sität Hamburg mit der magnetischen Spitze eines
Rastertunnelmikroskops messen können (J. Schwöbel
et al., Nat. Commun. 2012, 3, 953).
Abb. 1 Die linke Seite zeigt den Ort der Probenentnahme, rechts oben eine Mikro-
skopaufnahme der Probe, darunter die Verteilung der vier wichtigsten untersuch-
ten Verbindungen (Bild: K. Janssens, Univ. Antwerpen).
Abb. 2 In Plexiglas eingeschlossene Mi -
kroprobe aus einem Gemälde mit histo -
rischer Farbtube (Foto: I. Montero, ESRF).
TREFFPUNKT FORSCHUNG
DER PHYSI K-NOBELPREI S VOR HUNDERT J AHREN
|
Sicherheit für die Schifffahrt
Der Physiknobelpreis des Jahres 1912 ging an den schwedischen Inge-
nieur und Erfinder Nils Gustaf Dalén (1869–1937) für die „Erfindung
selbstwirkender Regulatoren“, die in Verbindung mit Gasakkumulato-
ren in Leuchttürmen und Leuchtbojen zum Einsatz kamen.
bei auf Leuchttürme und Leuchtbojen
angewiesen. Eine automatische Steue -
rung dieser Orientierungshilfen wur -
de zur vordringlichen Aufgabe, nicht
zuletzt in einem Land wie Schweden
mit seiner langen Küstenlinie und
ausgedehnten Phasen der Dunkelheit.
Eine Reihe technischer Herausfor-
derungen galt es zu meistern: die
Entwicklung einer Lichtquelle, die
hell, langlebig und als Blinklicht
geeignet war. Acetylen war ein Gas,
das ein ausreichend helles Licht zu
erzeugen vermochte, ist allerdings
äußerst gefährlich in der Handha-
bung. Gustaf Dalén gelang es nun,
eine poröse Masse zu entwickeln, die
es ermöglichte, das Acetylen problem-
los zu transportieren. In der Folge
entwickelte er einen Mechanismus,
der es erlaubte, das helle Licht nach
wenigen Zehntelsekunden zu unter-
brechen. Damit konnte man einem
Liter Acetylen mehrere Tausend kurze
und zugleich sehr helle Lichtblitze
entlocken. Dies war ein gewaltiger
Fortschritt gegenüber den damals
gängigen Verfahren mit Petroleum-
lampen, deren Leuchtperiode auf-
grund ihrer geringen Lichtstärke
einige Sekunden dauerte. Darüber
hinaus führte das neue Verfahren zu
einer Energieeinsparung von mehr als
90 % und war wesentlich kostengüns -
tiger und wartungsfreundlicher als
die bisherigen Lampen.
Eine weitere Frucht seiner uner-
müdlichen Tüftelei war das sogenann-
te Sonnenventil. Es bestand aus vier
Metallstäbchen innerhalb eines
Glasrohres. Das unterste Stäbchen
war geschwärzt, die anderen vergol-
det und poliert. Am Tag absorbierte
der geschwärzte Teil das Sonnenlicht,
so dass sich der Stab erwärmte und
ausdehnte, wodurch das Gasventil
geschlossen wurde. Bei Einbruch der
Dunkelheit (aber auch bei Nebel,
Schlechtwetter usw.) zog sich das
schwarze Stäbchen wieder auf sein
ursprüngliches Maß zusammen, was
zum Öffnen des Ventils führte und
damit das Blinklicht einschaltete.
Im Jahre 1912 wurde das erste
„Dalén-Blinklicht“ in der Hafenein-
fahrt von Stockholm installiert. Bis zu
seinem Abbau im Jahre 1980 musste
es kein einziges Mal repariert wer-
den. Ein Höhepunkt war der Auftrag,
den Panama-Kanal mit Lichtern
auszustatten.
Auch wenn der Name Dalén
heute nicht die Galerie der tiefschür-
fenden Naturforscher ziert, für seine
Zeitgenossen konnte sein Erfinder-
geist nicht nutzbringender sein. Und
wer weiß, vielleicht sollte uns der
schwedische Ingenieur daran erin-
nern, dass der Segen für die Mensch-
heit nicht nur von hochtrabenden
Theorien ausgeht, sondern auch (oder
vor allem) von jenen Dingen, die
unser Leben unmittelbar betreffen.
Dalén entstammte einer Bauernfa-
milie, doch sein technisches Talent
zeigte sich schon in der Jugend, so
dass ein Studium an der Technischen
Hochschule in Göteborg und am Poly -
technikum Zürich für ihn die richtige
Wahl war. 1906 wurde er Chefingeni-
eur einer schwedischen Firma.
Den Nobelpreis konnte er übri-
gens nicht selbst in Empfang nehmen.
Anfang 1912 hatte er bei einem
schweren Unfall sein Augenlicht
verloren, weshalb ihn sein Bruder bei
der Preiszeremonie vertreten musste.
Manfred Jacobi, Brüssel
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 271
Bis 1912 war der Physik-Nobelpreis
stets an Personen gegangen, die ihren
unverkennbaren Eindruck in der Wis -
senschaft hinterlassen hatten. Namen
wie Wilhelm Conrad Röntgen oder
Marie Curie findet man in jedem
Lehr buch der Physik. Gustaf Dalén
hingegen ist, zumindest aus heutiger
Perspektive, weitgehend unbekannt.
Er markiert gewissermaßen eine
Zäsur. Warum ist das so? Wurden
andere, „würdigere“ Kandidaten bei
der Preis vergabe übergangen? War es
Zeit, dass der von einem Schweden
gestiftete Preis erstmals an einen
Schweden gehen sollte?
Wenn man sich die Kriterien des
Nobelpreises ansieht, dann relativiert
sich das vielleicht etwas harsche
Urteil der Nachwelt. Darin heißt es
nämlich, „die Preisbelohnung [soll] an
diejenigen verteilt werden, die im
abgelaufenen Jahr der Menschheit den
größten Nutzen erwiesen haben.“
Und das hat Daléns Erfindung allemal.
Das Problem, das es zu lösen galt,
bestand darin, die Navigation auf See
sicherer zu machen. Zur damaligen
Zeit war das sichere Steuern von
Schiffen noch fast ausschließlich von
den Sichtverhältnissen abhängig. Wäh -
rend der Nachtstunden war man da -
Nils Gustaf Dalén
(30.11.1869 bis
9.12.1937) im
Jahre 1926.
Abb. 1 Das erste Dalén-Feuer vor
Stockholm (Foto: H. Ellgard).
perimentieren [4]. Wineland hatte darüber hinaus 1975 die
sogenannte Laser-Seitenbandkühlung [5] vorgeschlagen, die
sich heute als Standardmethode zur Präparation von gespei-
cherten Atomen und Ionen etabliert hat. Laser-Lichtfelder
spielen nicht nur für die Kühlung der gespeicherten Teil-
chen eine große Rolle, sie sind auch das wichtigste Werkzeug,
um Quantenzustände der Ionen zu steuern und auszulesen.
David Wineland hat in 30 Jahren am National Institute
of Standards and Technology (NIST) in Boulder, USA, die
Kunst des Experimentierens so weit vorangetrieben, dass so-
wohl die inneren Zustände der gespeicherten Ionen als
auch ihr Bewegungszustand nahezu perfekt kontrolliert
werden können. Eine zentrale Rolle spielen in seinen Ar-
beiten Überlagerungen von Quantenzuständen, die in der
klassischen Physik nicht vorkommen. Die Physik mit
Ionenfallen im Stil von Wineland ist auch Vorreiter für An-
wendungen, zum Beispiel in Präzisionsuhren. Ein isoliertes
Teilchen im freien Raum war bereits der Traum des Spek-
troskopikers Dehmelt, mit den gespeicherten Ionen von Da-
vid Wineland ist er wahr geworden. „Isoliert“ und „frei“ be-
deutet: frei von allen Störungen, das gespeicherte Teilchen
führt nur seine ihm eigenen Schwingungen aus. Mit den
fast zerstörungsfreien Methoden, Ionen in der Quantenwelt
zu kontrollieren, bieten sich solche Oszillatoren als perfek-
te Uhren an. Genau dieselben Uhren aus einzelnen Atomen
könnten auch die Bausteine zukünftiger Quantencomputer
bilden oder bei der Beantwortung der Frage helfen, ob un-
sere Naturkonstanten wirklich konstant sind.
Die Kontrolle atomarer Quantensysteme geschieht na-
hezu immer mit Licht. Serge Haroche, Professor am Collège
de France und an der École Normale Supérieure in Paris, ist
es komplementär zu David Wineland gelungen, die Kon-
trolle auch von Lichtteilchen soweit zu steigern, dass Ex-
perimente mit einem oder wenigen Photonen gelingen. Die
zusammen mit seinem engen Kollegen Jean-Michel Raimond
verfasste Schrift „Exploring the Quantum“ [6] legt beredtes
Zeugnis von der Faszination und Intensität ab, mit der
Haroche und seine Mitarbeiter sich diesem Thema gewid-
met haben.
Das Herz der Pariser Experimente ist ein Mikrowellen-
Resonator, der Lichtenergie 0,13 s lang speichern kann (Phy-
sik in unserer Zeit 2009, 40(6), 303) (Abbildung 1). Wird der
Resonator auf die Frequenz eines angeregten Atoms abge-
D
ie Bewegung mikroskopischer Systeme wird mit der
Quantenmechanik beschrieben. Diese stellt aber die
Vorstellungskraft auch der Physiker bis heute auf eine har-
te Probe: So sind beispielsweise Überlagerungszustände
dem intuitiven Denken fremd: Ein quantenphysikalisches
Teilchen wie ein Atom kann sich gleichzeitig in zwei Zu-
ständen befinden. Selbst Erwin Schrödinger, der die Quan-
tenmechanik entscheidend mitgeformt hat, hat sich mit Vor-
stellungen über mikroskopische Teilchen nicht leicht ge-
tan, obwohl er mit großer Gedankenschärfe schon 1935 die
konzeptionellen Besonderheiten der Quantenmechanik her-
vorgehoben hat [1]. Er hielt die Quantenmechanik sicher
für eine äußerst erfolgreiche Theorie, bezweifelte aber un-
ter anderem, dass man etwa mit einzelnen Atomen oder
Ionen, den Modellobjekten der Quantenmechanik, experi-
mentieren könnte.
Der Anfang der 1980er Jahre markiert eine Zeitenwen-
de im Umgang mit Quantensystemen: Bis dahin waren
Atome interessante, aber immer auch etwas abstrakte Ob-
jekte. Mit spektroskopischen Beobachtungen wurde an ato-
maren Gasen in erster Linie deren Struktur studiert. Mit ge-
nau denjenigen Speichermethoden, für die Wolfgang Paul
und Hans Dehmelt schon 1989 den Nobelpreis bekommen
haben, gelang es um 1980 erst Peter Toschek [2] und sei-
nen Mitarbeitern in Heidelberg, die Fluoreszenz eines ein-
zelnen Barium-Ions zu beobachten. Kurze Zeit später pho-
tographierten David Wineland und Wayne Itano ein einzel-
nes Magnesium-Atom [3]. Ein riesengroßer Schritt zur
Kontrolle einzelner, geradezu perfekter Quantensysteme
war getan: Atome waren nicht mehr nur Modellsysteme ei-
ner eleganten theoretischen Beschreibung von Materie, son-
dern im Labor beobachtbare und beherrschbare Objekte
geworden! Viele Gedankenexperimente, die man für un-
durchführbar hielt, wurden damit experimentell zugänglich.
Dehmelt und Wineland hatten schon 1973 in einem Auf-
satz die Möglichkeiten erörtert, mit einzelnen Ionen zu ex-
Physik-Nobelpreis 2012
Von der Paul-Falle zu
Schrödingers Katze
DIETER MESCHEDE
Den diesjährigen Physik-Nobelpreis erhielten zu gleichen
Teilen Serge Haroche und David Wineland für ihre bahn -
brechenden experimentellen Methoden, die es ermöglichen,
individuelle Quantensysteme zu messen und zu manipulieren.
272
|
Phys. Unserer Zeit
|
6/2012 (43) © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Online-Ausgabe unter:
wileyonlinelibrary.com
Abb. 1 Ein
solcher Resonator
mit supraleiten-
der Niob-Be-
schichtung kann
Photonen im
Mikrowellen -
bereich länger
als eine Zehntel-
sekunde lang
speichern (Foto:
CNRS, M. Brune).
QUANT E NOP T I K
|
PHYSI K-NOBELPREI S 2012
stimmt, so kann dieses seine Energie (ein Mikrowellenpho-
ton) an das Resonatorfeld abgeben und anschließend wie-
der absorbieren: Die Energie pendelt zwischen Atom und
Resonatorfeld hin und her. Dazu wird ein Strahl von sehr
hoch angeregten Atomen (Rydberg-Atomen) verwendet, der
das Resonatorfeld durchläuft. Bei geschickter Wahl der Ex-
perimentierbedingungen kann man die Atome veranlassen,
ihre Anregungsenergie im Resonatorfeld zu deponieren.
Verstimmt man ein wenig die Frequenz von Atom und Re-
sonator, dann findet kein Energieaustausch mehr statt. Das
Resonatorfeld hinterlässt aber einen Phasenabdruck im
Atom, der sich mit einer Ramsey-Anordnung messen lässt.
Bemerkenswerterweise wird das im Resonator gespeicher-
te Photonenfeld dabei nicht zerstört!
Bekanntlich spielt der Messprozess – und jede irgend-
wie geartete Beobachtung entspricht einer Messung – eine
große Rolle bei Quantensystemen. Eine Messung verursacht
eine Projektion des Systems auf den gemessenen Zustand.
Eine Messung an einer Überlagerung von zwei Zuständen
ergibt zufällig mal das eine, mal das andere Resultat; der
Quantencharakter (die Überlagerung) ist dann zerstört.
Schrödinger hat diese Irritation unserer Vorstellungs-
welt mit der Metapher einer Katze beantwortet, die durch
einen Mechanismus zu einem zufälligen Zeitpunkt (wie
beim radioaktiven Zerfall) in einen Überlagerungszustand
von tot und lebendig (nicht oder!) gebracht wird.
Nun ist eine Katze ein ausgesprochen makroskopisches
Lebewesen, im Gegensatz zu den Systemen, mit denen
Quantenoptiker experimentieren. Serge Haroche und seine
Mitarbeiter haben deshalb ein Experiment erdacht, in dem
sie in ihrem Resonator einen Feldzustand erzeugen, der aus
mehreren Photonen besteht, aber auch einem makroskopi-
schen Objekt ähnelt: Je mehr Photonen, desto makrosko-
pischer. Das Feld kann man mit einem rotierenden Uhrzei-
ger vergleichen, der durch ein (wie oben leicht von der Re-
sonanz verstimmtes) Atom geringfügig verzögert oder
beschleunigt wird. Ist auch das Atom in einem Überlage-
rungszustand, so überträgt es seine Überlagerung auf die
Verzögerung des Feldes – das quasi-makroskopische Objekt
zeigt gleichzeitig zwei verschiedene Verzögerungen. Wie
kann man nun unterscheiden, ob sich das Objekt noch in
einer quantenmechanische Überlagerung befindet oder in
einem von zwei Zuständen, den wir nur noch nicht kennen?
Dazu kann man versuchen, aus dem Überlagerungszu-
stand den ursprünglichen Zustand durch gezielte Manipu-
lationen wieder herzustellen. Ist der Quantencharakter er-
halten, gelingt das ohne Schwierigkeiten, andernfalls hat die
Dekohärenz den Quantencharakter der Überlagerung be-
reits zerstört. Das Pariser Experiment hat bestätigt, dass die
Dekohärenzzeit umso kürzer ist – der Überlagerungszustand
umso schneller verschwindet – je mehr Photonen das Re-
sonatorfeld enthält, je „makroskopischer“ es ist.
Im Pariser Experiment und in den Arbeiten am NIST
sind die Rollen von Atomen und Lichtfeldern gewisserma-
ßen vertauscht: Dienen Atome bei Haroche dazu, den Quan-
tenzustand von Resonator-Lichtfeldern zu manipulieren und
auszulesen, sind es bei Wineland Lichtfelder, die die Bewe-
gung von gespeicherten Ionen genau steuern. Im Zentrum
ihrer Arbeiten steht die Beherrschung der Wechselwirkung
von einzelnen Atomen und Photonen in nahezu idealen
Quantensystemen. Es kommt darauf an, die Messmethoden
so zu gestalten, dass der fragile Quantencharakter dabei
nicht zerstört wird. Da werden Anwendungen auf die Dau-
er nicht ausbleiben.
Zu dem rastlosen Fortschritt der letzten Jahrzehnte in
der Quantenoptik haben viele Forscher in der ganzen Welt
wichtige Beiträge geleistet. Die Preisträger haben ihre he-
rausragenden Ergebnisse nicht nur ihrer enormen Einsicht
und Kreativität zu verdanken, sondern auch dem unbe-
dingten Willen, langfristig relevanten Fragestellungen mit
großer Konsequenz nachzugehen.
Stichworte
Physik-Nobelpreis 2012, David Wineland, Serge Haroche,
Ionenfalle, Mikrowellen-Resonator, Quantenzustände, quan-
tenmechanischer Messprozess, Schrödingers Katze.
Literatur
[1] E. Schrödinger, Naturwissenschaften 1935, 23, 52.
[2] W. Neuhauser et al., Phys. Rev. A 1980, 22, 1137.
[3] J. Wineland, W.M. Itano, Phys. Lett. A 1981, 82, 75.
[4] D.J. Wineland, P. Ekstrom, H. Dehmelt, Phys. Rev. Lett. 1973, 31, 1279.
[5] D.J. Wineland, H. Dehmelt, Bull. Am. Phys. Soc. 1975, 20, 637.
[6] S. Haroche, J.-M. Raimond, Exploring the Quantum, Oxford University
Press, Oxford 2006.
Der Autor
Dieter Meschede leitet im Institut für Angewandte Physik der Universität Bonn
eine Arbeitsgruppe, die sich unter anderem mit Resonator-Quantenelektro -
dynamik und Bose-Einstein-Kondensaten beschäftigt. Er hat lange Zeit mit
Serge Haroche zusammen gearbeitet.
Anschrift
Prof. Dr. Dieter Meschede, Institut für Angewandte Physik, Universität Bonn,
Wegelerstraße 8, D-53115 Bonn. Meschede@uni-bonn.de.
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43)
|
Phys. Unserer Zeit
|
273
DI E PREI STRÄGER
|
Serge Haroche wurde 1944 in Casablanca, Marokko, geboren
und ist französischer Staatsbürger. Er wuchs in Paris auf, wo
er, abgesehen von langjährigen Forschungsaufenthalten in
den USA, seine wissenschaftliche Karriere absolvierte. Seit
2001 arbeitet er am Collège de France und der École Normale
Supérieure in Paris. Er erhielt zahlreiche Auszeichnungen,
darunter 2010 den Herbert-Walther-Preis der Deutschen Phy -
sikalischen Gesellschaft und der Optical Society of America.
David J. Wineland wurde 1944 in Milwaukee, USA, geboren
und ist US-Amerikaner. Er promovierte an der Harvard-
Universität und forschte anschließend mit Hans Dehmelt an
der University of Washington. Seit 1975 ist er am National
Institute of Standards and Technology (NIST) in Boulder,
Colorado. Neben anderen Auszeichnungen erhielt er 2008
den Herbert-Walther-Preis der Deutschen Physikalischen
Gesellschaft und der Optical Society of America.
zu, so macht die baryonische Materie knapp 5 % und Dunk-
le Materie und Energie jeweils 25 % und 70 % aus.
Anfänglich kamen mehrere Kandidaten für die Dunkle
Materie in Frage. Hierzu zählen sehr lichtschwache Sterne,
Braune Zwerge, Schwarze Löcher oder nicht leuchtende
Staub- und Gaswolken. Sowohl Beobachtungen in vielen
Wellenlängenbereichen als auch theoretische Argumente
schließen diese jedoch aus. Derzeit favorisiert wird ein Kan-
didat aus der Teilchenphysik, dessen Eigenschaften sich
nach bisheriger Erkenntnis zumindest eingrenzen lassen.
Da die Dunkle-Materie-Teilchen gravitativ wechselwir-
ken, besitzen sie offenbar eine nicht verschwindende Ru-
hemasse. Sie sind elektrisch neutral, weil geladene Teilchen
mit elektromagnetischer Strahlung wechselwirken und da-
her längst entdeckt worden wären. Außerdem unterliegen
sie wohl nicht der starken Wechselwirkung, weil man sie an-
dernfalls bereits in Beschleunigerexperimenten entdeckt
hätte. Schließlich deuten Modelle, die die Frühzeit des Uni-
versums beschreiben, auf eine noch nicht entdeckte Art
von schwach wechselwirkenden Teilchen hin.
Zusammengefasst sind die aktuellen Kandidaten für
Dunkle Materie also schwach wechselwirkende Teilchen
mit Ruhemasse. Hierfür hat sich die englische Abkürzung
WIMP (Weakly Interacting Massive Particle) eingebürgert.
Aussichtsreiche Kandidaten für WIMPs liefert die Theorie
der Supersymmetrie, eine Erweiterung des Standardmodells
der Teilchenphysik. Sie postuliert unter anderem die Exis-
tenz von Teilchen mit genau den geforderten Eigenschaften
(Physik in unserer Zeit 2008, 39 (2), 78).
Experimentelle Nachweismethoden
Nachweisen lässt sich Dunkle Materie mit zwei prinzipiell
unterschiedlichen Methoden. Der indirekte Nachweis setzt
darauf, dass sich durch die Schwerkraft die Dunkle Materie
an bestimmten Orten im Universum ansammelt, etwa in den
Zentren von Galaxien. Falls an solchen Stellen die Teilchen
der Dunklen Materie untereinander wechselwirken, kann
man möglicherweise die Energie, die bei diesem Vorgang
frei wird, mit astronomischen Geräten auffangen (Physik in
unserer Zeit 2012, 43 (1), 18)). Beispielsweise sucht man im
Gammabereich nach Strahlung, die möglicherweise bei der
Paarvernichtung von WIMPs frei werden könnte.
Nachweis Dunkler Materie
Die Suche nach
dem Unsichtbaren
MICHAEL KIEFER
Normale baryonische Materie, aus der alle Sterne, Planeten
und auch wir Menschen bestehen, macht nur wenige Prozent
der insgesamt im Universum vorhandenen Materie aus. Ein
weitaus größerer Teil bleibt unsichtbar: die Dunkle Materie.
Mit mehreren Experimenten versuchen Forscher weltweit,
Teilchen der Dunklen Materie nachzuweisen. Einige von
ihnen, wie das Experiment CRESST, könnten sie schon gefun-
den haben.
274 Phys. Unserer Zeit 6/2012 (43) © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
DOI: 10.1002/ piuz.201201317
S
chon die Philosophen der Antike befassten sich mit den
grundlegenden Fragen nach dem ganz Kleinen und dem
ganz Großen: dem Aufbau der Materie und der Struktur des
Kosmos. Heute beschreiben wir mit dem Standardmodell
der Teilchenphysik die Materie in Form von insgesamt zwölf
Elementarteilchensorten. Die Wechselwirkung zwischen
diesen sogenannten Fermionen geschieht über vier andere
Teilchensorten, die Bosonen. Im Großen beschreibt die All-
gemeine Relativitätstheorie Raum und Zeit.
Astronomische Hinweise auf Dunkle Materie
Erste Hinweise, dass es neben den bis dato bekannten Ob-
jekten noch etwas anderes im Universum geben muss, fand
der Astronom Fritz Zwicky bereits in den 1930er Jahren. Als
er die Geschwindigkeiten von Galaxien in einem Gala-
xienhaufen bestimmte, stellte er fest, dass sie sich schneller
bewegten als in einem gravitativ gebundenen Haufen er-
wartet. Dies führte er auf die Gravitation von unsichtbarer
Materie zurück, für die er den Begriff Dunkle Materie ein-
führte.
Die Hinweise auf die Existenz dieser Dunklen Materie
häuften sich im Laufe der Zeit und blieben nicht auf Gala-
xienhaufen beschränkt. Beispielsweise bewegen sich Ster-
ne in Spiralgalaxien schneller um das Zentrum, als es die Ge-
samtmasse der Systeme erwarten lässt, und die Analyse von
Gravitationslinsen belegt die gravitative Wirkung von un-
sichtbarer Materie (Physik in unserer Zeit 2009, 40 (2), 74).
Alle Ergebnisse zeigen, dass es etwa fünfmal mehr Dunkle
als normale baryonische Materie im Universum gibt. Rech-
net man die Dunkle Energie als Materieform (E = mc
2
) hin-
Online-Ausgabe unter:
wileyonlinelibrary.com
sik, der Technischen Universität München, der University of
Oxford und der Universität Tübingen betrieben.
Das Experiment selbst befindet sich in einem der größ-
ten Untergrundlabore der Welt im Gran-Sasso-Bergmassiv,
Italien. Nach allen Seiten ist das Labor von mindestens
1400 m Fels umgeben, was den Myonenfluss der kosmi-
schen Strahlung um sechs Größenordnungen auf etwa ein
Myon pro Stunde und pro Quadratmeter reduziert.
Abgesehen von den verbleibenden Myonen sind radio-
aktive Spurenelemente im Fels die Hauptursache von Un-
tergrundstrahlung im Gran-Sasso-Labor. Neben Kalium-40
gehören diese großteils zu den natürlichen Zerfallsreihen
von Uran-238 und Thorium-232. Mehrere Schichten unter-
schiedlicher Materialien schirmen die Detektoren gegen die-
se Strahlung ab (siehe „Abschirmung des Experiments“,
S. 278). WIMPs werden wegen ihres geringen Wechselwir-
kungsquerschnitts von der Abschirmung praktisch nicht be-
helligt.
Obwohl diese Abschirmung das Experiment vor dem
Einfluss der Umgebung schützt, zählen die CRESST-Detek-
toren dennoch etwa alle hundert Sekunden ein Ereignis im
relevanten Energiebereich. Das Wort Ereignis bezeichnet
dabei generell jeden Vorgang, bei dem ein Teilchen Energie
im Detektor deponiert. Die verbleibende Zählrate stammt
CRE S S T AS T ROT E I L CHE NPHYS I K
Ein direkter Nachweis zielt darauf ab, die unmittelbare
Wechselwirkung von WIMPs mit einem Detektor nachzu-
weisen. Die Erfolgsaussichten dieses Ansatzes hängen dabei
von mehreren Fragen ab: Gibt es in der Umgebung der Er-
de überhaupt Dunkle Materie? Wie groß ist die Wahr-
scheinlichkeit, dass Dunkle Materie mit dem Detektor wech-
selwirkt? Kann sie eine nachweisbare Menge an Energie an
den Detektor übertragen? Diese Fragen lassen sich mit Hil-
fe einiger Abschätzungen näherungsweise beantworten.
Das Milchstraßensystem ist eine Spiralgalaxie. Die Ge-
schwindigkeitsverteilungen der Sterne legen nahe, dass die
Dunkle Materie in einer solchen Galaxie in Form einer an-
nähernd kugelförmigen Wolke verteilt ist. Die Daten des
europäischen Astrometriesatelliten Hipparcos beispiels-
weise deuten darauf hin, dass eine solche Wolke in unserer
Entfernung zum galaktischen Zentrum eine Dichte von
0,3 GeV/c²/cm³ hat [1]. Für schwach wechselwirkende Teil-
chen kann man von einer typischen Masse in der Größen-
ordnung von 10 bis 100 GeV/c² ausgehen, was in derselben
Skala wie die meisten Atomkerne liegt. Diese Annahme stützt
sich auf Überlegungen, wann sich die WIMPs im frühen Uni-
versum gebildet haben müssen. Da die WIMPs im Schwere-
feld der Milchstraße gebunden sein müssen, kann ihre Ge-
schwindigkeit höchstens in der Größenordnung von 100 km/s
liegen. Diese drei Größen zusammen ergeben einen WIMP-
Fluss in der Größenordnung von 10
5
Teilchen/cm²/s.
Nachdem es also auf der Erde wahrscheinlich WIMPs zu
entdecken gibt, stellt sich die Frage, mit welcher Zählrate
man sie detektieren könnte. Entscheidend dafür ist der
Wechselwirkungsquerschnitt, gewissermaßen die Wahr-
scheinlichkeit, mit der zwei Teilchen miteinander intera-
gieren. Das kann beispielsweise ein elastischer Stoß eines
WIMPs an einem Atomkern des Detektors sein. Die gravi-
tative Wechselwirkung ist in diesem Fall vernachlässigbar ge-
ring, aber auch der Wechselwirkungsquerschnitt der schwa-
chen Wechselwirkung ist für WIMPs so niedrig, dass man für
einen Detektor von 1 kg Masse mit etwa einem Stoßereig-
nis alle zehn Tage rechnet. Bei einem solchen Stoß überträgt
ein WIMP eine Energie von der Größenordnung 10 keV. Da-
mit ist ein Experiment, das auf direktem Wege nach Dunk-
ler Materie sucht, also sowohl mit einer niedrigen Zählrate
als auch mit einem sehr energiearmen Signal konfrontiert.
Erschwert wird der Nachweis des ohnehin schon ex-
trem schwachen WIMP-Signals durch Störeffekte, ausgelöst
etwa durch den Zerfall radioaktiver Isotope im Detektor-
material oder durch Myonen der kosmischen Strahlung. Die
Raten dieser insgesamt als Untergrund bezeichneten Strah-
lungsquellen sind so hoch, dass sie ein mögliches Signal völ-
lig überlagern würden.
Das Experiment CRESST
Derzeit laufen weltweit mehrere Experimente zum direkten
Nachweis von Dunkle-Materie-Teilchen (Tabelle 1). Unser
Experiment CRESST (Cryogenic Rare Event Search with Su-
perconducting Thermometers) wird von einer Kollaborati-
on von Wissenschaftlern des Max-Planck-Instituts für Phy-
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 275
Das Experimen-
talmodul CRESST
im Gran-Sasso-
Labor.
TAB. 1 DUNKLE-MATERI E-EXPERI MENTE
CDMS Ge fest Phononen, Ionisation Soudan Mine, USA
CoGeNT Ge fest Ionisation Soudan Mine, USA
CRESST CaWO
4
fest Phononen, Licht Gran Sasso, Italien
DAMA NaI fest Licht Gran Sasso, Italien
EDELWEISS Ge fest Phononen, Ionisation Modane, Frankreich
XENON Xe flüssig Ionisation, Licht Gran Sasso, Italien
Experiment Detektor Zustand Signal(e) Standort
von minimalen Verunreinigungen im Innersten des Ver-
suchsaufbaus, in unmittelbarer Nähe oder sogar innerhalb
der Detektoren. Die dort verwendeten Materialien werden
unter Reinraumbedingungen gehandhabt, ähnlich wie bei
der Produktion von Mikrochips. Die Detektoren sind aber
so empfindlich, dass sie selbst auf diese kleinen, aber un-
vermeidbaren Rückstände radioaktiver Isotope ansprechen.
Im Vergleich zu dieser Zählrate würde das erwartete
WIMP-Signal mit einer Rate von einem Ereignis alle zehn
Tage völlig untergehen. Da die Detektoren selbst von der
Verunreinigung betroffen sind, ist zudem ein weiteres Ab-
schirmen nicht möglich. Trotzdem ist die Lage nicht aus-
sichtslos, denn mit den von CRESST verwendeten Detekto-
ren ist es möglich, die unerwünschten Ereignisse von ei-
nem eventuell existierenden WIMP-Signal zu unterscheiden.
Die Hauptkomponenten der Detektoren sind Kalzium-
wolframat-Kristalle (CaWO
4
), die gewissermaßen die Sam-
melfläche für die Teilchen darstellen. Jeder Kristall ist ein
Zylinder von je vier Zentimetern Durchmesser und Höhe
und wiegt etwa 300 g (Titelbild des Heftes und Abbil-
dung 1). Insgesamt ist das Experiment für die Aufnahme von
bis zu 33 solcher Detektoren ausgelegt, zur Zeit der letzten
Datennahme waren 17 installiert.
Wenn ein Teilchen, egal welcher Art, im Kristall wech-
selwirkt, wird in einem Stoßprozess Energie übertragen. Ein
Großteil dieser übertragenen Energie regt dabei die Atome
des Kristallgitters zu Schwingungen an. Der verbleibende
Anteil der Energie wird in Licht umgewandelt (Szintillation),
ähnlich wie in der Beschichtung einer Leuchtstoffröhre.
Die Maßzahl für diesen Anteil wird als Lichtausbeute be-
zeichnet.
Die Lichtausbeute ist variabel. Sie hängt davon ab, wel-
ches Teilchen den Kristall trifft oder an welcher Kompo-
nente des Kristalls der Stoßprozess stattfand. Ein Kalzium-
wolframat-Kristall stellt vier verschiedene Stoßpartner zur
Verfügung: Die Kerne von Kalzium-, Wolfram- und Sauer-
stoffatomen sowie die Elektronen der Atomhüllen. Je mas-
sereicher der Stoßpartner ist, desto weniger Licht entsteht.
Welche Art Stoßpartner aber bei einem Ereignis getrof-
fen wird, hängt von der Art des einfallenden Teilchens ab.
Einfallende Gamma-Quanten und Beta-Teilchen wechsel-
wirken mit den Elektronen und produzieren das meiste
Licht. Ihre Lichtausbeute wird als 100 % definiert und dient
als Referenzwert für andere Teilchen. Im Vergleich dazu
wird im Falle von eindringenden Alpha-Teilchen nur etwa
ein Fünftel an Licht produziert. Stöße von Neutronen fin-
den hauptsächlich an Sauerstoffkernen statt, wobei die
Lichtausbeute nur etwa 10 % beträgt. Bei WIMPs hängt die
Lichtausbeute von ihrer Masse ab. Falls sie eine hohe Mas-
se haben, werden voraussichtlich Stoßprozesse an den
schweren Wolframkernen erfolgen, die mit etwa 4 % die ge-
ringste Lichtausbeute haben. Für leichtere WIMPs spielen
auch die leichteren Kalzium- (etwa 6 % Lichtausbeute) und
ebenfalls die Sauerstoffkerne eine Rolle.
Im Rückschluss ermöglicht also die Messung der Licht-
ausbeute eine Aussage über die Art des Teilchens, das ein
Detektorereignis ausgelöst hat. Misst man die Energie der
Gitterschwingungen, kennt man in guter Näherung die
Energie des Teilchens. Wie aber lassen sich Energien in der
Größenordnung von einigen 10 keV bei den Gitterschwin-
gungen und bis deutlich unterhalb von 1 keV im Falle des
Lichts präzise und für einzelne Teilchen bestimmen?
Abbildung 2 zeigt den Aufbau eines einzelnen Detek-
tormoduls. Nach einem Stoß erfüllen die Gitterschwingun-
gen innerhalb einer Zeit von etwa 100 µs den kompletten
Kristall. Am unteren Ende des Kristalls befindet sich ein Me-
tallfilm aus Wolfram, der die Schwingungen absorbiert und
sich dadurch erwärmt. Die Temperaturänderung, die durch
ein einzelnes Teilchen hervorgerufen wird, stellt mit einigen
Mikrokelvin eine Herausforderung an die Messtechnik dar.
Um derart geringe Temperaturänderungen zu messen,
nutzt man einen Trick: Der Film wird bei etwa 15 mK sta-
bilisiert, so dass er sich im Übergang in den supraleitenden
Zustand befindet. (siehe „Phasenübergangs-Thermometer“,
S. 279). Die erwartete Temperaturänderung von einigen Mi-
krokelvin bringt den Film teilweise in den normalleitenden
Zustand. Die hierbei auftretende Widerstandsänderung ist
so groß, dass sie messbar ist.
Das Auslesen des Lichtsignals erfolgt auf ähnlichem We-
ge. Ein reflektierendes Gehäuse hindert das Licht am Ver-
lassen des Moduls. Innerhalb des Moduls befindet sich ei-
ne Scheibe aus Saphir, die dank einer angepassten Be-
schichtung das blaue Licht der Kristalle gut absorbieren
kann. Die absorbierte Energie regt in der Scheibe wieder-
276 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Abb. 1 Um Verunreinigungen mit radioaktiven Spurenele-
menten zu vermeiden, werden die Detektoren im Reinraum
zusammengesetzt.
CRE S S T AS T ROT E I L CHE NPHYS I K
um Gitterschwingungen an, die durch einen zweiten Ther-
mometerfilm ausgelesen werden.
Aktuelle Ergebnisse und ihre Deutung
Die kürzlich ausgewerteten Daten umfassen eine Messpe-
riode von Mai 2009 bis April 2011. Nach einer Wartungs-
und Aufrüstphase wird das Experiment voraussichtlich ab
Ende 2012 wieder in Betrieb gehen. Über einen Zeitraum
von mehreren Monaten bis Jahren werden die Detektoren
dann Ereignisse registrieren, die auf ihren Ursprung und ein
mögliches WIMP-Signal hin untersucht werden.
Da die Detektoren sehr empfindlich sind, können elek-
trische Störungen oder auch Erschütterungen des Bodens,
wie sie durch Bauarbeiten oder Erdbeben verursacht wer-
den, die Qualität der Messdaten beeinträchtigen. Am An-
fang der Auswertung müssen daher die Daten von solchen
Zeiträumen bereinigt werden. Anschließend wird für jedes
einzelne Ereignis die Energie und die Lichtausbeute be-
stimmt.
Abbildung 3a zeigt die gemessene Lichtausbeute aller Er-
eignisse in Abhängigkeit von der Energie. Diese Daten wur-
den während einer Kalibrationsmessung mit Neutronen ge-
nommen. Mit ihrer Hilfe kann man für Neutronenereignis-
se (und damit für die Rückstöße von Sauerstoffkernen)
charakteristische Eigenschaften wie die Breite der Bänder
und damit die statistische Verteilung der Lichtausbeute
überprüfen. Dies ist ein wichtiger Parameter für die Da-
tenanalyse. Das obere Band mit einer Lichtausbeute von
100 % besteht aus Gamma- und Elektronenereignissen aus
der Untergrundstrahlung. Das untere Band mit 10 % Licht-
ausbeute stammt von den Neutronen aus der Kalibrations-
quelle.
Wie alle physikalischen Messwerte unterliegen die Ener-
gie und insbesondere auch die Lichtausbeute Schwankun-
gen. Diese definieren die Breite der Bänder. In den Dia-
grammen sind die Bereiche markiert, in denen sich 80 % der
Ereignisse der dazugehörigen Bänder befinden.
Vor der eigentlichen Datennahme wird die Kalibrati-
onsquelle entfernt. Abbildung 3b zeigt exemplarisch die
Messdaten eines einzelnen Detektormoduls. Verschiedene
Farben markieren die Bänder der unterschiedlichen Ereig-
nisklassen. Der Bereich, in dem Ereignisse von WIMPs ver-
mutet und deshalb in der Auswertung verwendet werden,
ist orange gekennzeichnet. Die Begrenzungen dieser Ak-
zeptanzregion stammen aus den folgenden Annahmen:
Aus kinematischen Gründen erwartet man WIMP-Sig-
nale nur im Energiebereich unter 40 keV, was die Region
nach rechts begrenzt. Bedingt durch die begrenzte Detek-
torauflösung werden alle Bänder zu niedrigen Energien hin
breiter. Im Diagramm überlappen die einzelnen Bänder zu-
sehends. Zu niedrigen Energien, also nach links hin, ist die
Grenze der Akzeptanzregion daher so gewählt, dass die sta-
tistische Erwartung über die gesamte Messdauer nur ein
einzelnes Elektronen- oder Gamma-Ereignis in der Akzep-
tanzregion beträgt. Unter der Voraussetzung, dass WIMPs
mit allen Atomkernen des Kristalls, nicht aber mit den Elek-
tronen wechselwirken, bilden die obere Grenze des Sauer-
stoff- und die untere Grenze des Wolframbandes die obere
und untere Grenze der Akzeptanzregion.
Nach diesen Vorgaben wird für jedes Detektormodul ei-
ne individuelle Akzeptanzregion bestimmt. Die folgende
Diskussion dreht sich nur noch um Ereignisse, die sich in
den Akzeptanzregionen befinden, und somit als WIMPs in
Frage kommen.
Für eine Suche nach Dunkler Materie lieferten acht Mo-
dule brauchbare Daten. Deren Akzeptanzregionen enthalten
zusammen 67 Ereignisse. Diese können durch verschiede-
ne Teilchen verursacht worden sein. Dann sind WIMPs ei-
ne, aber nicht die einzige Möglichkeit. Bevor also Aussagen
über mögliche WIMP-Ereignisse getroffen werden können,
muss man die Anzahl an anderen Ereignissen abschätzen.
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 277
Eintretendes Teilchen
Szintillationslicht
Sensor
Lichtabsorber
Reflektor
Kristall
Sensor
ABB. 2 DETEKTORMODUL
Ein in den Kristall eines CRESST-Moduls eintreffendes Teilchen erzeugt in einem
Stoßprozess Gitterschwingungen und Licht. Die Gitterschwingungen breiten sich im
Kristall aus und werden vom unteren Sensor registriert. Das Licht wird durch das
reflektierende Gehäuse im Modul gehalten, vom Lichtabsorber aufgenommen und
dem angeschlossenen Sensor aufgezeichnet.
Dabei kommen vier mögliche Ursachen in Frage:
• der erwähnte Überlapp von Elektronen- oder Gamma-
Ereignissen in die Akzeptanzregion,
• Ereignisse von Alpha-Teilchen, die sich ebenfalls durch
einen Überlapp der Bänder in der Akzeptanzregion fin-
den und
• Neutronen-Ereignisse, die sich in der Akzeptanzregion
vornehmlich durch Sauerstoffrückstöße äußern.
• Das in der Luft vorhandene Spurengas Radon hinter-
lässt radioaktive Verunreinigungen auf den Kristall-
oberflächen im Innern des Moduls. Eins der Zerfalls-
produkte dieser Verunreinigungen ist das relativ lang-
lebige Isotop Polonium-210. Bei dessen Zerfall können
die Tochterkerne in den Kristall eindringen und sich
ähnlich wie Kernrückstöße an Wolfram verhalten (Ab-
bildung 4).
Da die Akzeptanzregion so gewählt ist, dass maximal ein Er-
eignis aus dem Elektronen- und Gamma-Band in die Region
hineinfällt, lassen sich acht Ereignisse durch Elektronen oder
Gamma-Quanten erklären. Zur Abschätzung des Beitrags
der Alpha-Teilchen wird deren Rate in der in Abbildung 3
türkis eingezeichneten Referenzregion bestimmt und in die
Akzeptanzregion hinein extrapoliert. Dadurch kommt man
auf einen Beitrag von 9,2 Alpha-Ereignissen.
Bei der Abschätzung der Neutronenrate hilft die Tatsa-
che, dass mit einer gewissen Wahrscheinlichkeit die rele-
vanten Prozesse nicht nur ein einzelnes, sondern gleich
mehrere Neutronen erzeugen, die jeweils auch mehrfach
streuen und somit auch mehrere Detektormodule auslösen
können. Aus dem Verhältnis zwischen Einzel- und Mehr -
fachereignissen während der Neutronenkalibration einer-
seits und während der eigentlichen Messung andererseits
lässt sich so ein Wert von 11,4 für die Anzahl von Einzel-
neutronen abschätzen.
Ähnlich wie der Beitrag der Alpha-Zerfälle lässt sich die
Anzahl der durch Poloniumzerfall hervorgerufenen Ereig-
nisse aus einer Referenzregion heraus extrapolieren. Dabei
kommt man auf etwa 17 Ereignisse.
278 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
ABSCHI RMUNG
|
Die Felsschicht, die das Untergrund -
labor umgibt, reduziert den Fluss an
kosmischen Myonen drastisch. Die
verbleibenden Myonen können aber in
der Umgebung des Experiments Neu -
tronen freisetzen, die im Detektor ein
Signal auslösen. Zusätzlich ist das
Experiment natürlicher Radioaktivität
ausgesetzt, von der hauptsächlich die
Neutronen- und die Gammastrahlung
von Belang sind.
Gelangt ein Myon in die unmittel -
bare Nähe der Detektoren, löst es den
Vetozähler aus, der (in der Abbilung
dunkelblau) den inneren Teil des
Experiments umgibt. Ereignisse, bei
denen zeitnah der Vetozähler ausge-
löst hat, werden von der Analyse
ausgenommen.
Zur Abschirmung gegen Neutronen
von außerhalb dient eine 45 cm dicke
Schicht aus insgesamt 10 t des Kunst-
stoffs Polyethylen (gelb). Die Abschir-
mung gegen die Gammastrahlung
besteht aus zwei Lagen: einer äußeren,
20 cm dicken und 24 t schweren Blei -
schicht (grau). Da dieses Blei selbst
geringe Spuren radioaktiver Verunreini-
gungen aufweist, schließt sich eine
14 cm dicke innere Schicht von 10 t
hochreinem Kupfer an. Diese orange
eingezeichnete Schicht schirmt die
innen liegenden Detektoren (hellblau)
gegen die Strahlung des Bleis ab.
Ähnlich wie bei der Herstellung von
Mikrochips werden die Detektoren
unter Reinraumbedingungen produ-
ziert und eingebaut. Dieses Verfahren
verhindert weitestgehend die Konta-
mination der Detektoren mit radio -
aktiven Materialien während der
Produktion.
0 50 100 150 200 250 300
Energie/keV
0
50
100
L
i
c
h
t
a
u
s
b
e
u
t
e
/
%
ABB. 3 MESSDATEN
a) Messdaten während der Kalibrationsmessung mit Neutro-
nen. Das obere Band wurde durch Gamma-Absorptionen
verursacht, das untere durch Neutronen. b) In den Messdaten
eines einzelnen Detektormoduls dominiert während der
nominellen Messphase das Gamma- und Elektronenband mit
einer Lichtausbeute um die 100 %. Weiter unten die Bänder von
Alpha-Teilchen (gelb, türkis), Sauerstoff- (purpur) und Wolf-
ram-Kernrückstößen (grau). Im orange markierten Bereich
auftretende Punkte kommen als WIMP-Ereignisse in Frage.
Energie/keV
0
50
100
L
i
c
h
t
a
u
s
b
e
u
t
e
/
%
α
O
W
0 20 40 60 80 100 120 140
a)
b)
CRE S S T AS T ROT E I L CHE NPHYS I K
Dunkle Materie gefunden?
Von den insgesamt 67 Ereignissen in der Akzeptanzregion
lassen sich unter diesen Annahmen also 46 durch bereits be-
kannte Ursachen erklären. Bleiben also 21 Ereignisse, deren
Ursprung nicht auf die oben genannten Mechanismen zu-
rückzuführen ist.
Die in [2] vorgenommene Auswertung geht über die
hier angedeutete Argumentation hinaus: Unter Berücksich-
tigung sowohl der Lichtausbeute als auch der Energie wird
ein Modell an die gemessenen Daten gefittet. Das Modell be-
inhaltet neben den oben genannten Untergründen auch
WIMPs mit den freien Parametern Masse und Wechselwir-
kungsquerschnitt. Das Ergebnis dieses Fits ermöglicht fol-
gende grundlegende Aussagen:
• Die von den Modellannahmen vorausgesagten Unter-
gründe reichen nicht aus, um die Anzahl an Ereignissen
zu erklären.
• Dieser Überschuss kann im Prinzip eine zufällige Ab-
weichung von dem statistisch erwarteten Wert sein. Je-
doch ist die Wahrscheinlichkeit für eine derart hohe Ab-
weichung mit weniger als 1 in 100 000 sehr gering.
• Neben einem nicht berücksichtigten oder einem zu
schwach abgeschätzten Untergrund kommen WIMPs als
mögliche Erklärung für den Überschuss in Frage. Diese
hätten eine Masse in der Größenordnung von 10 GeV
und einen Wechselwirkungsquerschnitt in der Größen-
ordnung von 10
–6
pb. Protonen mit vergleichbarer Ener-
gie besitzen einen um 16 Größenordnungen größeren
Wechselwirkungsquerschnitt.
Abbildung 5 zeigt den Parameterraum für WIMPs in punkto
Masse und Wechselwirkungsquerschnitt. Der blau markier-
te Bereich deckt die Werte ab, die anhand der vorliegenden
Daten von CRESST am plausibelsten sind. Neben CRESST
hat auch das CoGeNT-Experiment Ereignisse gefunden, die
mit einem Untergrundsignal nicht vereinbar sind. Die laut
CoGeNT plausiblen Werte für WIMPs [3] sind als purpur-
ner Bereich markiert. Die DAMA-Kollaboration (Orange) be-
ansprucht seit 2003 für sich, Dunkle Materie in Form von
WIMPs gefunden zu haben, deren Fluss sogar mit den Jah-
reszeiten variiert [4].
Neben diesen Experimenten, die Hinweise auf WIMPs
veröffentlicht haben, gibt es auch eine Reihe von Experi-
menten wie CDMS [5], EDELWEISS [6] und XENON [7], die
bisher keine ihrer Ereignisse als WIMP-Signal deuten. Je klei-
ner die zu messende Energie und der Wechselwirkungs-
querschnitt sind, desto höher sind die Ansprüche an die
Empfindlichkeit der Messgeräte. Dementsprechend schlie-
ßen diese für den von ihnen abgesuchten Parameterbereich
oberhalb der entsprechend markierten Kurven die Existenz
von WIMPs aus.
Wie in Abbildung 5 zu erkennen ist, liegen die WIMP-
Parameter der drei Experimente in unterschiedlichen Re-
gionen. Vor allem aber befinden sich die von CRESST,
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 279
PHASENÜBERGANGS-THERMOMETER
|
Um Temperaturänderungen von
einigen Millionstel Kelvin messen zu
können, arbeitet ein CRESST-Detektor
mit einem Phasenübergangs-Thermo-
meter. Es beruht auf einer drastischen
Änderung des elektrischen Wider-
stands in dem Temperaturbereich, in
dem der Phasenübergang von der
Supra- zur Normalleitung geschieht
(Abbildung). Bringt man einen Supra-
leiter genau auf diese Temperatur, so
reicht bereits eine Temperaturände-
rung ΔT von einigen Mikrokelvin, um
eine messbare Änderung ΔR des
Widerstands hervorzurufen. Der
Energieeintrag eines Teilchens in den
Detektor macht sich als Temperatur-
puls bemerkbar, der von der Elektronik
ausgelesen und für die Analyse auf -
gezeichnet wird. Bei CRESST verwen-
den wir Wolfram bei einer Temperatur
von einigen Millikelvin.
Temperatur
W
i
d
e
r
s
t
a
n
d
Supraleitung
Normalleitung
Δ T
Δ R
Gehäuse
Kristall
ABB. 4 POLONI UMZERFALL
Radon-222 kann sich auf Oberflächen absetzen, wo es nach
mehreren Zerfällen in Polonium-210 übergeht. Tritt bei
dessen Zerfall das Alpha-Teilchen in den Kristall ein, wird es
einfach als Alpha-Ereignis registriert (oben). Es kann aber
auch vorkommen, dass der Tochterkern Blei-206 in den
Kristall eindringt und das Alpha-Teilchen austritt (unten). Ein
solches Ereignis ist von einem Wolfram-Kernrückstoß fak-
tisch nicht zu unterscheiden. Ein szintillierendes Detektorge-
häuse ermöglicht es aber, über das dort vom Alpha-Teilchen
erzeugte Licht einen solchen Prozess zu erkennen und als
WIMP auszuschließen.
CoGeNT und DAMA gefundenen WIMP-Regionen teilweise
in Bereichen, die andere Experimente ausgeschlossen ha-
ben. Über die Ursache für diesen Widerspruch wird derzeit
heftig diskutiert. Sie könnte an den unterschiedlichen He-
rangehensweisen der einzelnen Experimente liegen. Bei
den Detektormaterialien kommen statt Kalziumwolframat
je nach Experiment Germanium, Natriumjodid oder flüssi-
ges Xenon zum Einsatz (Tabelle 1). Auch bei der Daten-
analyse werden unterschiedliche Methoden eingesetzt.
Theoretiker entwickeln neue Modelle, die diese methodi-
schen Unterschiede zur Erklärung für die unterschiedlichen
Resultate heranziehen. Weiterhin ist es denkbar, dass bei
den entsprechenden Modellannahmen Untergründe über-
sehen oder falsch abgeschätzt wurden.
Zur endgültigen Klärung bedarf es deshalb weiterer Da-
ten. Sollten sich Experimente, die verschiedene Techniken
verwenden, in ihren Aussagen bestätigen, hätten ihre Er-
gebnisse umso mehr Gewicht. Hier erwarten wir in den
kommenden Jahren interessante Ergebnisse, weil derzeit ei-
nige Experimente technisch verbessert werden.
Zusammenfassung
Viele astronomische Beobachtungsergebnisse belegen die
Existenz von Dunkler Materie. Nach derzeitiger Erkenntnis be-
steht sie aus nichtbaryonischen, schwach wechselwirkenden
Elementarteilchen (WIMPs), die das Standardmodell der Teil-
chenphysik nicht enthält. Sie sollten extrem geringe Wech-
selwirkungsquerschnitte besitzen, aber in so großer Zahl am
Ort der Erde vorhanden sein, dass ein direkter Nachweis mög-
lich erscheint. Das Experiment CRESST hat in seinen aktuellen
Messdaten mehrere Ereignisse gefunden, die von WIMPs her-
rühren könnten. Letztliche Klarheit können jedoch nur weite-
re Daten bringen.
Stichworte
Dunkle Materie, WIMP, Weakly Interacting Massive Parti-
cles, CRESST, Cryogenic Rare Event Search with Supercon-
ducting Thermometers, Phasenübergangs-Thermometer.
Literatur
[1] M. Crézé et al., Astron. Astrophys.1998, 329, 920.
[2] CRESST collaboration G.Angloher, Eur. Phys. J. C 2012, 72 (4), 1971.
[3] CoGeNT collaboration C. E. Aalseth, Phys. Rev. Lett. 2011,
107,141301.
[4] C. Savage et al, JCAP 2009, 0904, 010.
[5] CDMS collaboration, Z. Ahmed et al., Science 2010, 327, 1619.
[6] EDELWEISS collaboration, E. Armengaud et al. 2011, Physics Letters B
2011, 702, 329.
[7] XENON100 collaboration, E. Aprile et al., Phys. Rev. Lett. 2011, 107,
131302.
Der Autor
Michael Kiefer, geb. 1981, studierte bis 2006 Physik
in Würzburg und Grenoble, 2012 promovierte er im
Rahmen der CRESST-Kollaboration am Max-Planck-
Institut für Physik in München.
Anschrift
Dr. Michael Kiefer, Max-Planck-Institut für Physik,
Föhringer Ring 6, 80805 München.
Email kiefer@mpp.mpg.de
280 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
10 100 1000
WIMP-Masse/GeV/c
2
10
-8
10
-6
10
-4
W
I
M
P
-
N
u
k
l
e
o
n
-
W
e
c
h
s
e
l
w
i
r
k
u
n
g
s
q
u
e
r
s
c
h
n
i
t
t
/
p
b
CRESST
CoGeNT
DAMA
EDELWEISS-II
CDMS II
XENON100
ABB. 5 PARAMETERRAUM FÜR DUNKLE MATERI E
Die Messungen von CRESST, DAMA und CoGeNT wären jeweils
mit Dunkler Materie erklärbar, die Resultate sind allerdings
nicht untereinander konsistent. Andere Experimente wie
EDELWEISS, CDMS und XENON haben in den jeweiligen
Parameterbereichen bisher keine Kandidaten für Dunkle
Materie ausmachen können.
I NTERNET
|
Das Experiment CRESST
www.cresst.de
Dunkle Materie
www.astro.uni-bonn.de/∼deboer/pdm/pdmdmtxt.html
KOL HÖR S T E R PHYS I KGE S CHI CHT E
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 281
turwissenschaften aufzunehmen. Zum Sommersemester
1909 ging er an die Universität Halle, wo er im Frühjahr
1911 promovierte.
Sein Doktorvater war Ernst Dorn, der zu den Pionieren
der Radioaktivitätsforschung in Deutschland gehörte und
das radioaktive Gas Radon entdeckt hatte. Neben der Er-
forschung von Radioaktivität und Röntgenstrahlen gehörte
das Studium der atmosphärischen Elektrizität zu seinen For-
schungsschwerpunkten, von denen nicht zuletzt auch Kol-
hörsters Forschungen beeinflusst wurden. In seiner Dis-
sertation beschäftigte er sich mit den radioaktiven Eigen-
schaften des Karlsbader Sprudels. Dies hatte einerseits zum
Ziel, den Radiumgehalt und damit die radioaktiven Eigen-
Hundert Jahre Entdeckung der kosmischen Strahlung
Werner Kolhörster: Pionier der
Höhenstrahlungsforschung
DIETER HOFFMANN
Neben Victor Franz Hess gehört Werner
Kolhörster (1887–1946) zu den herausragen-
den Pionieren in der Entdeckungs- und Früh-
geschichte der kosmischen Strahlung. Den-
noch überschattet heute der Ruhm von Hess
weitgehend Kolhörsters Verdienste.
DOI: 10.1002/ piuz.201201315
D
ie Dominanz von Victor Franz Hess hat ganz wesent-
lich mit der Wirkungsmacht und dem Nimbus des No-
belpreises zu tun, der ihm im Jahre 1936 zusammen mit
dem Entdecker des Positrons Carl David Anderson verliehen
wurde, während Kolhörster und andere Pioniere der Hö-
henstrahlungsforschung leer ausgingen. Ebenfalls kontra-
produktiv für die volle Anerkennung von Kolhörsters wis-
senschaftlichen Leistungen waren die ungünstigen berufli-
chen Umstände seines Wirkens, das über viele Jahre
nebenberuflich erfolgen musste, sowie sein früher Tod im
Jahre 1946. [8] Hierdurch ist heute Kolhörster im Vergleich
zu Hess weitgehend unbekannt – ungeachtet der Tatsache,
dass es erst Kolhörsters Ballonfahrten waren, die zweifels-
frei die Hess’schen Messungen bestätigten und die Entde-
ckung der kosmischen Strahlung in der damaligen Physical
Community unanfechtbar machten. Leben und Werk von
Werner Kolhörster kann so als ein weiteres Beispiel für die
Gültigkeit des sogenannten Mattheus-Prinzips gelten: „Denn
wer da hat, dem wird gegeben, dass er die Fülle habe; wer
aber nicht hat, dem wird auch das genommen, was er hat.“
Von der Radioaktivität zur Höhenstrahlung
Werner Kolhörster wurde am 28. Dezember 1887 im ost-
brandenburgischen Schwiebus (heute Swiebodzin, Polen)
geboren, wo seine Eltern ein Geschäft betrieben und der Va-
ter auch als Stadtrat wirkte. Nach dem Besuch der Höheren
Knabenschule seiner Heimatstadt wechselte der 14-Jährige
auf das Realgymnasium im benachbarten Frankfurt/Oder
und legte dort 1906 das Abitur mit Auszeichnung ab. An-
schließend begann er an der Berliner Universität ein Studi-
um der Nationalökonomie, dass er nach zwei Semestern un-
terbrach, um schließlich zum Sommersemester 1908 an der
Universität Marburg ein Studium der Mathematik und Na-
Abb. 1 Werner Kolhörster (28.12.1887 bis 5. August 1946)
(Foto: Archiv R. Fricke).
282 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
der Luftionisation mit der Höhe nachweisen konnte. Diese
führte Hess zu der Feststellung: „Der einzige mögliche Weg,
meine experimentellen Befunde zu erklären, war, auf die
Existenz einer bisher unbekannten, sehr durchdringenden
Strahlung zu schließen, die hauptsächlich von oben kommt
und wahrscheinlich außerterrestrischen (kosmischen) Ur-
sprungs ist.“
Hess’ dezidierte Behauptung war keine Zufallsentde-
ckung, sondern gründete sich auf ein Forschungsprogramm,
das er über einen längeren Zeitpunkt verfolgt hatte und bei
dem er systematisch alle anderen Quellen der nachgewie-
senen radioaktiven Strahlung bewertet und als Ursache aus-
geschlossen hatte (Physik in unserer Zeit 2012, 43 (4), 168).
Seine Ballonfahrt vom 7. August 1912 und die sich darauf
beziehenden Publikationen in den Sitzungsberichten der
Wiener Akademie und der Physikalischen Zeitschrift gelten
deshalb heute gemeinhin als das Entdeckungsdatum der
kosmischen Höhenstrahlung. Doch wegen der messtechni-
schen Mängel, aber auch weil Hess nur kurzzeitig eine ma-
ximale Höhe etwa 5300 m erreicht hatte und in diesem
charakteristischen Höhenbereich zudem nur eine einzige
Messung – allerdings mit zwei Elektrometern – erfolgte,
wurde Hess’ Entdeckung in der zeitgenössischen Literatur
schaften der Heilquelle in Karlsbad zu bestimmen, und an-
dererseits die Methoden zur Abscheidung geringer Radi-
ummengen zu verbessern. Wie das Prädikat summa cum
laude belegt, hat Kolhörster die gestellte Aufgabe mit gro-
ßem Erfolg bewältigt.
Als Assistent Dorns am Physikalischen Institut der Uni-
versität Halle konnte Kolhörster seine diesbezüglichen For-
schungen in den folgenden drei Jahren weiter ausbauen;
1913 legte er auch die facultate docendi ab. Angeregt durch
die bevorstehende Sonnenfinsternis im Frühjahr 1912 rich-
tete Kolhörster sein Forschungsinteresse auf geophysikali-
sche Fragen. So begann er sich für die Forschungen des Val-
kenburger Jesuitenpaters und Physikers Theodor Wulf zu in-
teressieren, der aus Messungen der Luftionisation auf
verschiedenen Höhenniveaus vermutet hatte, dass es neben
der erdgebundenen Strahlung auch eine (kaum nachweis-
bare) „kosmische Strahlung“ geben sollte. Die Messungen
hatte Wulf unter anderem in den Alpen und auf dem Eiffel-
turm ausgeführt.
Hieran anknüpfend beschäftigte sich Kolhörster mit Mit-
teln des Aerophysikalischen Forschungsfonds der Natur-
forschenden Gesellschaft Halle mit der Ionisierung in
geschlossenen Gefäßen und nutzte die gewonnenen For-
schungsergebnisse, um die für die Messung der Luftionisa-
tion genutzten Instrumente zu verbessern. Die von Wulf
und anderen vorgelegten Ergebnisse zur Höhenabhängig-
keit der radioaktiven Strahlung krankten nämlich nicht nur
an der Unübersichtlichkeit der Strahlungsquellen, die die
Luftionisation hervorrufen konnten. Darüber hinaus gab es
gravierende gerätetechnische Mängel, unter anderem Isola-
tionsprobleme sowie die Temperatur- und Druckabhängig-
keit der genutzten Elektrometer.
Einen entscheidenden Impuls erhielt Kolhörsters For-
schung durch die Ballonfahrten des Wiener Physikers Victor
F. Hess im Sommer 1912, die ihn bis in Höhen von 5300 m
geführt hatten und bei denen er eine signifikante Zunahme
Abb. 2 Der Kolhörstersche Strahlungsapparat (Foto: Archiv R. Fricke).
80
60
40
20
2 4 6 8

I
o
n
e
n
p
a
a
r
e

/

c
m
3

·

s
1
Höhe / km
ABB. 3 BALLONAUFSTI EGE
Die Messwerte der Ballonaufstiege von Victor F. Hess am
7.8.1912 (Stufenkurve) und Werner Kolhörster 1913/14
(gefüllte und offene Kreise) (nach D. Fick, Marburg).
KOL HÖR S T E R PHYS I KGE S CHI CHT E
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 283
durchaus kontrovers diskutiert und zunächst mit einiger
Skepsis begegnet. So versuchten Forscher wie der Schwei-
zer Physiker Albert Gockel auch weiterhin, den Effekt der
signifikanten Zunahme der Luftelektrizität durch radioakti-
ve Quellen in der Atmosphäre zu erklären.
Auch Werner Kolhörster stand der Hess’schen Entde-
ckung skeptisch gegenüber, doch machte er sich im Ge-
gensatz zu Gockel zur Aufgabe, diese experimentell weiter
zu fundieren und zu bestätigen. Dies versuchte er dadurch
zu erreichen, dass er sich um eine Perfektionierung der
messtechnischen Rahmenbedingungen bemühte. Insbe-
sondere verbesserte er das Wulfsche Elektrometer für Mes-
sungen unter starken Druck- und Temperaturschwankun-
gen sowie den komplizierten Messbedingungen einer Bal-
lonfahrt. Dabei arbeitete er eng mit der Firma Günther &
Tegetmeyer in Braunschweig zusammen, die die Elektro-
meter produzierte. Im Ergebnis dieser Kooperation entstand
der sogenannte Kolhörstersche Strahlungsapparat [6,
S. 205ff] (Abbildung 2). Darüber hinaus plante Kolhörster
Ballonaufstiege in noch größere Höhen, um so die aus der
Hess’schen Entdeckung folgende weitere Zunahme der Luft -
ionisation zu prüfen.
Hinauf bis in 9300 Meter Höhe
Mit seinem Strahlungsapparat führte Kolhörster im Sommer
1913 von Bitterfeld aus, wo es einen Ballonfahrerclub gab
und die dortige chemische Industrie das nötige Wasser-
stoffgas in genügender Menge produzierte, drei Ballonfahr-
ten durch. Sie wurden vom Aerophysikalischen For-
schungsfonds Halle gefördert und führten ihn bis auf 4100,
4300 und 6300 m Höhe. Die Messungen bestätigten und
präzisierten die von Hess gelieferten Ergebnisse, so dass da-
durch „die Annahme, daß der Ursprung dieser durchdrin-
genden Strahlung nicht in den bekannten radioaktiven Stof-
fen der Erde oder der Atmosphäre zu suchen ist, bedeutend
an Wahrscheinlichkeit“ gewonnen hatte [9, S. 1155].
Am 28. Juni 1914 führte Kolhörster mit Sauerstoffmas-
ke eine Hochfahrt durch, bei der er eine maximale Höhe
von 9300 m erreichte. Der dabei gemessene Ionisations-
wert war um eine Größenordnung größer als bei den vo-
rangegangenen Ballonfahrten (Abbildung 3). So konnte Kol-
hörster zwei Wochen später in einem Vortrag vor der Phy-
sikalischen Gesellschaft in Berlin „jeglichen Zweifel an der
Reellität der Messungen und damit an der Zunahme der Io-
nisation ... (ausschließen). Mangels jeglicher anderer Erklä-
rung hierfür wird man nicht umhin können, diese Tatsache
durch die Annahme einer Strahlung hohen Durchdrin-
gungsvermögens in den oberen Schichten der Atmosphäre
oder in unserem Sonnensystem zu erklären. Es erscheint
ausgeschlossen, daß die bekannten radioaktiven Substan-
zen des Erdbodens oder der Luft hierfür verantwortlich
sind“ [10, S. 720f].
Kolhörster hatte mit seinen Messungen die Hess’sche
Hypothese über die Existenz einer kosmischen Höhen-
strahlung auf eine sehr viel breitere und vor allem unan-
fechtbare experimentelle Basis gestellt. Dies betraf sowohl
die Bestätigung einer weiteren Zunahme der Luftionisation
mit der Höhe als auch die Genauigkeit der Messungen, die
Kolhörster mit ± 10 bis 15 % angab. Nicht zuletzt schloss
die erstmalig von Kolhörster abgeschätzte Härte der Strah-
lung (Durchdringungsvermögen) praktisch alle bekannten
radioaktiven Quellen aus [15, S. 3]. Angesichts solcher Me-
riten wäre es nicht unverdient, Kolhörster als Mitentdecker
der kosmischen Strahlung zu bezeichnen. Das sahen auch
einige Zeitgenossen so – beispielsweise sprachen Walther
Nernst von der Hess-Kolhörster-Strahlung oder Lajos Jánossy
anlässlich des 50-jährigen Entdeckungsjubiläums von Kol-
hörster als Mitentdecker.
Mit seinen Ballonfahrten (Abbildung 4) hatte sich Kol-
hörster ganz der Höhenstrahlungsforschung verschrieben
und dafür im eben zitierten Aufsatz auch schon ein erstes
Forschungsprogramm skizziert: „Man darf vermuten, daß
eine durchdringende Strahlung kosmischen Ursprungs exis-
tiert, die wohl zum größten Teil von der Sonne herrührt. Es
ist daher beabsichtigt, diese Vermutung durch Beobachtung
am Erdboden unter geeigneten Bedingungen – Messungen
über und im Wasser zu verschiedenen Tageszeiten, Be -
obachtungen während der Sonnenfinsternis vom 21. Au-
gust d.J. in der Zone der Totalität – nachzuprüfen und
durch weitere Hochfahrten ihren Ursprung festzustellen“
[10, S. 721].
Abb. 4 Werner Kolhörster bei einer seiner Ballonfahrten, um
1913 (Foto: Archiv R. Fricke).
284 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Allerdings verhinderte der Ausbruch des ersten Welt-
kriegs zunächst die Ausführung seiner Forschungspläne –
wie Krieg und Nachkriegszeit überhaupt die Erforschung
der Höhenstrahlung für viele Jahre vor allem in Europa prak-
tisch zum Erliegen brachte [2]. Weiterhin entbrannte in den
1920er Jahren ein Streit um die Entdeckung der kosmischen
Strahlung zwischen den europäischen Pionieren des Ge-
biets, namentlich Hess und Kolhörster, und dem amerika-
nischen Physiker Robert Andrews Millikan [1, S. 348ff]. Die-
ser hatte nach dem ersten Weltkrieg begonnen, sich mit
den Cosmic Rays – wie er die Höhenstrahlung wohl auch
in Abgrenzung zu seinen europäischen Kollegen nannte –
zu befassen und deren Intensitätsverlauf bis in die Strato-
sphäre gemessen. Damit glaubte er die Messungen von Hess
und Kolhörster in Frage stellen zu können, wobei ihm auch
die amerikanischen Medien zur Seite standen und den Be-
griff der Millikan-Rays kreierten. Dies provozierte dann ei-
ne dezidierte Klarstellung der genauen Entdeckungsum-
stände durch Hess, Kolhörster und andere europäische Pio-
niere des Forschungsgebiets [12].
Zur Verfolgung seines Forschungsprogramms und zur
Aneignung modernen radioaktiver Messtechniken war Kol-
hörster noch im Frühjahr 1914 als „freiwilliger Gastmitar-
beiter“ an die Berliner Physikalisch-Technische Reichsan-
stalt zu Hans Geiger gegangen. Die Reichsanstalt und na-
mentlich das Geigersche Laboratorium für Radioaktivität
gehörten damals weltweit zu den führenden Einrichtungen
auf diesem Gebiet. Allerdings verhinderte der Ausbruch des
Weltkriegs die Fortsetzung seiner Tätigkeit, wie auch die
Übernahme der ihm angebotenen Leitung des physikalisch-
meteorologischen Observatoriums im Schweizerischen Da-
vos. Kolhörster musste stattdessen in den Krieg ziehen und
diente – nach eigenen Angaben – zunächst beim Wetter-
dienst und später in einer Giftgaseinheit. Im Jahre 1916
wurde er zur deutschen Militärmission nach Konstantino-
pel abkommandiert und übernahm die Leitung der Feld-
wetterwarte Waniköi am Bosporus, wo er neben Wetterbe-
obachtungen auch umfangreiche Messungen der Luftelek-
trizität und der Höhenstrahlung durchführte – die ersten in
dieser Gegend. Nach dem Kriegsende diente er noch für ei-
nige Monate als Physiker beim Seeflugzeugkommando der
Marine in Warnemünde.
Neuanfang nach dem Ersten Weltkrieg
Die politische und ökonomische Situation Deutschlands in
der Nachkriegszeit ermöglichte weder die Fortsetzung sei-
ner militärischen Tätigkeit, noch eine Rückkehr zur wis-
senschaftlichen Forschung, so dass er in den Schuldienst
wechselte. Ab Februar 1919 wirkte er zunächst als Studi-
enreferendar, dann als Assessor am Cottbuser Friedrich-Wil-
helm-Gymnasium und ab Ostern 1920 als Studienrat an der
Friedrich-Werder-Oberrealschule sowie dem Sophien-Real-
gymnasium in Berlin.
Parallel zu seinen schulischen Verpflichtungen nahm er
aber auch die Möglichkeit wahr, ab dem Sommer 1922 an
der Charlottenburger Reichsanstalt als Gastmitarbeiter sei-
ne Höhenstrahlungsforschungen wieder aufzunehmen.
Dort bemühte er sich um die weitere Verbesserung seines
Strahlungsapparates, konstruierte einen neuartigen Regis-
trierapparat und entwickelte das sogenannte Schlingen-
elektrometer nach Kolhörster – alles wieder in enger Zu-
sammenarbeit mit Günther & Tegtmeyer [6]. Mit Mitteln
der Preußischen Akademie der Wissenschaften und der Not-
gemeinschaft der Deutschen Wissenschaft konnte Kolhörs-
ter 1923, 1924 und 1926 außerdem drei hochalpine Expe-
ditionen auf das Jungfraujoch, den Eigergletscher und den
Mönchsgipfel in den Berner Alpen ausrüsten, wozu er vom
Schuldienst beurlaubt wurde (Abbildungen 5 und 6). Ziel
der Expeditionen war die Aufnahme umfangreicher Mess-
reihen zur Höhenstrahlung. So suchte er die Einfallsrich-
Abb. 5 Werner Kolhörster auf dem Mönchsgipfel (Foto: Archiv R. Fricke).
Abb. 6 Messungen im Innern eines Gletschers in den Alpen (Foto: Archiv R. Fricke).
KOL HÖR S T E R PHYS I KGE S CHI CHT E
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 285
tung der Strahlung sowie mögliche Abhängigkeiten von stel-
laren Konstellationen zu bestimmen.
Für seine Forschungen wurde Kolhörster im Jahre 1925
mit der Silbernen Leibniz-Medaille der Akademie geehrt –
nicht nur eine hohe, sondern auch eine verdiente Aus-
zeichnung für seine bisherigen Pionierarbeiten auf dem Ge-
biet der Höhenstrahlungsforschung.
An der Reichsanstalt war Kolhörster ständiger Gast im
Laboratorium für Radioaktivität, das bis 1925 von Hans Gei-
ger und nach dessen Wechsel an die Universität Kiel dann
von Walther Bothe geleitet wurde [7]. Insbesondere Letz-
terer wurde zu Kolhörsters wissenschaftlichem Mentor, und
beiden gelang in den späten 1920er Jahren auch der fun-
damentale Nachweis des Teilchencharakters der kosmi-
schen Höhenstrahlung. Obwohl es Hinweise für ihre kor-
puskulare Natur gab – unter anderem „schöne Wilson-Auf-
nahmen“ des sowjetischen Physikers David Skobelzyn [18,
S. 225] –, ging man allgemein davon aus, dass die Höhen-
strahlung wegen ihres starken Durchdringungsvermögens
eine sehr harte Gammastrahlung war. Sie wurde deswegen
oft auch als Ultragammastrahlung bezeichnet.
Zusammen mit Bothe ging er daran, mit der sogenann-
ten Koinzidenzmethode die korpuskulare Natur der Hö-
henstrahlung nachzuweisen. Die Koinzidenzmethode hat-
ten Hans Geiger und Bothe 1925 an der Reichsanstalt ent-
wickelt, um damit den Nachweis der strengen Gültigkeit
von Energie- und Impuls erhaltungssatz bei atomaren Um-
wandlungsprozessen zu führen [4].
Das Grundprinzip der Koinzidenzmethode besteht da-
rin, zwei (oder mehrere) Detektoren so zu verkoppeln, dass
das gleichzeitige Auftreten von Ereignissen registriert wer-
den kann. Bothe und Kolhörster kombinierten die Metho-
de mit dem gerade von Hans Geiger und Walter Müller in
Kiel erfundenen Geiger-Müller-Zählrohr, wobei zwei solche
Instrumente senkrecht übereinander angeordnet und zur
Abschirmung der Umgebungsstrahlung mit einem Blei -
panzer umgeben wurden (Abbildung 7). Sprachen beide
Geiger-Müller-Zählrohre gleichzeitig an (die damalige Zeit-
auflösung lag bei etwa einer Millisekunde), so war davon
auszugehen, dass ein Teilchen durch die gesamte Ver-
suchsanordnung geflogen war.
Zur Sicherung eines möglichst direkten Einfalls der
Strahlung wurde die Koinzidenzanordnung direkt unter ei-
nem Dachfenster auf dem Dachboden der Reichsanstalt plat-
ziert (Abbildung 8). Zwischen den Zählrohren ließen sich
Absorberplatten einschieben, die zunächst aus Bleiblöcken
und später aus Feingoldbarren bestanden, die man von der
Staatsbank leihweise zur Verfügung gestellt bekam [13].
Durch Variation der Dicke der Absorber veränderte sich die
Häufigkeit der auftretenden Koinzidenzen in beiden Zähl-
rohren sowie die Zählraten des unteren Zählrohrs in einer
Weise, dass Bothe und Kolhörster den Schluss zogen, „daß
die Höhenstrahlung wenigstens, soweit sie sich in den bis-
her beobachteten Erscheinungen äußert, keine γ–Strahlung,
sondern eine Korpuskularstrahlung ist“ [13, S. 775]. Ihr
Hauptargument war, dass nur geladene Partikel für die Zähl-
rohrkoinzidenzen verantwortlich sein können, da die von
der vermeintlichen Gammastrahlung in den Absorbern pro-
duzierten Compton-Elektronen über ein viel zu geringes
Durchdringungsvermögen verfügen, als dass sie in beiden
Zählrohren nachweisbar wären.
Als Konsequenz der Entdeckung vermutete Kolhörster,
dass es für die Höhenstrahlung einen Breiteneffekt geben
sollte – ganz analog zum Verhalten der Polarlichter, die ja
auch von extraterrestrischen Teilchen erzeugt werden. Um
einen solchen Effekt nachzuweisen, führten Bothe und Kol-
hörster im Frühsommer 1930 eine Expedition in die nörd-
liche Nordsee und das Nordpolarmeer durch, die sie bis
nach Spitzbergen und Island führte. Doch den vermuteten
Breiteneffekt konnten sie nicht nachweisen. Dies gelang
erst dem holländische Physiker Jacob Clay und später auch
Arthur Holly Compton. Darüber hinaus wurde Anfang der
dreißiger Jahre auch eine von Bruno Rossi vorhergesagte
Ost-West-Asymmetrie im Strahlungseinfall nachgewiesen,
die klar machte, dass die kosmische Strahlung überwiegend
aus positiv geladenen Partikeln besteht [3].
Bothe und Kolhörsters fundamentale Entdeckung mar-
kiert den Beginn der modernen Phase der Erforschung der
Höhen- oder kosmischen Strahlung, wobei die Koinzidenz-
methode als eine Art „Höhenstrahlungs-Teleskop“ einsetz-
bar war. Kolhörster hat dies noch selbst getan, als er im De-
zember 1934 nach dem Auftreten der Nova Herculis diese
mit einer solchen Anordnung beobachtete. Ein anderer Pio-
nier auf diesem Gebiet war der schon erwähnte italienische
Physiker Bruno Rossi, der im Übrigen durch die Arbeit von
Bothe und Kolhörster auf das Gebiet der Höhenstrahlungs-
forschung gelenkt wurde und zudem wichtige Impulse für
ABB. 7 KOI NZI DENZANORDNUNG
Die Koinzidenzanordnung von Walther Bothe und Werner
Kolhörster zum Nachweis der Teilchennatur der Höhenstrah-
lung (aus [13]).
286 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
seine Forschungen während eines Forschungsaufenthalts
an der Berliner Reichsanstalt erhalten hatte [17].
Als Rossi im Frühjahr 1930 als Gastwissenschaftler in Bo-
thes Labor der Physikalisch-Technischen Reichsanstalt ar-
beitete, war Kolhörster schon nicht mehr dort als Mitar-
beiter tätig. Im Herbst 1928 konnte er endlich aus dem
Schuldienst ausscheiden und eine für ihn geschaffene Ob-
servatorstelle am Meteorologisch-Magnetischen Observa-
torium in Potsdam übernehmen. Mit Mitteln der Preußi-
schen Akademie baute er ab 1930 auf dem Potsdamer
Telegraphenberg ein Laboratorium für Höhenstrahlungs-
forschung auf, das weltweit zu den ersten Spezialeinrich-
tungen dieses noch jungen Forschungsbiets gehörte [15].
Hier widmete er sich der weiteren systematischen Er-
forschung der Höhenstrahlung, wobei er im Gegensatz zu
vielen zeitgenössischen Kollegen seine Forschungen nicht
nur „in der Höhe“ durch hochalpine Expeditionen oder Bal-
lonaufstiege betrieb, sondern auch mit Intensitätsmessun-
gen der Höhenstrahlung in großer Tiefe, in Bergwerken und
unter Wasser. Hierbei wies er im Steinsalzbergwerk von
Staßfurt die härtesten, bis dahin beobachteten Anteile der
kosmischen Strahlung nach und entdeckte als Nebeneffekt
die Gammastrahlung von
39
Kalium [14]. Zudem stellte er
Langzeituntersuchungen über die zeitliche Konstanz der
Höhenstrahlung an. Ansonsten folgte er auch in Potsdam in
seinen Forschungen den Leitlinien, die sein bisheriges For-
schungsprofil geprägt hatten: die zielgerichtete Verbesse-
rung der Forschungsapparate und –methoden in der Hö-
henstrahlungsforschung, wobei er sich um die Nutzung des
Geiger-Müller-Zählrohrs einige Verdienste erwarb. Auch per-
fektionierte er die modernen Zählmethoden durch elek-
tronische Verstärker, Untersetzer und andere Techniken, die
nicht zuletzt eine automatische und Dauerregistrierung er-
möglichte.
Parallel zu seiner Forschungstätigkeit betrieb Kolhörs-
ter seine akademische Karriere – so habilitierte er sich 1930
an der Berliner Universität für das Gebiet der Geophysik
und hielt dort in den folgenden Jahren regelmäßig Vorle-
sungen zu geophysikalischen Fragen: von der Höhenstrah-
lung bis zu erdmagnetischen Problemen.
Als 1935 im Zuge der nationalsozialistischen Reorgani-
sation des deutschen Forschungsbetriebs das Göringsche
Luftfahrtministerium Kolhörsters Potsdamer Höhenstrah-
lungslabor übernahm, erhielt Kolhörster an der Berliner Uni-
versität eine außerordentliche Professur für Strahlenphysik.
Er wurde Direktor eines speziellen Instituts für Höhen-
strahlungsphysik, das ihm nach Potsdamer Vorbild, aber we-
sentlich größer und besser ausgestattet, im Kiebitzweg in
Berlin-Dahlem eingerichtet wurde.
Für diesen Karrieresprung war sicherlich hilfreich, dass
er im April 1933 Mitglied der NSDAP geworden war. Dabei
folgte dieser Schritt weniger einer dezidierten politischen
Überzeugung als vielmehr persönlichem Opportunismus
sowie dem damals herrschenden gesellschaftlichen Druck
auf Staatsbeamte. Auf jeden Fall war Kolhörsters politischer
Karrierismus mit wissenschaftlicher Exzellenz gepaart. Er
gehörte auch nicht zu den Naziaktivisten der Berliner Uni-
versität. So verteidigte er seine Doktorandin Ilse Matthes im
Jahre 1939 gegenüber nationalsozialistischen Denunziatio-
nen und wurde auch selbst von Kollegen denunziert, weil
er „Halbjuden“ an seinem Institut beschäftigte.
In Dahlem konnte Kolhörster seine Dauermessungen
der Höhenstrahlung fortsetzen, wobei bis zu 16 Anordnun-
gen stündlich die Intensität der Strahlung registrierten. Er
versuchte, dem Institut dieselbe Bedeutung auf dem Gebiet
der Höhenstrahlung zu geben, wie sie beispielsweise das
Potsdamer geomagnetische Institut für die Erforschung des
Erdmagnetismus hatte. Dabei dachte er auch an den Aufbau
eines internationalen Forschungsnetzwerks, das analog zum
magnetischen Verein weltweit standardisierte und ver-
gleichbare Dauerregistrierungen der Höhenstrahlung orga-
nisieren sollte.
Der Ausbruch des zweiten Weltkriegs machte diese Ide-
en zunichte, wie überhaupt seine Zeit als Professor der Ber-
liner Universität durch den Krieg und die damit einherge-
henden Beschränkungen des Forschungsbetriebs geprägt
ABB. 8 BOTHES LABORBUCH
Vorbereitende Skizzen der Versuchsanordnung aus Walter Bothes Laborbuch
(Archiv der MPG, Berlin).
KOL HÖR S T E R PHYS I KGE S CHI CHT E
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 287
waren, haben sie doch beispielsweise die systematische Aus-
wertung der Dauerregistrierungen der Nova Herculis und
des großen magnetischen Sturms vom 1. März 1943 weit-
gehend verhindert. Dennoch gelang Kolhörster Anfang
1938 mit der Entdeckung der großen Luftschauer der Hö-
henstrahlung auch kurz vor dem Krieg noch eine bedeut-
same wissenschaftliche Leistung [20], die gemeinhin allein
Pierre Auger zugeschrieben wird.
Wegen der zunehmenden alliierten Luftangriffe auf Ber-
lin wurde das Kolhörstersche Institut im Sommer 1943 –
wie viele andere Institutionen der Stadt – verlagert, und es
fand in der Wetterwarte von Wahnsdorf bei Dresden eine
neue Unterkunft. Hier konnte man stark eingeschränkt die
Forschungen bis zum Kriegsende fortsetzen. Nach der Be-
freiung Dresdens durch die Rote Armee im Mai 1945 setz-
te sich Kolhörster nach Halle ab, das damals noch von ame-
rikanischen Truppen besetzt war. Hier wollte er mit Hilfe
der Leopoldina, die ihn 1940 zum Mitglied gewählt hatte,
einen Neubeginn seiner akademischen Karriere starten.
Doch bereits Ende Juni 1945 musste er mit dem Abzug der
amerikanischen Truppen die Stadt wieder verlassen und
wurde zusammen mit den materiellen Überresten seines
Instituts im sogenannten Abderhalden-Transport nach
Frankfurt am Main verbracht.
In Ober-Ramstadt bei Darmstadt fand die Familie
schließlich ein Unterkommen. Von hier betrieb Kolhörster
in den folgenden Monaten seine Entnazifizierung und die
Neuberufung an eine Hochschule. Gleichzeitig versuchte er
seine wissenschaftliche Tätigkeit wieder aufzunehmen. Do-
kumentiert sind seine entsprechenden Bemühungen in zahl-
reichen Briefen an Fachkollegen, darunter auch an Albert
Einstein.
All diese Aktivitäten fanden am 26. Juni 1946 ein tragi-
sches Ende, als Kolhörster mit seinem Motorrad auf der Au-
tobahn bei Frankfurt mit einem amerikanischen Militär-
fahrzeug kollidierte. Sechs Wochen später, am 5. August
1946, starb er im 59. Lebensjahr an den Folgen des Ver-
kehrsunfalls in einem Frankfurter Krankenhaus.
Zusammenfassung
Obwohl in heutigen Darstellungen zur Entdeckungs- und
Frühgeschichte der kosmischen Strahlung meist nur als Rand-
figur behandelt, gehört Werner Kolhörster zu den herausra-
genden Pionieren dieses Fachgebiets. Erst seine Ballon-Hoch-
fahrten haben die Hess’sche Entdeckung zweifelsfrei und in
der Physikalischen Gemeinschaft unanfechtbar gemacht. Dar-
über hinaus wies er zusammen mit Walter Bothe die korpus-
kulare Natur der Strahlung nach und kann als Mitentdecker
der großen Luftschauer gelten.
Stichworte
Werner Kolhörster, kosmische Strahlung, Höhenstrahlung,
Koinzidenzmethode, Luftschauer, Victor Franz Hess, Walther
Bothe.
Danksagung
Der Beitrag profitiert insbesondere hinsichtlich der biographischen
Details ganz wesentlich von Recherchen im Nachlass von Werner
Kolhörster, der gegenwärtig von Herrn Rudolf Fricke in Wolfen-
büttel verwahrt wird und demnächst an das Archiv des Deutschen
Museums München übergeht. Für die Möglichkeit der Nutzung und
für seine große Kooperationsbereitschaft sei Herrn Fricke ganz
herzlich gedankt.
Literatur
[1] V. Cirkel-Bartelt, Kooperation und Konkurrenz. Die Erforschung der
kosmischen Strahlung vor dem Zweiten Weltkrieg, in C. Sachse
(Hrsg.): Kernforschung in Österreich, Wien 2011, S. 341.
[2] P. A. Carlson, A. de Angelis, Eur. Phys. J. H 2010, 35, 309.
[3] M. De Maria, A. Russo, Hist. Stud. in the Phys. and Biol. Sciences
1989, 19, 211.
[4] D. Fick, H. Kant , Stud. in the Hist. and Phil. of Phys. 2009, 40, 395 .
[5] S. Flügge, Z. Naturforsch. 1948, 3a, 690.
[6] R. G. A. Fricke, Günther & Tegetmeyer 1901-1958, Instrumente für
die Wissenschaft in Braunschweig, AF-Verlag, Wolfenbüttel 2011.
[7] D. Hoffmann, Wissenschaft und Fortschritt 1991, 41 (5), 162.
[8] E. Kolhörster, Mein Leben and der Seite eines Wissenschaftlers und
Forschers, Darmstadt 1977.
[9] W. Kolhörster, Phys. Z. 1913, XIV, 1153.
[10] W. Kolhörster, Verhandlungen der Deutschen Physikalischen
Gesellschaft 1914, 16, 719.
[11] W. Kolhörster, Die durchdringende Strahlung in der Atmosphäre,
Hamburg 1924.
[12] W. Kolhörster et al., Phys. Z. 1928, 29, 705.
[13] W. Bothe, W. Kolhörster, Z. für Phys. 1929, 56, 751.
[14] W. Kolhörster, Z. für Geophys, 1930, 6, 341.
[15] W. Kolhörster, Die Umschau 1931, 35, 781.
[16] E. Miehlnickel, Höhenstrahlung (Ultrastrahlung), Dresden, Leipzig
1938.
[17] B. Rossi, Phys. Today 1981, Nr. 10, 35.
[18] Y. Sekido, H. Elliot (Hrsg.), Early History of Cosmic Ray Studies,
Dordrecht 1985.
[19] M. Walter, A. W. Wolfendale, Eur. Phys. J. H, 2012, 37, 323.
[20] W. Kolhörster et al., Naturwissenschaften 1938, 26, 576.
Der Autor
Dieter Hoffmann hat Physik an der Humboldt-
Universität zu Berlin studiert, wo er auch auf dem
Gebiet der Wissenschaftsgeschichte promovierte
und habilitierte. Von 1976 bis 1990 forschte er an
der Akademie der Wissenschaften der DDR, seit
1995 ist er Mitarbeiter des MPI für Wissenschafts -
geschichte in Berlin; zudem lehrt er als apl. Professor
an der Humboldt-Universität.
Anschrift
Prof. Dr. Dieter Hoffmann, Max Planck Institut für
Wissenschaftsgeschichte, Boltzmannstraße 22,
D-14195 Berlin. dh@mpiwg-berlin.mpg.de.
Webseite
www.mpiwg-berlin.mpg.de/en/staff/members/dh
Grundzustand des Festkörpers die oberste „Energiekante“,
bis zu der die Elektronen Zustände in der Bandstruktur be-
setzen können. Stöße bringen die Elektronen mit den Git-
terschwingungen in ein thermisches Gleichgewicht.
Bei Zufuhr von Energie, sei es thermische oder elektri-
sche, gerät der Festkörper aus seinem Grundzustand: ange-
regte Elektronen springen über die Fermi-Energie hinaus in
höhere Energiezustände. Die im Grundzustand „scharfkan-
tige“ Fermi-Energie weicht auf, und die Zustände um sie he-
rum tragen zum Transport bei (in Abbildung 1 oben dunk-
ler markiert). In Metallen (Abbildung 1 links) ist dies sofort
der Fall, weil die Elektronen schon im Leitungsband sind.
Dagegen brauchen sie in Halbleitern (Abbildung 1 rechts)
mehr Energie, also zum Beispiel eine höhere angelegte elek-
trische Spannung, um über die verbotene Bandlücke (ocker)
in das Leitungsband oben zu springen. Dafür hinterlassen
sie im unteren Band, dem Valenzband, Löcher, die dort wie
Spiegelbilder mit positiver Ladung fließen können.
Bringen wir nun ein Metall oder einen Halbleiter in ein
elektrisches Feld, legen also eine elektrische Potentialdiffe-
renz in Form einer Spannung an, dann werden die Elektro-
nen durch dieses elektrische Feld beschleunigt. Durch die
Stöße stellt sich eine konstante Driftgeschwindigkeit ein, es
fließt ein Strom, und der Leiter wird warm.
Spintronik
Elektronen können wir auch nach ihrem Spin unterschei-
den, die sich wie winzige, im Raum drehbare Magnete ver-
halten. Ferromagnetische Materialien zeichnen sich dadurch
aus, dass es mehr Elektronen mit einer bestimmten Spin-
orientierung als mit der dazu antiparallelen Spinorientie-
rung gibt. Dieser Netto-Spinüberschuss sorgt für eine ma-
kroskopische Magnetisierung. Über diese Magnetisierungs-
richtung speichern zum Beispiel Festplatten Daten. Die
Zukunftsvision der Spinelektronik oder kurz Spintronik [1]
will nun diese statischen Eigenschaften des Spins mit ei-
nem aktiven elektronischen Bauteil wie einem Transistor
kombinieren.
Die Funktion von mikroelektronischen Bauteilen wird
durch eine Abfolge von Materialien bestimmt, die das Schal-
ten von Strömen in einem Prozessor ermöglichen. Dort ar-
beiten spezielle Feldeffekttransistoren, sogenannte MOSFET.
Ihr Kern besteht aus einem Stapel dünner Halbleiter-
schichten mit unterschiedlicher Dotierung aus Fremdato-
men, die einen leitfähigen Kanal erzeugen. Dieser Sandwich
sitzt auf einem dünnen Isolator, und eine elektrische Span-
Vom Seebeck-Effekt zur Spinkaloritronik
Heiße Elektronik
MARKUS MÜNZENBERG | ANDY THOMAS
Die zunehmend attraktive Spintronik basiert auf der Steue-
rung von Strömen über die Elektronenspins. Doch es gibt auch
einen Weg, diese Spins über Wärmezufuhr zu manipulieren.
In einigen Nanostrukturen funktioniert dies sehr effektiv.
Dieses noch junge Gebiet der Spinkaloritronik begründete der
altbekannte Seebeck-Effekt. Es könnte zum Beispiel die Abwär-
me von Mikroprozessoren als Energiequelle für Elektroniken
effizient nutzbar zu machen.
288 Phys. Unserer Zeit 6/2012 (43) © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
DOI: 10.1002/ piuz.201201314
W
as passiert, wenn Elektronik heiß wird? Jeder kennt
das von seinem Notebook, das bei starker Prozessor -
auslastung warm wird. Steigt die Temperatur zu sehr, springt
der Lüfter an und transportiert die Wärme einfach ab. Nun
kann man sich fragen, ob eine Elektronik diese Wärme nicht
sinnvoll nutzen könnte, eventuell sogar um zu rechnen.
Tatsächlich verknüpft das neue Gebiet der Spinkalo-
ritronik, das dieser Beitrag vorstellt, Wärme als trei-
bende Kraft für Elektronen mit Spins in spinelek-
tronischen Bauelementen. Wie wir sehen werden,
kann man Thermospannungen mit magnetischen
Schichten sogar magnetisch schalten.
Ein Festkörper besteht aus einem Gitter von
Atomrümpfen und seinen äußeren Elektronen, die
für die elektronischen Eigenschaften verant-
wortlich sind. So entsteht entweder ein Isolator,
ein Halbleiter oder ein Metall. Im elektrischen
Feld bestimmen dann die beweglichen La-
dungsträger, wie viel Strom fließt. Zu diesen ge-
hören in der Halbleiterelektronik Elektronen,
aber auch positive Ladungsträger, Löcher ge-
nannt. Die Bewegung der Elektronen durch
das Material wird permanent durch Stöße un-
terbrochen. Diese Stöße führen dazu, dass sich eine ther-
mische Verteilung ausbildet.
Die genaue Form dieser Verteilung ist quantenmecha-
nisch bedingt und wird Fermi-Statistik genannt. Ein wichti-
ger Parameter ist durch die Fermi-Energie definiert. In Fest-
körpern vereinen sich die äußeren elektronischen Zustän-
de der Atome zu Energiebändern, die durch verbotene
Bandlücken getrennt sind. In diesen Energiebändern kön-
nen sich die Ladungsträger wie auf Autobahnen bewegen.
Die Fermi-Energie definiert im quantenmechanischen
Online-Ausgabe unter:
wileyonlinelibrary.com
Thomas Johann
Seebeck
(1770–1831).
rialien A und B. Eine typische Anwendung solcher Ther-
moelemente ist die Temperaturmessung.
Diese Thermospannung entdeckte Thomas Johann See-
beck bereits 1821 (Abbildung gegenüber). Danach verbrei-
tete sich ihre Nutzung weithin, denn Reibungselektrisier -
maschinen, bis dato bei Experimentatoren als Quellen für
elektrische Energie sehr beliebt, lieferten zwar hohe Span-
nungen, aber nur sehr kleine Ströme. Mit dem Seebeck-Ef-
fekt stand eine robuste Stromquelle zur Verfügung, die
grundsätzlich auch große Ströme liefern konnte, gemäß
I = U
Seebeck
/R (Abbildung oben). Typische Werte für See-
beck-Koeffizienten reichen von 0,01 mV/K in Metallen bis
zu 1 mV/K in Halbleitern. Damit lassen sich Spannungen
von bis zu 100 mV erreichen.
Für eine Nutzung als Stromquelle kombiniert man am
besten zwei Materialien mit jeweils entgegengesetztem Vor-
zeichen der Seebeck-Koeffizienten. So erhält man eine
maximierte Potentialdifferenz in einem gegebenen Tempe-
raturgradienten, denn die Thermospannungen der Einzel-
materialien addieren sich auf. Zum Beispiel erzeugt Ger-
manium im Temperaturgradienten von heiß nach kalt eine
positive Spannung, Bismuth dagegen eine negative.
In Halbleitern kann man dieses Verhalten besonders gut
einstellen, indem man die Sorte der Ladungsträger beein-
flusst, die zum Transport beitragen, das heißt Elektronen
oder Löcher (Abbildung 1 rechts). Daher sind Halbeiter
ideale Seebeck-Materialien. Sind die relevanten Zustände,
die zur Leitfähigkeit beitragen, symmetrisch um die Fermi-
Energie verteilt, dann existieren ebenso viele Elektronen
wie Löcher, die sich im Temperaturgradienten bewegen (Ab-
bildung 1, unten links). Der thermische Ladungsstrom bei-
der kompensiert sich, und die Thermospannung U ist damit
Null.
Durch Dotierung mit Fremdatomen kann man nun die
Zustände um die Fermi-Energie asymmetrisch gestalten und
so die Eigenschaften der Leitfähigkeit einstellen. Legt man
das chemische Potential an die obere Kante der Energielü-
S P I NKAL ORI T RONI K F E S T KÖRPE RPHYS I K
nung, die über diesen Aufbau angelegt ist, verhindert oder
ermöglicht einen Stromfluss wie ein Ventil. In heutigen Mi-
kroprozessoren sind diese MOSFET-Transistoren nur weni-
ge Nanometer groß, ihre Strukturgröße liegt unter 32 nm.
Das erzwingt auch einen sehr dünnen Isolator von nur noch
wenigen Atomlagen Dicke. Der Preis ist der Verlust einer
perfekten Isolierung, was zu unerwünschten Strömen führt,
die den Prozessor aufheizen. Diese Abwärme muss zum ei-
nen abtransportiert werden, zum anderen leert dies die Ak-
kus von portablen Geräten schneller.
In magnetischen Materialien tragen die Elektronen nicht
in ihrer Ladung die Informationen Null und Eins, sondern
mit der Richtung ihrer Spins. Legen wir an ein magneti-
sches Material eine elektrische Spannung an, dann fließen
die Elektronen nicht nur. Wir müssen zusätzlich den Fluss
der Elektronen nach ihren beiden entgegengesetzten Spin-
richtungen unterscheiden. Dies kann man als zwei Kanäle
beschreiben, die jeweils Information tragen. Es ist sogar
möglich, dass gar keine elektrische Ladung, sondern nur
Spin, also Drehimpuls, des Elektrons transportiert wird. In
diesem Fall sprechen wir von einem reinen Spinstrom. Er
transportiert nur magnetische Polarisation und führt zu ei-
ner Umverteilung von Elektronen einer Spinsorte. Dadurch
entsteht am Ende der Probe eine durch den Spinstrom ak-
kumulierte Magnetisierung.
Der Seebeck-Effekt
Ein elektrisches Feld lässt in einem leitenden Material einen
elektrischen Strom fließen. Was passiert aber, wenn wir die-
sen Festkörper in einen Temperaturgradienten bringen? Im
Experiment erwärmen wir dazu einfach eines seiner En-
den. Dies kurbelt einen Wärmefluss durch den Festkörper
an, der den Temperaturgradienten ausgleichen will. Bei elek-
trisch leitenden Materialien tragen die Elektronen zum gro-
ßen Teil diesen Wärmefluss. Damit treibt der Temperatur-
unterschied also einen Ladungsstrom an. Die Folge ist ein
elektrisches Feld zwischen den verschieden warmen Pro-
benenden. Also können sowohl ein Temperaturgradient als
auch ein elektrisches Feld (Potentialgradient) einen elek-
trischen Ladungsstrom erzeugen. Umgekehrt ruft ein elek-
trisches Feld auch einen Wärmestrom hervor.
Messen wir eine Spannung, die durch einen Tempera-
turgradienten aufgebaut wird, so wird dies als Seebeck-Ef-
fekt bezeichnet. Umgekehrt heißt ein im elektrischen Feld
erzeugter Wärmestrom, der für eine Temperaturdifferenz
an beiden Enden eines Materials sorgt, Peltier-Effekt. Die
Koeffizienten, die die beiden Effekte beschreiben, sind ver-
wandt. Dabei kann zur experimentellen Bestimmung (an-
ders als in Abbildung 1 dargestellt) der Seebeck-Koeffizient
S
A
als Volumeneigenschaft des Materials A nur zwischen
zwei definierten Temperaturpunkten gemessen werden.
Um einen Einfluss der Zuleitungen des Messgeräts auszu-
schalten, müssen dabei beide Messkontakte (Material B) auf
der gleichen Temperatur gehalten werden. Daraus ergibt
sich die bekannte Konfiguration zur Messung der Seebeck-
Koeffizienten S
A
und S
B
mit der Kombination zweier Mate-
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 289
Der Seebeck-Effekt als Spannungsquelle im 18. Jahrhundert (Museo Galileo, Florence –
Photo Franca Principe, Sabina Bernacchini).
cke im Halbleiter, entsteht Elektronenleitung. An der unte-
ren Kante der Energielücke wird eine Leitung von Lochzu-
ständen erzeugt (Abbildung 1, unten rechts). Auch in Me-
tallen kann man den Seebeck-Effekt durch ein spezielles
„Design“ der Zustandsdichten an der Fermi-Energie ver-
größern.
Leider ist diese Nutzung des Seebeck-Effekts zurzeit den-
noch nicht effektiv im Vergleich mit anderen Methoden,
aus Wärme elektrische Leistung zu generieren. Ihr Wir-
kungsgrad liegt meist unter 5 bis 10 %, im Labor liegt der
Rekordwert bei 12 %. Dies liegt daran, dass ein nicht zu ver-
nachlässigender Teil der Wärmemenge über Gitterschwin-
gungen (Phononen) transportiert wird und dem Aufbau der
elektrischen Spannung verloren geht. Es gibt aber neue na-
nostrukturierte Materialien, die diesen Wärmetransport
durch Phonon effektiv blockieren, aber große Seebeck-Ko-
effizienten und gute Leitfähigkeit aufweisen.
Die Vorteile der Seebeck-Elemente liegen in ihrer per-
fekten Fähigkeit zur Integration in Halbleiterstrukturen und
die Möglichkeit, sie bis in den Nanometerbereich hinein zu
miniaturisieren. Sie kommen zudem ohne bewegliche Tei-
le aus, die bei mechanischen Wärmekraftmaschinen not-
wendig sind. Kommerzielle Spannungsquellen auf Basis des
Seebeck-Effekts liefern bei Temperaturunterschieden von
100 K Spannungen im Bereich von 10 V, dies bei einer Leis-
tung von mehreren Watt und maximalen Kurzschlussströ-
men von 1 bis 3 A.
Der Weg zur Spinkaloritronik
Interessanterweise hat schon Seebeck bei seiner Entde-
ckung 1821 den beobachteten thermoelektrischen Effekt
mit Magnetismus in Verbindung gebracht. Hans Christian
Oersted machte ungefähr zur gleichen Zeit die Entdeckung,
dass ein stromdurchflossener Leiter ein Magnetfeld erzeugt,
was für Furore sorgte. Er nannte diesen Effekt, der über ein
Magnetfeld um den Leiter nachgewiesen werden konnte,
Thermomagnetismus. Genau dieser Zusammenhang von
thermischen Gradienten und Spintransport führt zum noch
jungen Gebiet der Spinkaloritronik.
Jean-Philippe Ansermets Team von der École Polytech-
nique Fédérale de Lausanne machte Mitte des vergangenen
Jahrzehnts erste Experimente mit Temperaturgradienten in
magnetischen Nanoelementen, genauer Nanodrähten [2].
Die Schweizer beobachteten dabei einen Einfluss der Mag-
netisierungsrichtung auf die Seebeck-Spannung. Das führt
zu der Frage, wie die magnetischen Eigenschaften des Spin-
transports, also der Transport von Elektronen in den vorhin
diskutierten beiden Spinkanälen des magnetischen Materi-
als, in Verbindung mit der thermisch induzierten Diffusion
von Ladungsträgern stehen können.
Dazu müssen wir die Spinsorte betrachten, die gegebe-
nenfalls den thermischen Transport dominiert. Sind beide
Transportkanäle gleich effizient, so erzeugt ein Tempera-
turgradient keine Spinpolarisation. Sorgt die elektronische
Struktur des Materials aber dafür, dass ein Spinkanal über
große Seebeck-Koeffizienten verfügt, der andere über klei-
ne, dann fließt ein Spinstrom zur kälteren Seite der Probe.
Es bildet sich eine Magnetisierungsdifferenz aus, die durch
die hier spinabhängigen Seebeck-Koeffizienten für die je-
weilige Spinrichtung des Materials charakterisiert ist. Das ist
analog zur vorhin diskutierten Ladungsdifferenz durch ei-
nen Ladungsstrom, der über den Seebeck-Effekt für eine
elektrostatische Potentialdifferenz sorgt.
Im Vergleich zu Metallen haben Halbleiter sehr hohe
Seebeck-Koeffzienten. Die Asymmetrie der Zustandsdichte
an der Fermi-Energie ist dabei Voraussetzung für große Ther-
mospannungen. Sie sorgen für den maximalen Aufbau von
negativer oder positiver Ladung im thermischen Gradien-
ten. In Analogie dazu kann man sich überlegen, wie in ei-
nem ferromagnetischen Material der spinabhängige See-
beck-Effekt maximiert werden kann. Auch hier muss die
Anzahl der Zustände um die Fermi-Energie asymmetrisch
sein, also zum Beispiel halbleitende Eigenschaften haben.
Daher sind die magnetischen Materialien, die hier die größ-
ten Effekte liefern, sogenannte Halbmetalle. Diese zeigen
ähnliche Eigenschaften wie Halbleiter, allerdings nur für ei-
ne Spinrichtung. Sie sind also nur in einem der beiden Spin-
kanäle halbleitend. Abbildung 2 zeigt die elektronische
Struktur für beide Spinkanäle, rechts der Fall mit einem
halbleitenden Kanal. Dies führt beim Erwärmen des ferro-
290 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
ABB. 1 SEEBECK-EFFEKT
Seebeck-Effekt in Metallen und Halbleitern. Oben: Schematische Darstellung der
Elektronenstruktur (Zustandsdichte n). Dunkel: Bereich um die Fermi-Energie, in
dem Ladungsträger zur Leitfähigkeit und zum Seebeck-Effekt beitragen. In einem
Material, in dem gleich viele Ladungsträger oberhalb und unterhalb der Fermi-
Energie angeregt sind, kompensieren sich negative und positive thermische Strö-
me. Es fließt kein Nettostrom, wenn deren Zustandsdichte symmetrisch um die
Fermi-Energie ist. Rechts: Nur bei einer asymmetrischen Verteilung der Zustände
um die Fermi-Energie herum entsteht ein thermischer Ladungsträgerstrom. Der
Seebeck-Effekt ist daher zum Beispiel im rechts unten gezeigten Halbleiter mit
p-Dotierung (Loch +) sehr groß.
S P I NKAL ORI T RONI K F E S T KÖRPE RPHYS I K
magnetischen Materials zu einem großen Spinstrom J
S
und
einer Akkumulation von Magnetisierung m an einem Ende
der Probe.
Im Gegensatz zur Ladung bleibt die Orientierung des
Spins eines Elektrons bei Stößen nicht erhalten (Spin-Flip-
Streuung). Die transportierte Magnetisierung nimmt des-
halb mit wachsender Strecke ab. Der Ladungsstrom kann al-
so die Information der Spinrichtung nicht auf längere Stre-
cken transportieren. Daher kann man diese Spindiffusion
nur auf wenigen hundert Nanometern Distanz beobachten.
Dies konnte zum Beispiel die Gruppe um Bart van Wees an
der Universität von Groningen zeigen. Den Niederländern
gelang es, auch die zum spinabhängigen Seebeck-Effekt um-
gekehrte Erscheinung nachzuweisen. Dieser spinabhängige
Peltier-Effekt beschreibt das Kühlen durch spinpolarisierte
Ladungsströme [3]. Dessen Nachweis war zuvor schon An-
sermets Team gelungen, allerdings nur indirekt [2].
Überraschender Spin-Seebeck-Effekt
Einen regelrechten Boom des Forschungsgebietes löste aber
Eiji Saitoh von der Keio Universität in Yokohama zusammen
mit japanischen Kollegen 2008 durch eine Publikation in
Nature aus [3, 4]. Sie setzten einen mehrere Millimeter lan-
gen und wenige Nanometer dünnen, ferromagnetischen
Film einem Temperaturgradienten von einigen Grad aus.
Das erzeugte Spannungen von einigen Millivolt (Abbil-
dung 3, oben).
Die Ursache dieser Spannungen sind Spinströme J
S
, die
im magnetischen Material an der Grenzfläche fließen. Ihre
Detektion ist allerdings nicht einfach, denn Spinströme las-
sen sich nicht wie Ladungsströme durch ein Voltmeter mes-
sen. Als Messgerät dient meist ein dünner Platinfilm. Dieser
fungiert als m-Meter zur Messung der akkumulierten Spin-
polarisation beziehungsweise Magnetisierung (Abbil-
dung 3). Er konvertiert Spinströme, die von der Akkumula-
tion der Magnetisierung m im thermischen Gradienten an
den jeweiligen Enden der Schicht herrühren, in Ladungs-
ströme. Der Spinstrom kann so als Spannung U am Platin-
kontakt abgegriffen werden.
Ursprünglich wurde diese Entdeckung dadurch inter-
pretiert, dass die Spinströme thermisch getrieben sind. Wei-
tere Experimente präzisierten das Bild, denn auch in iso-
lierenden Materialien wurde dieser sogenannte Spin-See-
beck-Effekt entdeckt. Folglich müssen reine Spinwellen den
Effekt erzeugen. Diese Magnonen sind kollektive magneti-
sche Anregungen des Festkörpers, die nur thermisch ver-
ursacht werden. Deshalb gibt es den Spin-Seebeck-Effekt
auch in Isolatoren. Das unterscheidet ihn von „spinabhän-
gigen spinkalorischen Effekten“, die – wie im Abschnitt über
Spintronik geschildert – von einer Spinabhängigkeit des
elektrischen Ladungstransports herrühren. Letztere können
damit nur in elektrisch leitfähigen Materialien auftreten.
Der Spin-Seebeck-Effekt benötigt also keine elektrische
Leitfähigkeit, sondern nur eine thermische Auslenkung der
Magnetisierung der Spinwellen. Dafür sorgt der Tempera-
turgradient durch das Heizen eines Endes der Probe. Die ak-
tuelle Forschung untersucht derzeit den gegensätzlichen
Effekt, den Spinwellen-Peltier-Effekt. Hier sorgt umgekehrt
ein reiner Spinstrom, der nur durch Spinwellenanregungen
erzeugt wird, für einen Wärmefluss.
Spinabhängige spinkalorische Effekte in elektrisch leit-
fähigen Materialien kommen in verschiedenen Geometrien
in einem Magnetfeld vor. Analog zum Hall-Effekt, bei dem
ein Magnetfeld einen Strom fließender Elektronen ablenkt,
gibt es diesen Effekt auch bei thermischen Ladungsströ-
men. Er wurde jetzt in ferromagnetischen Filmen beob-
achtet. Der Effekt erlaubt es, über thermische Spannungen,
die von der lokalen Magnetisierungsrichtung abhängen, die
Struktur der Magnetisierung im Material abzubilden (Ab-
bildung 3, unten) [3].
Es ist verlockend, diese zusätzlichen Freiheitsgrade der
Magnetisierung auszunutzen, um Thermospannungen in Na-
nobauelementen zu manipulieren. Natürlich führt das zu
der Frage, ob man die Effizienz des Seebeck-Effekts so stei-
gern kann, dass er technisch besser nutzbar wird. Saitoh
schlägt zum Beispiel vor, über den Spin-Seebeck-Effekt aus
der Abwärme des Körpers in der Kleidung Thermoströme
zu generieren. Man könnte die Leiterbahnen so im Gewe-
be verlegen, dass sie über ihre gesamte Länge einen Wär-
megradienten zwischen Innerem und Äußerem erfahren,
der senkrecht zu ihrer Richtung steht. Ein solches ausge-
dehntes Thermoelement wäre in der Lage, den elektrischen
Energiebedarf kleinerer Mobilgeräte zu decken. Gegenüber
nichtmagnetischen Seebeck-Elementen hätte das Vorteile,
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 291
ABB. 2 SPI NABHÄNGI GER SEEBECK-EFFEKT
Spinabhängiger Seebeck-Effekt in Ferromagneten (links) und Halbmetallen
(rechts): Der Ladungstransport wird spinabhängig, beide Spinrichtungen sind hier
rot und blau eingezeichnet. Im dunklen Bereich um die Fermi-Energie herum tragen
Elektronen der beiden Spinrichtungen zur Leitfähigkeit und zum Seebeck-Effekt bei.
Im ersten Fall kompensieren sich allerdings die beiden Elektronenströme für beide
Spinrichtungen. Erst eine asymmetrische Verteilung der Zustände um die Fermi-
Energie herum generiert einen thermischen Spinstrom. Der spinabhängie Seebeck-
Effekt ist groß, wenn ein Spinkanal halbleitend wird (rechts beim Halbmetall).
denn von diesen müssten viele für den gleichen Effekt in
Reihe geschaltet werden.
Spinelektronische Bauelemente
Bevor wir uns mögliche Anwendungen der Spinkaloritronik
in der Mikroelektronik anschauen, rufen wir uns Anwen-
dungen der Spinelektronik in Erinnerung [1]. Das Bauele-
ment, das wir fast täglich unbemerkt verwenden, ist der Le-
sekopf in einer modernen Festplatte. Er besteht aus zwei fer-
romagnetischen Elektroden, die durch eine ultradünne
Isolatorschicht getrennt sind. Durch diese Isolatorschicht
kann trotzdem ein Strom fließen, da die Elektronen die Ener-
giebarriere quantenmechanisch durchtunneln können. Das
Besondere an diesem Aufbau ist nun, dass der elektrische
Widerstand dieses Systems von der magnetischen Ausrich-
tung der Elektroden abhängt.
Dieser Effekt heißt Tunnel-Magnetowiderstand [6]. Ein-
fach ausgedrückt wirkt das Streufeld eines Bits auf der Fest-
platte auf die Magnetisierung einer Elektrode im Lesekopf
und sorgt zum Beispiel für eine parallele Ausrichtung für
Null und eine antiparallele Ausrichtung für Eins. Diese In-
formation kann der Lesekopf allerdings nur zuverlässig le-
sen, wenn die Magnetisierungsrichtung der Elektrode beim
Gleiten über die Platte fixiert bleibt, und dafür sorgt der in
292 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
ABB. 3 SPI N-SEEBECK-EFFEKT
Oben: Experiment von Eiji Saitoh und Kollegen: In einer wenige Mikrometer dünnen, 8 mm langen Schicht aus einem ferromag-
netischen, isolierenden Oxid Lanthan-Yttrium-Eisen-Granat (LaY
2
Fe
5
O
12
) entsteht eine Thermospannung von mehreren Milli-
volt, wenn ein Ende gegenüber dem anderen (auf Zimmertemperatur) um bis zu rund 20 °C erwärmt wird. Dabei ändert sich
das Vorzeichen der Thermospannung von einem Ende zum anderen mit der Magnetisierung. Die Spinströme J
S
, die an der
Grenzfläche erzeugt werden, ändern ihr Vorzeichen, wenn die Magnetisierung m gedreht wird (aus [3]). In dieser Konfiguration
ist der Temperaturgradient ∇T parallel zur Magnetisierung m (longitudinale Geometrie). Als Detektor für die Spinströme J
S
dient ein 15 nm dicker Pt-Streifen (blau, m-Meter). Dieser wandelt die Spinströme über den inversen Spin-Hall-Effekt (ISHE)
in Ladungsströme um, die dann wie eine normale Spannung das elektrische Feld E
ISHE
erzeugen und an beiden Enden des Pt-
Streifens abgegriffen werden können. Unten: Diese thermischen Spinströme können in verschiedenen Geometrien erzeugt
werden, im zweiten Beispiel verursacht ein Temperaturgradient ∇T senkrecht zur Magnetisierung m (transversale Geometrie)
einen Spinstrom J
S
. Das Vorzeichen des Spinstroms, der im Pt-Film in eine Spannung (E-Feld E
ISHE
) umgewandelt wird, hängt von
der lokalen Magnetisierungsrichtung ab (Rot-Blau-Kontrast siehe Farbskala) (aus [4]).
S P I NKAL ORI T RONI K F E S T KÖRPE RPHYS I K
dieser Zeitschrift kürzlich vorgestellte Exchange-Bias-Effekt
[7]. Auf gleiche Art lassen sich Bits in magnetischem Ran-
dom Access Memory (MRAM) auslesen und speichern (Ab-
bildung 4).
Nun können wir uns die Frage stellen, warum ein ther-
moelektrischer Effekt technisch günstiger sein kann als das
konventionelle Lesen und Speichern von Information im
MRAM. Für die nachfolgende Betrachtung müssen wir zwei
grundsätzliche Überlegungen im Gedächtnis behalten:
1. Es ist nicht möglich, einen elektrischen Widerstand oh-
ne Stromfluss zu messen, dafür ist elektrische Energie
nötig.
2. Herkömmliche Elektronik arbeitet mit elektrischen
Spannungen, die besonders einfach weiter verarbeitet
werden können.
Tunnel-Magneto-Seebeck-Effekt
Unter Berücksichtigung dieser Überlegungen betrachten
wir wieder ein Speicherelement, das auf dem Tunnel-Mag-
netowiderstand basiert. An diesem ist nun jedoch keine
Spannung angelegt, um den elektrischen Widerstand zu
messen, sondern ein Temperaturgradient. Die beiden mag-
netischen Elektroden haben also unterschiedliche Tempe-
raturen (Abbildung 5). Das führt zum Seebeck-Effekt, es
baut sich über die Tunnelbarriere eine elektrische Span-
nung auf. Die Potentialdifferenz kann man zum Beispiel mit
einem Voltmeter messen. Dies entspricht dem herkömmli-
chen Seebeck-Effekt, dessen Spannung hier an einer Tun-
nelbarriere generiert wird.
2011 wurde jedoch ein sehr interessanter, neuer Effekt
vorausgesagt: Christian Heiligers Gruppe von der Universi-
tät Gießen berechnete unterschiedliche Seebeck-Koeffi-
zienten für verschiedene magnetische Ausrichtungen der
ferromagnetischen Elektroden [8]. Demnach sollte die pa-
rallele und die antiparallele Orientierung der Elektroden je-
weils unterschiedliche Thermospannungen hervorbringen.
In Analogie zum bekannten Tunnelmagnetowiderstand wird
dieser Effekt Tunnel-Magneto-Seebeck-Effekt genannt. Dies
ist schematisch in Abbildung 5 gezeigt und entspricht au-
ßerdem genau der Definition eines spinkaloritronischen
Bauelements. Ein elektronisches Bauteil nutzt den Spin – in
diesem Fall über die Magnetisierung der Elektroden – und
befindet sich dabei in einem Temperaturgradienten. Damit
kann man Thermospannungen magnetisch gesteuert schal-
ten und verstärken.
Für diese Tunnelbauelemente werden hohe Seebeck-
Koeffizienten vorausgesagt, die denjenigen in Halbleitern
vergleichbar sind. Das An- und Ausschalten der Seebeck-
Spannung am Tunnelkontakt sorgt für eine relative Ände-
rung von bis zu 1000 % (Tabelle 1). Experimentell konnte
dieser Effekt bereits kurz nach der Vorhersage nachgewie-
sen werden [9, 10]. Der Temperaturunterschied wurde da-
bei in beiden Experimenten unterschiedlich erzeugt, zum
Beispiel durch den Beschuss der Oberfläche mit einem
hochenergetischen Laserpuls oder durch Heizen über eine
Leiterbahn am Element. Die Herausforderung: Der Tempe-
raturunterschied muss sich über die nur wenige Atomlagen
dünne Tunnelbarriere einstellen. Ultrakurze Heizpulse
schaffen trotzdem durchaus Differenzen von 10 K.
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 293
ABB. 4 MAGNETI SCHES TUNNELELEMENT
In einem magnetischen Tunnelelement hängt der elektrische Widerstand davon ab,
wie die Magnetisierung der Elektroden orientiert ist. Unten: Eine parallele Ausrich-
tung hat allgemein einen niedrigen Widerstand, eine antiparallele Ausrichtung
einen hohen, H: Magnetfeldstärke.
Absolute Änderung/μV/K 150 –12,1 –8,7 bei RT 230 bis zu 1000
(bis +17 für 475 K)
Relative Änderung/% 1000 –55 –8 bei RT 17–40 40
(bis 20 für 475 K)
Theoretische und experimentelle Werte des Magneto-Seebeck-Effekts in verschiedenen Tunnelelementsystemen mit einer Tunnelbarriere aus MgO
oder Al
2
O
3
; ML: Monolayer, Schicht aus einer Atomlage.
Differenz der Fe/MgO/Fe Co-Fe-B/ Co-Fe-B/ Co-Fe-B/ Ni
80
Fe
20
/ Al
2
O
3
/
Seebeck- oder 10 ML MgO/ 10 ML MgO/ 7 ML MgO/ Co
90
Fe
10
[11]
Koeffizienten Co/MgO/Co Co-Fe-B, Co-Fe-B [9] Co-Fe-B [10]
Theorie [8] Theorie für
Co
0,5
Fe
0,5
[9]
TAB. 1 MAGNETO-SEEBECK-EFFEKT
Die Seebeck-Effekte, die für solche Bauelemente vor-
hergesagt werden, sind sehr groß und mit den Seebeck-Ko-
effizienten in Halbleitern vergleichbar. Die Ursache liegt in
den magnetischen Eigenschaften der Tunnelbarriere: Ihre
elektronische Struktur ähnelt den vorhin diskutierten Halb-
metallen, die potenziell große Spin-Seebeck-Effekte zeigen
können (Tabelle 1). Erhöht sich der absolute Wert der See-
beck-Spannung beim Schalten von paralleler zu antiparal-
leler Ausrichtung der Magnetisierung in den Tunnelektro-
den, heißt dies positiver Magneto-Seebeck-Effekt, umgekehrt
heißt er negativer Magneto-Seebeck-Effekt.
Das erlaubt es, über das Design der Tunnelbarriere und
des Elektrodenmaterials das genaue Verhalten maßzu-
schneidern, was vielfältige zukünftige Anwendungen er-
möglicht. Eine einfache Optionen ist die Komposition der
Elektrodenmaterialen: zum Beispiel reines Cobalt, reines Ei-
sen oder eine Cobalt-Eisen-Legierung. Abbildung 6 zeigt ein
solches Beispiel in einer Aufnahme mit einem Transmissi-
ons-Elektronenmikroskop (TEM). Die Tunnelbarriere aus
Magnesiumoxid (MgO) ist 2,1 nm dünn, was zehn Atomla-
gen entspricht, und die Elektroden bestehen aus Cobalt-Ei-
sen-Bor (Co-Fe-B). Die Dicke der Tunnelbarriere bietet eine
andere Möglichkeit des Designs.
Damit kann man über den Temperaturunterschied zwi-
schen den beiden Elektroden die Größe der Thermospan-
nung einstellen, über die absolute Arbeitstemperatur zu-
sätzlich noch den Seebeck-Koeffizienten. Dabei ist sogar
ein Umkehren des Vorzeichens möglich, und die relative
Änderung kann kleiner oder größer eingestellt werden.
Energiesparpotenzial
Rufen wir uns nun das warm werdende Notebook und die
zwei Überlegungen aus dem letzten Abschnitt Erinnerung.
Hat man die Abwärme eines Prozessors zur Verfügung, dann
benötigt man mit einem eben diskutierten spinkaloritroni-
schen Bauelement für das Auslesen von gespeicherten Da-
ten keine Leistung – das funktioniert auch für das Schrei-
ben von Daten. Schließlich haben wir eine thermisch an-
getriebene Spannungsänderung zur Verfügung und keine
elektrische Widerstandsänderung. Da wir trotzdem eine
elektrische Spannung am Ausgang des Bauelements erhal-
ten, können wir es einfach in eine herkömmliche Elektro-
nik integrieren. Damit können integrierte spinkaloritroni-
sche Bauelemente in Zukunft die Effizienz von Elektroniken
steigern.
Eine große Hoffnung, die in viele thermokalorische und
-elektrische Effekte und damit auch in die Spinkaloritronik
gesetzt wird, ist ihr Potenzial, Energie einzusparen. In vie-
len technischen Prozessen, zum Beispiel in Verbrennungs-
motoren, entsteht ein gewisser Anteil Abwärme. Die darin
gespeicherte Energie verpufft im Allgemeinen an die Um-
gebungsluft. Diese Abwärme sorgt für eine Temperaturdif-
ferenz, und davon kann man über den Seebeck-Effekt einen
Teil in eine elektrische Spannung umwandeln. So wird ein
gewisser Anteil der Abwärme zu Nutzenergie.
Mit spinkaloritronischen Rechnerchips könnte man die
Bordelektronik eines Autos allein durch temperaturgetrie-
bene Ströme arbeiten lassen. Im Mobiltelefon oder Note-
book könnte man damit die Effizienz erhöhen und dadurch
am Ende Energie einsparen. Das verlängert nicht nur die Bat-
terielaufzeit, sondern reduziert auch den Aufwand für die
Kühlung.
294 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
ABB. 5 DATENSPEI CHER MI T SEEBECK-EFFEKT
Ein magnetisches Tunnelelement zeigt verschiedene Seebeck-Spannungen, je nach
Orientierung der Magnetisierung der Elektroden. Dazu muss eine Elektrode des
Tunnelelements gegenüber der anderen erwärmt werden. Die Seebeck-Spannung
U
p
für parallel und U
ap
für antiparallel ändert sich beim Schaltprozess. Im hier
gezeigten Fall wird der Seebeck-Koeffizent beim Schalten von U
p
in U
ap
kleiner, es
herrscht ein negativer Magneto-Seebeck-Effekt.
Abb. 6 TEM-Aufnahme von einer 2,1 nm dünnen Tunnelbar-
riere aus zehn Atomlagen Magnesiumoxid (MgO), die Elek-
troden sind aus Cobalt-Eisen-Bor (Co-Fe-B) [9].
S P I NKAL ORI T RONI K F E S T KÖRPE RPHYS I K
Zusammenfassung
Der Seebeck-Effekt wandelt einen Temperaturgradienten in
eine Thermospannung um, umgekehrt funktioniert der Pel-
tier-Effekt. Kürzlich wurden in Nanostrukturen neuartige, ver-
wandte Effekte entdeckt. Dazu gehört der Spin-Seebeck-Ef-
fekt in magnetischen Filmen und Tunnel-Magneto-Seebeck-Ef-
fekt in magnetischen Tunnelelementen. Der Effekt ist in den
nanoelektronischen Bauelementen stark genug für technische
Anwendungen. Die Grundlagenforschung verspricht neue Er-
kenntnisse über das Zusammenspiel von elektrischen und
thermischen Strömen mit dem Elektronenspin. In der Technik
könnte die Spinkaloritronik bisher ungenutzte Abwärme, et-
wa von Automotoren oder Mikroprozessoren, zur Span-
nungsquelle für Bordelektroniken oder mobile Anwendungen
machen.
Stichworte
Spinkaloritronik, Spinkalorik, Spinelektronik, Seebeck-Effekt,
Spin-Seebeck-Effekt, Tunnel-Magneto-Seebeck-Effekt.
Literatur
[1] S. Steinmüller, K. Lee, T. Bland, Phys. Unserer Zeit 2008, 39(6), 274.
[2] L. Gravier et al., Phys. Rev. B 2006, 73, 052410.
[3] G. E. W. Bauer, E. Saitoh, B. van Wees, Nature Mater. 2012, 11, 391.
[4] K. Uchida et al., Nature 2008, 455, 778.
[5] M. Weiler, et al., Phys. Rev. Lett. 2012, 108, 106602.
[6] J. Wecker, R. Kinder, R. Richter, Phys. unserer Zeit 2002, 33(5), 210.
[7] A. Ehrmann, T. Blachowitz, Phys. unserer Zeit 2012, 43(2), 72.
[8] M. Czerner, M. Bachmann, C. Heiliger, Phys. Rev. B 2011, 83,
132405.
[9] M. Walter et al., Nature Mat. 2011, 10, 742.
[10] N. Liebing et al., Phys. Rev. Lett. 2011, 107, 177201.
[11] W. Lin et al., Nature Comm. 2012, 3, 744.
Die Autoren
Markus Münzenberg studierte Physik an der Georg-
August-Universität Göttingen. Nach einem einjähri-
gen Forschungsaufenthalt in Cambridge (USA)
kehrte er nach Göttingen zurück als Juniorprofessor.
Seit 2009 hat er dort eine außerplanmäßige
Professur im I. Physikalischen Institut.
Andy Thomas studierte Physik an der Universität
Bielefeld. Nach einem zweijährigen Forschungsauf-
enthalt in Cambridge (USA) kehrte er nach Bielefeld
zurück und leitet als Privatdozent seit 2009 eine
Nachwuchsforschergruppe des Landes Nordrhein-
Westfalen.
Anschrift
Prof. Markus Münzenberg, Georg-August-Universität
Göttingen, I. Physikalisches Institut,
Friedrich Hund Platz 1, 37077 Göttingen.
mmuenze@uni-goettingen.de
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 295
Nähe. Der Schwerpunkt S verändert sich nur sehr wenig,
weil die Bewegung des hinteren Fußes und dessen Masse
im Vergleich mit der übrigen Masse relativ klein sind. Die
Unterseite der Füße ist konvex (teilzylinderförmig) geformt,
sodass die Ente darauf abrollen und schaukeln kann. Die
Schwingungsdauer der Ente nach vorne und hinten ist et-
was größer als die Schwingungsdauer des Fußes. Dadurch
wird erreicht, dass der hintere Fuß beim Nachvorneschau-
keln der Ente schnell genug nachschwingen kann.
Die Ente befindet sich auf einer Rampe mit einer Nei-
gung von etwa acht Grad. Bei etwa zwei Grad mehr oder
weniger läuft sie nicht mehr, weil dadurch die Abstimmung
der Schwingungsdauern zu stark gestört wird.
Sehr empfindlich reagiert die Ente auch auf eine Ver-
änderung des Schwerpunkts, indem man beispielsweise ei-
ne kleine Masse (fünf Gramm reichen schon aus) am Schna-
bel oder Schwanz anbringt. Dadurch wird wie bei der Än-
derung der Neigung ebenfalls die Abstimmung der
Schwingungsdauern aufeinander gestört. Teilweise kann
man daher diese Störung durch eine Anpassung der Nei-
gung kompensieren, so dass die beschwerte Ente bei an-
derer Neigung wieder zum Laufen gebracht werden kann.
Bei gekauften Exemplaren inklusive Rampe sind Schwer-
punkt und Rampenneigung optimal aufeinander abge-
stimmt. Konstruiert man selbst ein Lauftier, ist das Austa-
rieren der Lage des Schwerpunkts bei gegebener Neigung
der Rampe extrem wichtig (siehe „Eigenbau“, S. 298).
Der Bewegungsablauf der Wackelente ist aus Abbildung
1 ersichtlich. Die Ente rollt in a) gerade die Füße nach hin-
ten ab. Dadurch verlagert sich der Schwerpunkt um etwa
5 mm nach hinten und liegt über der Spitze des hinteren
Spielwiese
Lauftiere:
vom Spielzeug zumRoboter
CHRISTIAN UCKE | H. JOACHIM SCHLICHTING
Lauftiere wackeln eine schiefe Ebene hinunter. Schon Klein -
kinder sind fasziniert von diesem über hundert Jahre alten
Spielzeug. Ingenieure beschäftigen sich aktuell damit, da sich
mit dem dahinter stehenden Prinzip überraschend energie -
sparende Konstruktionen von Laufrobotern realisieren lassen.
296 Phys. Unserer Zeit 6/2012 (43) © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
DOI: 10.1002/ piuz.201201311
W
ie bei vielen Spielzeugen ist der Ursprung von Lauf-
tieren nicht genau überliefert. Bekannt sind jedenfalls
Exemplare vom Ende des 19. Jahrhunderts. In der Spiel-
zeugindustrie des Erzgebirges werden sie noch heute in
mannigfaltigen Ausführungen in Holz produziert. Ein typi-
scher Vertreter ist die Wackelente (Abbildung 1). Durch
leichtes Antippen am Schwanz startet die Wackelente und
bewegt sich leicht nach vorn und hinten schaukelnd
eine schiefe Ebene hinunter. Eine Videoaufnahme mit
der Laufente (Waddling Duck) lässt sich auf www.phiuz.de,
Special Features, Zusatzmaterial zu den Heften herunterla-
den und einschließlich Zeitlupenauf nahmen bei YouTube
ansehen [1].
Analyse der Laufbewegung der Laufente
Die Konstruktion der Wackelente ist genial einfach. Der vor-
dere Fuß ist mit dem Entengehäuse fest verbunden. Der
hintere Fuß ist um den Punkt S drehbar, kann frei schwin-
gen, und der maximal mögliche Ausschlag ist durch einen
Stopper begrenzt. Zugleich stellt S den Schwerpunkt dar.
Der Schwerpunkt muss nicht unbedingt mit dem Dreh-
punkt zusammenfallen, befindet sich aber meist doch in der
Online-Ausgabe unter:
wileyonlinelibrary.com
Download
Abb. 1 Vier Phasen des Bewegungsablaufes der Wackelente. Die Fotos wurden aus einem Video entnommen. Ein vollständiger
Zyklus wird in 0,57 s durchlaufen.
ne konstante Schrittfrequenz einzuregeln, wobei Störungen
(beispielsweise leichtes Antippen der Ente, Beschleunigung
oder Abbremsen durch Inhomogenitäten auf der schiefen
Ebene) durch Rückkopplungsvorgänge immer wieder ab-
gebaut werden. Dieses komplexe Selbstorganisationsver-
halten kommt in einer nichtlinearen Dynamik des Systems
zum Ausdruck und ist daher mathematisch sehr an-
spruchsvoll. Eine ausführliche theoretische Beschreibung
sowohl der Laufente wie des Pickspechts findet man in [3].
Zwei nebeneinander befindliche Füße
Eine richtige Ente hat natürlich zwei nebeneinander be-
findliche Füße, ebenso wie viele andere Tiere und der
Mensch. Lauftiere als Spielzeug mit nebeneinander liegen-
den Füßen sind hingegen eher selten. Ihr Aufbau ist etwas
komplizierter als bei Vierbeinern, da die Wackelbewegung
nicht nur nach vorne und hinten, sondern auch nach links
und rechts stattfindet. Beide Füße sind frei und unabhän-
gig voneinander schwingend beweglich.
Befindet sich das Lauftier auf einer schiefen Ebene zu-
nächst auf dem linken Fuß (Abbildung 2a), so kann der rech-
te Fuß frei nach vorne schwingen (Abbildung 2b). Sodann
schaukelt das Objekt nach rechts auf den rechten Fuß (Ab-
bildung 2c), woraufhin der linke Fuß nach vorne schwin-
gen kann (Abbildung 2d). Die Füße müssen dementspre-
chend in zwei zueinander senkrechten Richtungen konvex
geformt sein (beispielsweise wie Kugelabschnitte). Die
Schwingungsdauern der Hin- und Herbewegung des ganzen
S P I E LWI E S E L AUF T I E RE
Fußes. Der vordere Fuß – fest verbunden mit der ganzen En-
te – kann sich nun in b) von der Unterlage lösen. Die durch
die schiefe Ebene bedingte rückwirkende Kraft führt dazu,
dass sich der Schwerpunkt anschließend wieder um etwa
30 mm nach vorn bewegt und sich dem Fortschreiten ent-
sprechend etwas senkt. Gleichzeitig schwingt der vom Bo-
den gelöste vordere Fuß in c) nach vorne aus. Durch das
Senken des Schwerpunkts setzt der vordere Fuß auf, bevor
er Gelegenheit hat, wieder zurückzuschwingen. Gleichzei-
tig löst sich der hintere Fuß von der Unterlage und schwingt
nach vorn, was gleichbedeutend damit ist, dass die Ente ins-
gesamt einen Schritt weiter gekommen ist. Beim Anstoßen
des hinteren an den vorderen Fuß in d) gibt es zusätzlich
einen kleinen Schubs nach vorne. Der Schwerpunkt hat
sich auf einer schwach wellenförmig geneigten Kurve um
etwa 3 mm nach unten bewegt, wobei die Ente insgesamt
um circa 2 cm vorangekommen ist. Die dafür umgesetzte
potentielle Energie ist wegen der geringen Abwärtsbewe-
gung des Schwerpunkts sehr klein.
In gewisser Hinsicht ähnelt diese Bewegung derjenigen
des an einer Stange hinunter laufenden „Pickspechts“ [2].
Auch er weist eine Phase auf, in der sich der Schwerpunkt
entgegengesetzt zur Richtung der Gesamtbewegung ver-
schiebt. Es gibt dort wie hier eine fast frei bewegliche Pha-
se und schließlich auch ein Gleitrutschen der Muffe an der
Stange. Solche Reib-Stoß-Effekte (Stick and Slip) liegen so
verschiedenen Vorgängen wie der Erzeugung von Tönen
bei Streichinstrumenten und der Plattentektonik bei Erd-
beben zugrunde. Aber auch in der Technik ist die Stick-Slip-
Bewegung von enormer Bedeutung, wobei es hier haupt-
sächlich darum geht, sie zu vermeiden, weil sonst ein Knar-
ren oder Quietschen auftritt.
Die Wackelente ist energetisch gesehen ein Modell für
eine dissipative Struktur, die von Energie „durchflossen“
wird. Die gesamte zugeführte potentielle Energie wird
durch Reibungsvorgänge dissipiert, so dass die Bewe-
gungsenergie im Mittel konstant bleibt. Die Dissipation wird
also konstruktiv zur Fortbewegung genutzt, wobei die ein-
zelnen Phasen der Dynamik in selbst organisierter Weise
aufeinander abgestimmt sind. Das System vermag dabei ei-
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 297
Abb. 2 Vier Phasen des Bewegungsablaufes des Walking Robots von Roberto Lou
Ma (Fotos einem Video auf [4] entnommen).
Abb. 3 a) Zweibeiniger
Bär Winnie-the-Pooh [6];
b) zweibeiniges Passive
Walking Toy [7].
Abb. 4 Dreibeiner aus
Legobauteilen [9]. >>
a) b)
Körpers und der Füße müssen sorgfältig aufeinander abge-
stimmt und etwa gleich groß sein, damit sich das Lauftier
koordiniert bewegen kann (Selbstorganisation). Die Schwin-
gungsamplituden nach links und rechts und vorne und hin-
ten dürfen nicht zu groß sein, da das Objekt sonst leicht um-
fallen kann. Deswegen ist die Schrittweite klein.
Das Prinzip dieses Spielzeugs wurde schon 1888 in den
USA unter dem Namen Walking Toy patentiert [5]. Viele
weitere Patente wurden seitdem für ähnlich geartete Spiel-
zeuge erteilt. Käuflich zu erwerben ist der in Abbildung 3a
dargestellte, zweibeinige Bär Winnie-the-Pooh [6]. Aufgrund
der symmetrischen Konstruktion der Füße läuft er vorwärts
wie rückwärts.
Seit einiger Zeit gewinnen derartige Spielzeuge an wis-
senschaftlicher Bedeutung, da gewisse Parallelen zum Gang
des Menschen ersichtlich sind [7]. In Abbildung 3b ist das
Prinzip dieser Konstruktion besonders deutlich zu sehen.
Noch menschlicher wird die Konstruktion durch die Ein-
führung von beweglichen Kniegelenken. Mit zusätzlichen
Motoren können derartige Maschinen roboterähnlich auf
einer Ebene laufen. Im Vergleich zu anderen Laufrobotern
brauchen sie erheblich weniger Energie und keine Stabili-
sierung durch aufwendige Regelelektronik [8].
Lauftiere mit drei Füßen
Drei Füße oder Beine klingt zunächst merkwürdig. Es gibt
keine Tiere mit drei Beinen, von verletzten Vierbeinern ein-
mal abgesehen. Was gemeint ist, zeigt Abbildung 4. Einer-
seits verfügt ein einbeiniger Mensch mit zwei Krücken über
drei Beine, zum anderen gibt es Modelle, die Ähnliches si-
mulieren (Abbildung 4). Wenige Spielzeuge sind mit sol-
chen Konstruktionen realisiert [10]. Meist sind die Beine
starr über eine Achse miteinander verbunden. Auch ein ein-
beiniger Mensch setzt faktisch beide Krücken gleichzeitig
voran und schwingt dann mit dem Körper zwischen den
aufgesetzten Krücken hindurch. Beim Laufen auf einer
schiefen Ebene sind diese Konstruktionen in Laufrichtung
relativ instabil, da sie leicht nach vorne fallen können. Auf
horizontaler Ebene gilt – ähnlich wie bei den Zweibeinern
mit nebeneinander liegenden Füßen –, dass der Schwer-
punkt bei kleinen Schrittweiten nur sehr wenig gehoben
und gesenkt wird und sie deshalb ebenfalls als Vorbild für
energiesparende Laufroboter dienen.
Lauftiere mit vier Füßen
Lauftiere mit vier Füßen sind weit verbreitet. Es gibt sie als
kleines Mitnahme-Plastikspielzeug, an denen vorne ein Fa-
den mit Gewicht angebracht ist. Als etwas edlere Ausfüh-
rung sind sie in Holz gestaltet (Abbildung 5). Man setzt
„Gwaggli“ auf einen ebenen Tisch und hängt die Ge-
wichtskugel über den Tischrand. Hier erfolgt die Energie-
zufuhr durch das Absenken des Gewichts über einen Seil-
zug und nicht durch eine schiefe Ebene. Hin und her schau-
kelnd setzt das Objekt beide Füße gleichzeitig jeweils
abwechselnd auf einer Seite voran, bewegt sich bis zum
Tischrand und bleibt hier in der Regel auch stehen, so als
wüsste es um die Gefahr des Abgrunds. Zum Tischrand hin
wird der Winkel zwischen Seil und Ebene immer größer, so-
dass die Translationskomponente immer kleiner wird.
Gleichzeitig bewirkt der zunehmende Zug nach unten, dass
das Lauftier schließlich nicht mehr in der Lage ist einen Fuß
zu heben, so dass es auf der Stelle fixiert wird. Ohne Ge-
wicht und Seil wackelt Gwaggli auch eine schiefe Ebene hi-
nunter.
Diverse Variationen von vierbeinigen Lauftieren aus
Holz stellt eine Firma aus dem Erzgebirge her [11]. Im Spiel-
zeugmuseum in Nürnberg ist ein vierbeiniges Lauftier des
italienischen Künstlers Agostino Venturini zu bewundern.
298 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
EI GENBAU
|
Einige Typen von Lauftieren lassen sich
mit nicht allzu viel Aufwand selbst
bauen. Der Vorteil des Selbstbaus
besteht darin, dass man einige Para-
meter wie Trägheitsmoment, Lage des
Schwerpunkts oder Schrittlänge
verändern kann.
Das Buch von Magdalen Bear [12]
enthält Ausschneidebögen aus leich-
tem Karton, die allerdings einige
Geduld und Erfahrung beim Zusam-
menbau erfordern. Immerhin sind da
Schere und Klebstoff ausreichend.
Die typische Laufente ist eines der
Designs.
Im Internet finden sich mehrere
Anleitungen. Der Nachbau einer
Laufente aus Holz ist in [13] beschrie-
ben. Ein Bauplan für ein wackelndes
Rhinozeros mit zwei Beinen aus Holz
ist in [14] ersichtlich. Dazu sind dann
schon einige Holzbearbeitungsgeräte
notwendig.
Etwas aufwendiger ist ein wackeln-
der Roboter aus Holz mit zwei neben-
einander liegenden Füßen [4]. Hier ist
eine Drehbank hilfreich.
Keine direkten Baupläne, jedoch
hinreichend anschauliche Videos
können die Eigenkreativität zum
Nachbau anregen [15]. Mit Legoteilen
lässt sich ein dreibeiniger Passive
Walker zusammenstecken [9]. Witt-
man [16] beschreibt den Bau von
vierbeinigen Lauftieren aus Holz.
Abb. 5 Das vierbeinige Lauftier Gwaggli.
S P I E LWI E S E L AUF T I E RE
Auch das Prinzip dieses Spielzeugs wurde als Quadruped
schon in dem zitierten Patent von 1888 beschrieben.
Die Lauffläche der Füße dieser Vierbeiner ist wie bei
den Zweibeinern mit nebeneinander liegenden Füßen kon-
vex in zwei zueinander senkrechten Richtungen (Kugelka-
lotte) gestaltet. Durch die feste Verbindung der beiden Kör-
per und zweier hintereinander liegender Fußpaare ist die
Stabilität in Laufrichtung sehr gut; senkrecht dazu allerdings
nicht besser als bei den Zweibeinern. Es kann leicht zu ei-
ner instabilen Schaukelbewegung kommen, die zum Um-
kippen führt.
Die Schwingungsdauern der Hin-und-Herbewegung des
Gesamtkörpers und der Fußbewegungen müssen sorgfältig
aufeinander abgestimmt und etwa gleich groß sein, damit
sich das Lauftier koordiniert bewegen kann. Bei vierbeini-
gen Tieren, die beide Beine phasengleich auf einer Seite be-
wegen, spricht man von Passgang.
Zusammenfassung
Lauftiere wackeln eine schiefe Ebene hinunter oder werden
durch ein sich absenkendes Gewichtsstück gezogen. Schon
Kleinkinder sind fasziniert von diesem über hundert Jahre al-
ten Spielzeug. Ingenieure beschäftigen sich aktuell damit, da
sich mit dem dahinter stehenden Prinzip überraschend ener-
giesparende Konstruktionen von Laufrobotern realisieren las-
sen. Eine genaue Analyse ergibt interessante Parallelen zur
Stick-and-Slip-Bewegung des Pickspechts.
Stichworte
Lauftiere, Pickspecht, Physik von Spielzeugen, Stick-Slip-Be-
wegung, Quadruped.
Literatur und Weblinks
Unter folgenden Stichwörtern findet man bei YouTube vie-
le Videos und Webseiten zum Thema: Lauftiere, Laufente,
waddling duck, ramp walking toy, passive walker, dynamic
walker.
[1] Waddling Duck Toy Physics, bit.ly/Q38IrB.
[2] C. Ucke, H. J. Schlichting, Physik und Spaß, Wiley-VCH, Weinheim
2011, S. 51.
[3] R. I. Leine et al., Journal of Vibration and Control 2003, 9 (1–2), 25;
bit.ly/KkbTK1.
[4] ramp-walking wooden robot, bit.ly/QyCFBQ.
[5] G. T. Wallis, American Patent No. 376.588, 1888.
[6] www.selfwalkingtoys.com/bear.html.
[7] M.-f. Fong, Mechanical Design of a Simple Bipedal Robot, Bachelor
of Science in Mechanical Engineering, MIT 2005, USA.
[8] S. Collins. et al., Science 2005, 307, 1082.
[9] LEGO Passive Dynamic Walker, bit.ly/UZybVS.
[10] Wood Hopping Bunny Toy, bit.ly/Q39KUu.
[11] holzgestaltung-lipkowsky.de/rubriken/spielzeug/sz_tiere_1.html.
[12] M. Bear, Walking Automata, Tarquin Publications, St Albans 2007.
[13] re.trotoys.com/article/waddling-duck-mechanical-toy.
[14] bit.ly/UwfUww.
[15] bit.ly/Q3aMQz, japanisch.
[16] J. Wittmann, Trickkiste 1, Bayerischer Schulbuch-Verlag, München
1983.
Die Autoren
Christian Ucke und Hans-Joachim Schlichting sind die Begründer unserer
Rubrik Spielwiese.
Anschriften
Dr. Christian Ucke, Rofanstraße 14B, 81825 München, Ucke@mytum.de
Prof. Dr. Hans Joachim Schlichting, Didaktik der Physik, Universität Münster,
48149 Münster, Schlichting@uni-muenster.de.
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 299
decken, die die Menschheit 2008 an Primärenergie benö-
tigte [2]. Wie beim Wind gilt jedoch, dass das theoretische
Potenzial von erneuerbaren Energiequellen bei weitem
nicht ausgeschöpft werden kann – weder technisch noch
nachhaltig [4].
Die Möglichkeiten einer klima- und ressourcenfreund-
lichen, nachhaltigen Energieversorgung wurden in den letz-
ten Jahren in zahlreichen Studien eingehend untersucht [5–
8]. Basis hierfür sind zumeist Computermodelle, mit denen
sich die unterschiedlichen Eigenschaften und Auswirkungen
verschiedener Technologien auf die Energieversorgung un-
tersuchen lassen. Während sich einige Studien auf eine de-
taillierte Betrachtung der deutschen Energieversorgung kon-
zentrieren, befassen sich andere mit der Energieversorgung
größerer Regionen und auch von ganzen Kontinenten. Da-
bei wird oft die Energieversorgung stundengenau in den
Modellen aufgelöst, um den Einfluss des Angebotes der va-
riablen erneuerbaren Energiequellen und den Bedarf an Re-
gelenergie zur Kompensation von Schwankungen auf einer
stündlichen bis saisonalen Skala zu simulieren.
Wir betrachten in diesem Artikel die Elektrizitätsver-
sorgung Europas bis 2050. Dabei untersuchen wir die Fra-
ge, was ein schrittweiser Umstieg bis zur Vollversorgung
mit erneuerbarer Energie an Regelenergie und damit Ener-
giespeicherkapazitäten erfordert. Unsere Basis sind Mo-
dellsimulationen. Dabei beschäftigt uns auch die Frage, wel-
chen Einfluss die Größe von Europa als Verbundgebiet auf
den Um- und Ausbau des Netzes und des Kraftwerkparks zur
Erzeugung und Speicherung elektrischer Energie hat.
Das Energiemodell
Wir verwenden ein Energiemodell, das wir derzeit am In-
stitut für Umweltphysik der Universität Heidelberg im Rah-
men des Energieprojektes des Heidelberg Center for the
Environment (HCE) entwickeln. Um das vielschichtige The-
ma der Energieversorgung besser abzudecken, sind daran
auch die Bereiche Umweltökonomik, Geographie und
Rechtswissenschaften der Universität beteiligt. Die Um-
weltökonomik entwickelt hierbei in Zusammenarbeit mit
dem Zentrum für Europäische Wirtschaftsforschung (ZEW)
in Mannheim ein eigenes Modell namens GREET (Global
Resource Extraction and Energy Transformation) [9]. Beide
Computermodelle sind für eine globale Betrachtung aus-
gelegt und unterteilen die Welt in elf Regionen. Eine davon
ist Europa, inklusive dem Großteil der EU-27-Staaten und
weiterer Staaten wie Norwegen, Island und der Schweiz.
Europas Stromversorgung mit Speicherbedarf bis 2050
Erneuerbare Energie für Europa
TOBIAS TRÖNDLE | ULRICH PLATT | WERNER AESCHBACH-HERTIG | KLAUS PFEILSTICKER
Ein weitgehender Umstieg von fossilen auf erneuerbare
Energieträger in Europa erfordert ein Umdenken in der Elektri-
zitätsversorgungsstruktur. Regelbare Kraftwerke, Energie -
speicher und ein leistungsfähiges Elektrizitätsnetz sind hierbei
wichtige Bausteine. Das zeigt das vorgestellte Szenario für
Europa bis 2050.
300 Phys. Unserer Zeit 6/2012 (43) © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
DOI: 10.1002/ piuz.201201301
D
ie Nutzung fossiler Energieträger und somit der Groß-
teil der anthropogenen Treibhausgasemissionen muss
weltweit stark reduziert werden, um die Folgen des Klima-
wandels einzuschränken [1]. Auch die begrenzte Verfüg-
barkeit fossiler Energieträger und die sinkende Akzeptanz
der Nutzung von Nuklearenergie geben Anlass, die Ener-
gieversorgung zu überdenken. Das Ziel ist daher, zukünftig
Energie effizienter zu verwenden und verstärkt erneuerba-
re Energiequellen einzusetzen.
Unter den erneuerbaren Energiequellen bieten global
gesehen – je nach Schätzung – die solare Einstrahlung mit
einer mittleren Leistung von rund 124 000 TW [2] und der
Wind mit bis zu 190 TW [2] die größten theoretischen Po-
tenziale. Deren Aufkommen ist jedoch zeitlich und räumlich
so variabel, dass für eine bedarfsgerechte Elektrizitätsver-
sorgung ein erheblicher Einsatz von sogenannter Regel-
energie [3] zum Ausgleichen der Schwankungen erforder-
lich wird. Diese könnte aus kurzfristig zuschaltbaren kon-
ventionellen Kraftwerken oder aus Energiespeichern
stammen. Zur Ergänzung eignet sich regelbare erneuerba-
re Energie, dazu zählt die Biomasse mit einem Potenzial von
circa 49 TW geschätzter mittlerer Leistung [2]. Theoretisch
könnte Biomasse damit sogar die 15,6 TW mittlere Leistung
Online-Ausgabe unter:
wileyonlinelibrary.com
I NTERNET
|
Jahresgang der Windenergie in längeren Zeiträumen
windmonitor.iwes.fraunhofer.de
Erträge von Photovoltaik-Standorten in Europa
re.jrc.ec.europa.eu/pvgis/index.htm
Modell für Wellenenergiekonverter
www.wavedragon.net
bare und wetterunabhängige Biomasse- und Geothermie-
kraftwerke. Die zweite Klasse bilden die wetterabhängigen
Energieproduzenten, also Photovoltaik- (PV), Wellenkraft-
anlagen und On- wie Offshore-Windenergieanlagen. Kon-
zentrierende solarthermische Kraftwerke (CSP), die vor al-
lem in südlichen Regionen eine attraktive Alternative in der
Solarenergienutzung bieten, sind derzeit im Modell nicht
implementiert und werden daher durch eine komplemen-
täre Stromproduktion mittels PV simuliert.
Wie Wetter- und Klimamodelle überzieht unser Modell
die Regionen mit einem Gitterraster. Die Verteilung der Pro-
duzenten erneuerbarer Energie auf diesem Gitter richtet
sich momentan nach den energiereichsten Standorten. So
sind im Europaszenario PV-Anlagen primär im mediterranen
Raum mit Spanien als Präferenz angeordnet und Wind-
kraftanlagen entlang der Küstenregion in der Westwindzo-
ne sowie in Schottland und vereinzelt in Osteuropa. Off-
shore-Wind- und Wellenkraftanlagen kommen entlang der
Atlantik- und Nordseeküste zum Einsatz.
Die Leistung der Windkraftanlagen wird aus der Wind-
geschwindigkeit in Nabenhöhe berechnet. Diese liegt bei
den im Modell stellvertretend verwendeten Anlagen bei
100 m für Nordex N90/2.5 onshore und bei 135 m für
E NE RGI E S P E I CHE R I M NE T Z E RNEUE RBARE E NE RGI E
Jeder Modellregion geben wir den Jahreselektrizitäts-
bedarf und die benötigte elektrische Leistung mit einem
Jahresgang vor, mit Maximum im Winter und Minimum im
Sommer. Dieser saisonalen Schwankung der nachgefragten
Leistung sind ein Wochen- und ein mittlerer Tagesgang [10]
überlagert, der realistische Schwankungen berücksichtigt
[6].
Zur Simulation der zeit- und raumabhängigen Erzeugung
der erneuerbaren Energie in den Modellgebieten sind glo-
bale Wetterdaten für das Jahr 2000 hinterlegt. Sie kommen
vom ERA-40-Projekt des Europäischen Zentrums für mittel-
fristige Wettervorhersage EZMW im englischen Reading.
Für detailliertere Studien müssten eigentlich die Wetterda-
ten aus einem mehrjährigen Zeitraum einfließen, doch die
Standardabweichung etwa bei Windenergie liegt im Zeit-
raum von 1993–2008 nur bei 9 % [11]. Es sind daher keine
fundamentalen Schwankungen bei einer mehrjährigen Be-
trachtung zu erwarten, zumal diese bei einem so großen Ge-
biet wie Europa eher kleiner ausfallen dürften.
In unserem Energiemodell geben wir derzeit neun Kraft-
werkstypen vor, die wir in zwei Klassen unterteilen. Eine
Klasse bilden konventionelle Erdgas-, Kohle- und Kern-
kraftwerke, grundlastfähige Wasserkraftwerke sowie regel-
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 301
Pumpspeicherkraftwerke können als große Energiespeicher im elektrischen Netz die fluktuierende Energieerzeugung aus Wind
und Sonne abpuffern helfen. Die beiden Stauseen und die Staumauer im Foto gehören zum österreichischen Speicherkraftwerk
Limberg II, das 2011 in Betrieb ging. Die Fallhöhe des Wassers beträgt knapp 370 m, seine beiden Pumpturbinen leisten zusam-
men maximal 480 Megawatt (Foto: Voith).
Enercon E126 offshore. Die Leistung von PV-Anlagen ist
direkt proportional zur solaren Einstrahlung am Boden, ver-
ringert sich aber auch mit steigender Modultemperatur. Das
EU-Projekt PVGIS (s. „Internet“ auf S. 300) bietet dabei ei-
nen guten Einblick in Erträge für typische PV-Standorte in
ganz Europa. Im Energiemodell wurde als Wirkungsgrad
der Module 0,17 angenommen und ihre Neigung auf 30° (ty-
pisch für Hausdachmontage) gesetzt. Bei Wellenkraftwerken
haben wir die Leistung aus Daten zur vorherrschenden Wel-
lenhöhe und deren Periode berechnet, Stellvertreter im
Modell ist hier ein Wave-Dragon-Modul mit 7 MW Leistung
(s. „Internet“ auf S. 300).
Derzeit müssen wir in unserem Energiemodell noch ei-
ne starke Vereinfachung machen. Wir nehmen den Idealfall
eines perfekten Leitungsnetzes an, bei dem die im Modell-
gebiet hergestellte elektrische Energie überall sofort ver-
lustfrei zur Verfügung steht. In zukünftigen Versionen des
Modells sollen aber die erforderlichen Energieflüsse und
damit Leitungskapazitäten zwischen den Gitterzellen des
Modells mit aufgezeichnet werden.
Aus der Bilanz aller Beiträge der erneuerbaren Energie-
quellen berechnet das Energiemodell die Regelenergie, die
nötig ist, um Elektrizitätsangebot und Nachfrage innerhalb
der Regionen zur Deckung zu bringen. Ein zentrales Ele-
ment unseres Energiemodells ist der Einsatz von Anlagen,
die überschüssige elektrische Energie speichern und diese
bei Bedarf wieder ins Netz abgeben können. Damit können
wir die wichtige Frage angehen, welchen Bedarf an Ener-
giespeichern eine durch erneuerbare Energie geprägte Ver-
sorgung nach sich zieht. Bei den Energiespeichern nehmen
wir einen Gesamtwirkungsgrad von 80 % an.
Reicht der Speicherinhalt nicht aus, um Angebot und
Nachfrage zur Deckung zu bringen, werden im Modell re-
gelbare konventionelle Kraftwerke zugeschaltet. Weil Bio-
masse- und Geothermiekraftwerke regenerative Energie nut-
zen, werden sie bevorzugt. Die Fahrpläne der übrigen kon-
ventionellen Kraftwerkstypen würden sich in einem
ökonomischen Strommarktmodell üblicherweise aus der
„Merit-Order“ ergeben, also der Reihenfolge der jeweils
günstigsten variablen Kosten der Elektrizitätserzeugung.
Hier sind jedoch die Reaktions- und Stillstandszeiten der
unterschiedlichen Kraftwerkstypen nach einer Vollabschal-
tung maßgebend für die Reihenfolge bei der Zu- und Ab-
schaltung. Wir halten so im Modell die für unterschiedliche
Ansprüche ausgelegten Kraftwerkstypen weitgehend in ih-
rem technisch sinnvollen Einsatzbereich. Deshalb speisen
Kern- und Kohlekraftwerke, soweit im Szenario noch vor-
handen, vorrangig zur Deckung von Grund- und Mittellast
ins Netz ein. Die flexiblen Gaskraftwerke dienen primär zur
Deckung der Spitzenlast.
Europaszenario
Unser „100 % EE-Szenario“ nimmt an, dass Europas Strom-
versorgung aus erneuerbaren Energiequellen schrittweise
wächst und im Jahr 2050 die 100 % erreicht. Ob diese An-
nahme realistisch ist, wird natürlich erst die Zukunft er-
weisen, denn schließlich spielen viele Faktoren wie etwa
der politische Wille eine Rolle. Mit diesem Szenario können
wir aber die Anforderungen an den Umbau des europäi-
schen Kraftwerkparks und insbesondere den Ausbau der
Energiespeicher abschätzen.
Das Portfolio an installierter Leistung, die das 100 % EE-
Szenario erfordert, stammt aus Ergebnissen des ökonomi-
schen Energieversorgungsmodells GREET unter der Ziel-
vorgabe, im Elektrizitätssektor kostenminimal auf erneuer-
bare Energiequellen umzusteigen. Den Bedarf Europas an
elektrischer Energie um 2050 setzen wir dank Effizienz-
steigerung bei den Verbrauchern nur geringfügig höher als
den Bedarf des Jahres 2007 an. Dieser lag bei 2935 TWh [5],
wir rechneten für 2050 mit 3224 TWh.
Tabelle 1 zeigt, wie die installierte Kraftwerksleistung
zur Deckung dieses Bedarfs dann aussehen könnte. Darin
dominieren die wetterabhängigen erneuerbaren Energie-
quellen mit fast 80 % der installierten Leistung und 75 %
der Jahreselektrizitätsproduktion, da Biomasse und Was-
serkraft im Potenzial limitiert sind [2]. Die leichte Über-
produktion in den 3274,6 TWh gegenüber dem angenom-
menen Bedarf erklärt sich durch die Verluste bei der Ener-
giespeicherung.
2007 dagegen entfiel noch 63,4 % der installierten Er-
zeugungskapazität auf konventionelle Kraftwerke mit fos-
silen und nuklearen Brennstoffen. Der bei weitem größte
Anteil der Kapazität aus erneuerbarer Energie stammte 2007
mit 27,9 % vor allem von Wasserkraftwerken aus Ländern
wie Norwegen, hinzu kommen Biomassekraftwerke und ei-
nige Geothermiekraftwerke (Island, Italien). Somit waren
302 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
TAB. 1 STROMERZEUGUNG I M J AHR 2050 AUS HUNDERT PROZENT ERNEUERBARER ENERGI E
Wind (onshore) 225,0 17,8 436,5 13,3
Wind (offshore) 225,0 17,8 808,9 24,7
Wellen 97,3 7,7 274,8 8,4
Photovoltaik 452,5 35,7 928,5 28,4
Biomasse und Geothermie 76,5 6,0 323,3 9,9
Wasser 190,7 15,0 502,6 15,3
Summe 1267,0 100,0 3274,6 100,0
Kraftwerke Installierte Anteil an Elektrizitäts- Anteil an
Leistung installierter produktion Produktion in %
in GW Leistung in % in TWh
E NE RGI E S P E I CHE R I M NE T Z E RNEUE RBARE E NE RGI E
2007 nur 8,7 % der installierten Leistung von schwanken-
den Energieträgern, vor allem Wind, abhängig.
Von diesem Basisszenario 2007 aus haben wir die in-
stallierte Leistung der Kraftwerke dem Portfolio im 100 %
EE-Szenario für 2050 angenähert. Jede dazwischen be-
trachtete Ausbaustufe der erneuerbaren Energiequellen
machte weitere 10 % der installierten Kraftwerksleistung
aus. Diese Umstellung der Stromversorgung erfordert einen
starken Umbau der Energieinfrastruktur. Deshalb haben wir
für jede Ausbaustufe die Auslastungen der einzelnen Kraft-
werkstypen untersucht.
Generell bewirkt ein steigender Anteil an erneuerbarer
Energie eine abnehmende Auslastung aller Kraftwerke und
damit höhere Stillstandskosten (Abbildung 1). Besonders
trifft es die ursprünglich zur Grundlastversorgung ausge-
legten Kernkraftwerke. Ab etwa einem Anteil von 50 % im
Anlagenportfolio generieren erneuerbare Energiequellen
immer öfter so viel Elektrizität, dass Kernkraftwerke wegen
der einspeisebevorzugten erneuerbaren Energie immer sel-
tener zum Einsatz kommen.
Ein so großes Gebiet wie Europa mit Sonnenstandorten
wie Spanien oder windreichen Regionen wie Schottland er-
möglicht dort jeweils deutlich höhere Auslastungen von So-
lar- oder Windenergieanlagen als etwa in Deutschland. Doch
auch die wetterabhängigen Erneuerbare-Energie-Anlagen
weisen in Abbildung 1 eine leichte Degression der Auslas-
tung auf. Das liegt daran, dass ertragreiche Standorte be-
grenzt verfügbar sind. Lediglich die flexibel regelbaren Gas-
kraftwerke sowie die Biomasse- und Geothermiekraftwerke
halten oder erhöhen sogar ihr Auslastungsniveau zunächst.
Erst ab einem Anteil der Erneuerbaren von rund 80 % sinkt
auch ihre Auslastung deutlich ab.
Bei steigendem Anteil an fluktuierender Stromproduk-
tion aus erneuerbaren Energiequellen müssen also auch grö-
ßere Überkapazitäten an Kraftwerksleistung vorgehalten
werden, um eine stabile Stromversorgung zu garantieren.
Die Überkapazität bezieht sich hierbei auf das Verhältnis
von installierter Kraftwerksleistung zu der Leistung, die im
Mittel zur Deckung des Jahreselektrizitätsbedarfs nötig ist.
So waren im Erzeugungsportfolio des Jahres 2007 nur das
1,8-Fache der im Jahresmittel benötigten Leistung an Kraft-
werkskapazität erforderlich. Im 100 % EE-Szenario müsste
diese Kapazität wegen der reduzierten Auslastung auf das
3,4-Fache der mittleren nachgefragten Leistung ansteigen.
Ein zweites zentrales Ergebnis unserer Simulation be-
trifft die Frage nach der Speicherkapazität, die die fluktuie-
rende Energieproduktion aus Sonne, Wind und Wellen er-
fordert. Wir konnten zeigen, dass der im Portfolio des
Szenarios vorhandene, regelbare konventionelle Kraftwerk-
spark noch recht lange Schwankungen in der Strompro-
duktion kompensieren kann. Dies funktioniert bis zu einem
Anteil der Erneuerbaren von etwa 50 % (Abbildung 2).
Bei weiter steigendem Anteil ist dann immer mehr Re-
gelenergie aus anderen Quellen, wie etwa Biomasse, einem
intelligenten Netz oder vor allem Energiespeichern, erfor-
derlich – zunächst stündlich bis hin zu einem saisonalen
Ausgleich durch große Speicher. Der Bedarf an Energie-
speicherkapazität steigt von 60 % bis 90 % Anteil der er-
neuerbaren Energiequellen nahezu exponentiell an. Beim
100 % EE-Szenario erreicht er schließlich nach unserem Mo-
dell 122 TWh oder 3,8 % des Jahreselektrizitätsbedarfes
Europas (Abbildung 2). Die erforderliche jährliche Regel-
energie liegt etwa bei der doppelten Energiemenge, also
bei rund 216 TWh pro Jahr, was somit lediglich zwei Lade-
zyklen der Speicher entspricht. Die derzeitige Speicher -
kapazität von Europas Pumpspeicherkraftwerken liegt bei
2,5 TWh [12].
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 303
30 40 50 60 70 80 90 100
0
20
40
60
80
100
A
n
l
a
g
e
n
a
u
s
l
a
s
t
u
n
g

/
%
Anteil an installierter EE Leistung /%
Wind (onshore)
Wind (offshore)
Wellen
Photovoltaik
Biomasse und Geothermie
Kernkraft
Kohle
Erdgas
ABB. 1 WEG ZUM REGENERATI VEN STROM
Kraftwerkauslastungen in Europa von heute bis 2050 für verschiedene Anteile an
installierter Leistung aus erneuerbaren Energiequellen (EE).
0,01
0,1
1
10
100
1000
40 60 80 100
0,001
0,01
0,1
1
10
S
p
e
i
c
h
e
r
k
a
p
a
z
i
t
ä
t

/
T
W
h
S
p
e
i
c
h
e
r
k
a
p
a
z
i
t
ä
t

i
n

%

d
e
s


J
a
h
r
e
s
e
l
e
k
t
r
i
z
i
t
ä
t
s
b
e
d
a
r
f
s
Anteil an installierter EE Leistung /%
ABB. 2 ENERGI ESPEI CHERKAPAZI TÄT
Bedarf an Energiespeicherkapazität in Europa als Funktion
der Anteile erneuerbarer Energiequellen (EE) an der instal-
lierten Kraftwerksleistung.
Speichertechniken
Die heutige Kapazität an Speichern für große Mengen um-
gewandelter elektrischer Energie besteht vor allem aus
Pumpspeicher-Kraftwerken mit einem typischen Wir-
kungsgrad von 80 % [13]. Die Pumpspeicher Deutschlands
haben eine derzeitige Kapazität von insgesamt etwa
40 GWh und sind nur wenig weiter ausbaubar. Das größte
Potenzial in Europa wird Norwegen mit bis zu 84 TWh zu-
geschrieben [6].
Eine weitere Möglichkeit zur Energiespeicherung sind
adiabatische Druckluftspeicher, die theoretisch einen Wir-
kungsgrad um 70 % erreichen können [14]. Diese Technik
komprimiert Luft in unterirdischen Kavernen und ent-
spannt sie bei Bedarf über eine Turbine wieder, wobei sie
die Luft zuvor mit der separat gespeicherten Kompressi-
onswärme vorheizt. Vorteilhaft gegenüber Pumpspeicher-
kraftwerken ist das große Angebot an geeigneten geologi-
schen Formationen, vorwiegend Salzstöcke, unter anderem
in Norddeutschland und einigen weiteren Regionen
Europas. Das Potenzial für Druckluft-Speicherkavernen soll-
te prinzipiell mehr als ausreichend sein.
Überschüssiger Strom könnte aber auch zur Methan-
herstellung verwendet werden. Zwar beträgt der Wir-
kungsgrad dieser Methanisierung von Strom mit Kraft-Wär-
me-Kopplung nur etwa 60 % [15], dafür aber lässt sich Me-
than in ausreichender Menge in der schon vorhandenen
Energieinfrastruktur wie in unterirdischen Erdgasspeichern
und den Pipelines speichern und auch transportieren. Das
Speicherpotenzial alleine für Deutschland wird mit
280 TWh angegeben [15], so dass die Speichergröße sicher
nicht der limitierende Faktor dieser Technologie wäre.
Allerdings sind Methanisierung und adiabatische Druck-
luftspeicher technisch weit weniger entwickelt als Pump-
speicherkraftwerke, die auch den höchsten Wirkungsgrad
aufweisen.
Betrachtet man den Energiespeicherstand im Jahres-
verlauf des 100 % EE-Szenarios (Abbildung 3), wird der sai-
sonale Gang des Ein- und Ausspeicherns deutlich. Zwar er-
streckt sich der Speichereinsatz vom Ausgleich kurzer
Schwankungen im Tagesgang bis hin zur saisonalen Skala,
doch der Ausgleich der jahreszeitabhängigen Produktion
und Nachfrage bestimmt die insgesamt benötigte Spei-
cherkapazität.
Schwankungen auf Tagesbasis könnten auch mit einem
intelligenten Netz teilweise ausgeglichen werden. Es wür-
de dazu relativ zeitunkritische Verbraucher wie etwa aus
dem Bereich der Kälte- und Klimatechnik nach Bedarf ab-
oder zuschalten. Auch eine Flotte an Elektrofahrzeugen, die
am Elektrizitätsnetz angeschlossen ist, könnte die Regel-
energie- oder Speicherproblematik zumindest im Bereich
des Tagesganges entschärfen. Mit typischen Akkumulator-
kapazitäten von 15 bis 20 kWh pro Fahrzeug würden Elek-
trofahrzeuge auch in Masse schließlich nur wenige Prozent
der insgesamt benötigten Speicherkapazität stellen, könnten
aber wesentlich zur Glättung kürzerer Schwankungen im Ta-
gesgang durch ihre Regelleistung beitragen.
So ließen sich durch Nutzen von Schwachlastzeiten und
Abbau von Lastspitzen die Netze stabilisieren und Speicher
entlasten. Diese Möglichkeit haben wir mit der Annahme
untersucht, dass bis zu 10 % der anfallenden Lasten um ma-
ximal 12 h durch ein intelligentes Netz verschoben werden
können und somit nicht mittels Energiespeicher ausgegli-
chen werden müssen. Der ausgleichende Effekt ist im Ta-
304 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Der massive Ausbau der Windenergieparks sorgt für eine stärker fluktuierende
Stromerzeugung, hier ein Bild vom Bau des Windenergieparks alpha ventus in der
Nordsee (Foto: © REpower Systems AG/ Jan Oelker).
0
20
40
60
80
100
120
140
0 2000 4000 6000 8000 10000
E
n
e
r
g
i
e
s
p
e
i
c
h
e
r
i
n
h
a
l
t
/
T
W
h
Zeit / h
43
43,5
44
2064 2088 2112 2136
ABB. 3 J AHRESGANG
Simulierter Jahresgang des Energiespeicherbedarfs in Europa, Basis sind Wetter -
daten vom 1.1. bis 31.12.2000. Blaue Kurve: 100 % EE-Szenario bei 3,4-facher
Überkapazität des Kraftwerkparks. Rote Kurve: 100 % EE-Szenario, aber ein intelli-
gentes Netz kann bis zu 10 % der anfallenden Last um maximal 12 h verschieben.
E NE RGI E S P E I CHE R I M NE T Z E RNEUE RBARE E NE RGI E
gesverlauf deutlich zu erkennen (Ausschnitt in Abbildung
3). Durch diese kurzzeitige Verschiebung von Lasten wer-
den im Jahresverlauf 9,6 TWh oder 18,8 % an Ein- und Aus-
speicherverlusten vermieden, gemessen am Jahresstrombe-
darf sind dies allerdings nur 0,3 % gegenüber dem reinen
100 % EE-Szenario.
Da jede Form der Energiespeicherung mit zusätzlichen
Verlusten und Kosten verbunden ist, muss der Speicherbe-
darf möglichst gering gehalten werden. Demnach ist es
wichtig, nicht nur auf einen einzigen schwankenden rege-
nerativen Energieträger zu bauen. Um dies zu demonstrie-
ren, haben wir auch ein Modellszenario gerechnet, in dem
Europa keine Solarenergie nutzt und das Defizit mit ent-
sprechend mehr On- und Offshore-Windenergieanlagen aus-
gleicht. In diesem Fall würde sich der Bedarf an Energie-
speicherkapazität oder entsprechender Regelenergie von
3,8 % auf 8 % des Jahreselektrizitätsbedarfes verdoppeln,
was 255 TWh statt 122 TWh an Speicherkapazität bedeu-
tet.
Mehr Speicher oder Erzeuger?
Um den Speicherbedarf zu senken, könnte man auch die Er-
zeugungskapazität der Erneuerbare-Energie-Anlagen erhö-
hen, um in ertragsärmeren Zeiten den Bedarf besser zu de-
cken. Wir haben dies mit Simulationen untersucht, in denen
wir die installierte Leistung der wetterabhängigen Anlagen
gegenüber dem 100 % EE-Szenario erhöhten. Steigern wir
die ursprünglich 3,4-fache Überkapazität der hundertpro-
zentigen Vollversorgung weiter, dann sinkt die notwendige
Energiespeicherkapazität von ursprünglich 122 TWh (3,8 %
des Jahreselektrizitätsbedarfs) zunächst deutlich. Ab einer
Überkapazität des Faktors 3,9 oder zusätzlich installierten
170 GW Leistung führt eine noch höhere Kraftwerks -
leistung zu einer langsameren Reduktion des bis dahin be-
reits auf 28,7 TWh (0,9 %) gefallenen Speicherbedarfs
(Abbildung 4).
Ob und bis zu welchem Maße sich das Erhöhen der
Überkapazität lohnt, hängt letztlich von den jeweiligen Kos-
ten für weitere Erneuerbare-Energie-Anlagen sowie für den
Ausbau von Speicherkapazität ab. Diese Investitionskosten
können wir mit einer einfachen Abschätzung näherungs-
weise betrachten. Für den Mix aus Wind-, Wellen- und So-
larenergie des 100 % EE-Szenarios ermittelten wir durch-
schnittliche Kosten von etwa 2000 R pro kW installierter
Leistung und für Wasser-, Biomasse- und Geothermiekraft-
werke etwa 1000 R pro kW auf Basis von Zahlen des IPCC
SRREN [2]. Dabei verwenden wir bei den Preisspannen der
einzelnen Technologien die jeweils günstigsten Preise.
Unsere Schätzung ergab bei den Investitionskosten für
alle Kraftwerke und Energiespeicher des 100 % EE-Szenarios
eine Spanne von rund 3·10
12
– 11·10
12
R, wobei diese vor
allem durch die Unsicherheit bei den Kosten der Speicher-
technologien bedingt ist. Das Bruttoinlandsprodukt der EU
lag im Jahr 2009 bei rund 12·10
12
R. Das zeigt, dass bei güns-
tigen Speichertechnologien die notwendige Gesamtinvesti-
tion vermutlich finanzierbar wäre. Für eine Amortisations-
zeit von 20 Jahren und einen Kalkulationszinssatz von 6 %
[6] ergäbe der günstigste Fall einen Anteil der Kraftwerks-
und Speicherinvestitionskosten von rund 7,2 ct / kWh am
Strompreis. Dieser würde allerdings durch Betriebskosten,
Kosten des Netzausbaus etc. noch deutlich steigen.
Bei einer Steigerung der Überkapazität vom Faktor 3,4
auf 3,9 dagegen ändern sich die Gesamtkosten für den Kraft-
werkspark samt Energiespeicher auf etwa 3·10
12
– 5·10
12
R.
Im oberen Bereich der Preisspanne der Speicherkosten wür-
de sich demnach das Errichten von Überkapazitäten zur
Einsparung von Energiespeichern stets lohnen. Die untere
Grenze ist dagegen so günstig, dass zusätzliche Erneuerba-
re-Energie-Anlagen nicht rentabel wären. Letztlich muss al-
so geprüft werden, bei welcher Überkapazität an Erzeu-
gungsanlagen die Kombination an regenerativen Erzeugern
und Speichern von Energie die geringsten Kosten verursa-
chen.
Ein großes, leistungsfähiges Elektrizitätsnetz und im Fal-
le der Methanisierung eine gut ausgebaute Gasinfrastruktur
sind ebenfalls für eine Vollversorgung mit erneuerbarer
Energie wichtig. Als Gewinn sinkt die benötigte Regel-
energie und damit der Speicherbedarf mit wachsender Grö-
ße des Verbundnetzes. Der Grund: Die Schwankungen in
der Erzeugung erneuerbarer Energie hängen in unseren
Breiten vor allem von der Größe von Wettersystemen, etwa
Tiefdruckgebieten, und deren Lebensdauer ab. Typisch sind
Durchmesser von etwa 1000 km bei einigen Tagen Exis-
tenz.
Daher empfiehlt sich ein Stromverbund, der mindestens
ein Gebiet dieser Größenordnung abdeckt, mit angemesse-
ner Speicherkapazität. So zeigt sich bei einem 100 % EE-Ver-
sorgungsszenario, dass der Speicherbedarf bezogen auf die
von der Region benötigte Jahreselektrizitätsmenge zum Bei-
spiel für das deutsche Gebiet allein 43 TWh bei einem Jah-
reselektrizitätsbedarf von 534 TWh [16] beträgt, also 8 %.
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 305
3,6 3,8 4 4,2
1
2
3
4
0
20
40
60
80
100
120
S
p
e
i
c
h
e
r
k
a
p
a
z
i
t
ä
t
/
T
W
h
S
p
e
i
c
h
e
r
k
a
p
a
z
i
t
ä
t

i
n

%

d
e
s


J
a
h
r
e
s
e
l
e
k
t
r
i
z
i
t
ä
t
s
b
e
d
a
r
f
s
Überkapazitätsfaktor
ABB. 4 ÜBERKAPAZI TÄT
Rückgang der benötigten Speicherkapazität mit steigender
Überkapazität an installierter Leistung aus erneuerbaren
Energiequellen.
Damit wäre die nötige Speicherkapazität pro Jahreselektri-
zitätsbedarf mehr als doppelt so groß wie die 3,8 %, die wir
in unserer Studie für Europa ermittelt haben.
Zusammenfassung
Soll Europas Elektrizitätsversorgung von konventioneller auf
hundert Prozent erneuerbare Energie umgestellt werden,
dann muss diese Energie hauptsächlich aus Sonne und Wind
kommen. Damit wächst der schwankende Anteil in der Netz -
einspeisung. Ein schrittweiser Umbau des europäischen Net-
zes und Kraftwerkparks auf hundert Prozent regenerativen
Strom bis 2050 hätte deshalb zwei Konsequenzen. Zum einen
muss die Überkapazität an vorhandener Kraftwerksleistung
im Verhältnis zur im Jahresmittel nachgefragten Leistung im
Netz vom heutigen Faktor 1,8 auf 3,4 ansteigen. Zum ande-
ren erfordert das Ausgleichen der Schwankungen „Regel -
energie“. Diese muss entweder aus regelbaren konventionel-
len Kraftwerken oder aus Energiespeichern kommen. Letzte
Variante wäre voll regenerativ. Sie würde aber einen Ausbau
der Speicherkapazität von heute 2,5 TWh auf 122 TWh oder
3,8 % des Jahresenergiebedarfs bei zwei Ladezyklen pro Jahr
erfordern. Durch das Installieren zusätzlicher Erzeugerleistung
kann dieser Speicherbedarf deutlich reduziert werden.
Stichworte
Stromversorgung Europas, Energiespeicher, erneuerbare
Energie, schwankende Energiequellen, Modellierung der
Energieversorgung.
Danksagung
Ein herzlicher Dank gilt den Mitgliedern des Energieprojektes des
HCE; speziell O. Grogro und N. Vollweiler. Dem EZMW danken wir
für die Bereitstellung der ERA 40-Daten.
Literatur
[1] IPCC, Climate Change 2007: Impacts, Adaptation and Vulnerability.
Contribution of Working Group II to the Fourth Assessment Report
of the Intergovernmental Panel on Climate Change, Cambridge
University Press 2007.
[2] IPCC, Special Report on Renewable Energy Sources and Climate
Change Mitigation, final report. Working Group III Mitigation of
Climate Change, Intergovernmental Panel on Climate Change,
Cambridge University Press 2011.
[3] S. Tenbohlen, A. Probst, P. Wajant, Phys. Unserer Zeit 2011, 42(5),
220.
[4] A. Kleidon, Phys. Unserer Zeit 2012, 43(3), 136.
[5] S. Teske, energy [r]evolution, Greenpeace International and
European Renewable Energy Council (EREC) 2010.
[6] Sachverständigenrat für Umweltfragen, Wege zur 100 % erneuerba-
ren Stromversorgung, Sondergutachten, SRU Hausdruck Berlin
2011.
[7] Bundesministeriums für Umwelt, Naturschutz und Reaktorsicher-
heit (BMU), Langfristszenarien und Strategien für den Ausbau der
erneuerbaren Energien in Deutschland bei Berücksichtigung der
Entwicklung in Europa und global. „Leitstudie 2010“, BMU, Berlin
2010.
[8] International Energy Agency (IEA), Energy Technology Perspectives
2008, Scenarios & Strategies to 2050, IEA 2008, www.iea.org/
techno/etp/index.asp.
[9] O. Grogro, Global Energy Trade Flows and Constrains on Conventio-
nal and Renewable Energies – A Computable Modeling Approach,
ZEW Mannheim 2012.
[10] VDE, Smart Distribution 2020, Virtuelle Kraftwerke in Verteilungs-
netzen, Energietechnische Gesellschaft (ETG) im VDE 2008,
www.e-energie.info/documents/VDE_Studie_Smart_Distribution.pdf.
[11] B. Hahn, K. Rohrig, ISET-Wind-Index, Assessment of the Annual
Available Wind Energy, Fraunhofer-Institut für Windenergie und
Energiesystemtechnik (IWES) 2003.
[12] EURELECTRIC, Hydro in Europe: Powering Renewables (Full Report),
Union of the Electricity Industry – EURELECTRIC 2011.
[13] VDE, Energiespeicher in Stromversorgungssystemen mit hohem
Anteil erneuerbarer Energieträger, Energietechnische Gesellschaft
(ETG) im VDE 2009.
[14] S. Vardag, Druckluftspeicherkraftwerke und ihr Potential, Bachelor-
arbeit Universität Heidelberg 2010.
[15] M. Sterner et al., Energiewirtschaftliche und ökologische Bewer-
tung eines Windgas-Angebotes, Fraunhofer Institut für Windener-
gie und Energiesystemtechnik (IWES), Kassel 2011.
[16] A. von Oehsen et al, Large Scale energy storage for a 100% renewa-
ble electricity system in Germany, 6th PhD Seminar on Wind Energy
in Europe, European Academy of Wind Energy (EAWE), Trondheim,
Norway, Seminar Proceedings 2010, Seite 149.
Die Autoren
Tobias Tröndle studierte Meteorologie an der Universität Karlsruhe (TH). Seit
2009 ist er Doktorand am Institut für Umweltphysik der Universität Heidel-
berg und befasst sich mit der Modellierung und Untersuchung von Optionen
der Energieversorgung. Ulrich Platt studierte Physik an der Universität
Heidelberg. Danach arbeitete er am FZ Jülich und an der University of
California/Riverside sowie seit 1989 an der Universität Heidelberg an der
Erforschung chemischer Prozesse in der Atmosphäre und der spektroskopi-
schen Messung von Spurengasen. 2010 erhielt der den Robert-Wichart-Pohl-
Preis der DPG. Werner Aeschbach-Hertig, Diplom in Physik 1989 ETH Zürich.
Promotion in Umweltphysik 1994 an ETH und Eawag (Wasserforschungsinsti-
tut des ETH-Bereichs). 1994–96 Postdoc am Lamont-Doherty Earth Observa-
tory of Columbia University, New York. 1996–2002 wissenschaftlicher
Mitarbeiter an ETH und Eawag. Seit 2003 Professor am Institut für Umwelt-
physik, Universität Heidelberg. Klaus Pfeilsticker, Diplom in Physik 1982
Universität Heidelberg, Promotion in Umweltphysik 1986, Postdoc am MPI für
Kernphysik in Heidelberg und am FZ Jülich, danach in Heidelberg wissen-
schaftlicher Mitarbeiter am Institut für Umweltphysik, 1998 Habilitation,
danach am NOAA/Boulder. Seit 2005 apl. Professor am Institut für Umwelt-
physik, Heidelberg.
Anschrift
Tobias Tröndle, Institut für Umweltphysik,
ImNeuenheimer Feld 229, D-69120 Heidelberg.
tobias.troendle@iup.uni-heidelberg.de
306 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
MAGAZI N
RASANTE PHYSI K
|
Prost Neujahr:
die Physik von Champagnerflaschen
Sekt und Champagner gehören zur Silvesterfeier wie ein prächtiges
Feuerwerk. Physiker verfallen hierbei leicht in Diskussionen über die
Wurfparabeln der Sektkorken oder das akustische Phänomen des
Knalls. Hochgeschwindigkeitskameras [1] eröffnen zusätzlich die Mög-
lichkeit, sehr schnell ablaufende Prozesse bei der Handhabung der edlen
Tropfen sichtbar zu machen, zum Beispiel die adiabatische Expansion
des Treibgases.
weitere Stöße das thermische Gleich-
gewicht bei nahezu Raumtemperatur
wieder hergestellt wird.
Sofern während des Abkühlens
die benachbarte Raumluft kurzzeitig
unter die Taupunkttemperatur sinkt,
kann bei Vorliegen von Kondensa-
tionskeimen (was fast immer der Fall
ist) der Wasserdampf kondensieren
(Abbildung 1). Ein Video hierzu
finden Sie auf siehe www.phiuz.de
Special Features/Zusatzmaterial zu
den Heften.
Um den Effekt besser studieren
zu können, haben wir die relative
Luftfeuchtigkeit in der Nähe des
Flaschenhalses auf etwa 70 % erhöht.
Abbildung 2 (Video 2 auf
www.phiuz.de) zeigt ein Beispiel,
bei dem das Gas durch das vorherige
Lösen des Korkens leicht asymme-
trisch ausströmt. Durch die höhere
Luftfeuchte entstand eine deutlich
besser ausgebildete Kondensations-
wolke, die für etwa 9 ms sichtbar
war. Diese Kondensation hat übri-
gens nichts zu tun mit den sich lang -
sam bewegenden Dampfwolken, die
man gelegentlich später aus dem Fla -
schenhals ausströmen sieht (Video 3
auf www.phiuz.de). Diese entste-
hen, nachdem die Flasche geöffnet
ist und sich bereits ein Druckaus-
gleich eingestellt hat. Die umgeben-
de Raumluft kann sich dann bei
Kontakt mit dem kalten Champagner
und/oder kalt ausströmenden CO
2
-
Gasbläschen bis unter den Taupunkt
abkühlen.
Die Aufnahmen gestatten auch
eine quantitative Analyse, beispiels-
weise des Korkenflugs. Der innere
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 307
Durchmesser der Flaschenöffnung
betrug 17,8 mm, was einer Quer-
schnittsfläche von 2,5 cm
2
ent-
spricht. Der Korken verließ die Fla -
sche mit einer gemessenen Anfangs-
geschwindigkeit von 12 m/s
(43,2 km/h). Dies wäre bei Vernach-
lässigung von Luftreibung ausrei-
chend für eine maximale Flughöhe
von etwa 7,3 m.
Die Anfangsgeschwindigkeit ist
auch konsistent mit den Angaben
des Drucks in der Flasche. Mit Δp =
4 · 10
5
N/m
2
ergibt sich eine anfäng-
liche Kraft F = Δp · A ≈ 100 N auf
den Korken. Bei der Kor kenmasse
m = 9,1 g führt dies zu einer an -
fänglichen Beschleunigung von
a = F/m ≈ 11000 m/s
2
. Die Beschleu-
nigung während des Ausströmens
des Gases wirkt nur für 1 bis 2 ms.
Adiabatische Prozesse laufen so
schnell ab, dass das beteiligte Gas
keine thermische Energie mit seiner
Umgebung austauschen kann. Daher
wird die entsprechende Arbeit bei
Kompression (oder Expansion) vom
Gas selbst aufgenommen (aufge-
bracht), was sich durch Erwärmen
(Abkühlen) manifestiert.
Typische Beispiele aus dem Alltag
sind adiabatische Kompressionsvor-
gänge beim schnellen Aufpumpen
eines Fahrradreifens (das erhitzte Gas
wärmt das Ventil) oder Expansions-
vorgänge beim Lösen eines Fahrrad-
oder Autoreifenventils, bei denen
sich das anfangs unter hohem Druck
befindliche schnell ausströmende
Gas abkühlt. Sekt- und Champagner-
flaschen bieten eine Möglichkeit, die
Abkühlung des schnell ausströmen-
den Gases sichtbar zu machen: Es
bildet sich nämlich eine Kondensa-
tionswolke [2].
In Champagnerflaschen befindet
sich über der Flüssigkeit [3] ein
Volumen von wenigen Kubikzentime-
tern Gas, das im Wesentlichen aus
CO
2
mit hohem Druck von 3 bis
4 · 10
5
N/m
2
(3 bis 4 bar) besteht.
Wenn der Korken abhebt, strömt das
eingeschlossene Gas nun schnell
durch den zylinderförmigen Fla-
schenhals aus. Bei dieser näherungs-
weise adiabatischen Expansion kühlt
es sich deutlich ab. Gleichzeitig
erleiden die ausströmenden Gasmole-
küle viele Stöße mit den Molekülen
der umliegenden wärmeren Raum-
luft, die auch Wasserdampf enthält.
Dadurch kühlt sich auch die benach-
barte Raumluft ab, bevor durch
Abb. 1 Nach dem Öffnen einer Cham-
pagnerflasche strömt CO
2
in die relativ
trockene Raumluft. Während der adia -
batischen Expansion ist für etwa 2 ms
eine Kondensationswolke sichtbar
(Bildrate 4000 Bilder/s, Integrationszeit
1/5000 s).
Download:
MAGAZI N
Wäre sie konstant, so würden sich
Geschwindigkeiten von 11 m/s
(Δt = 1 ms) beziehungsweise 22 m/s
(Δt = 2 ms) ergeben. Tatsächlich
nimmt die Beschleunigung wegen
der Druckabnahme während des
Ausströmens stark ab. Unter der
Näherung, dass die Beschleunigung
des Korkens linear innerhalb der
2 ms dauernden Beschleunigungs-
phase vom Maximalwert auf Null
abnimmt, findet man wieder eine
Korkengeschwindigkeit von 11 m/s.
Abbildung 2 gestattet auch, die
Ausbreitungsgeschwindigkeit der
Kondensationswolke zu bestimmen.
Innerhalb der ersten 0,25 ms breitet
sich die Begrenzung der Wolke seit -
lich mit bis zu 92 m/s zwar schneller
aus als der Korken, aber immer noch
deutlich langsamer als mit der mittle-
ren Geschwindigkeit der Gasmolekü-
le. Diese beträgt für CO
2
als ideales
Gas etwa 375 m/s bei 20 °C (305 m/s
bei –80 °C).
Die entsprechenden mittleren
freien Weglängen der Gasmoleküle
zwischen zwei Stößen betragen etwa
100 nm bei Normaldruck von etwa
1000 hPa und nur etwa 20 nm für
5000 hPa. Dies führt dazu, dass jedes
Gasmolekül deutlich mehr als
10
6
Stöße innerhalb der ersten
0,25 ms ausführt. Dies reicht aus,
um das umgebende Gas effektiv zu
kühlen, während das ausströmende
CO
2
-Gas sich gleichzeitig langsam
erwärmt. Die Kondensationswolke
wird sich daher zunächst rasch aus -
breiten. Dieser Prozess verlangsamt
sich und endet, wenn immer mehr
warme Luftmoleküle an den Stößen
teilnehmen. Letztlich bildet sich ein
thermisches Gleichgewicht bei
Raumtemperatur weit über dem
Taupunkt, so dass die Kondensations-
wolke verdampft.
Mit Hilfe der Gasgesetze lassen
sich zudem Abschätzungen über die
beteiligten Energien machen. Diese
Rechnungen finden Sie ebenfalls zum
freien Download auf www.phiuz.de
Special Features/Zusatzmaterial zu
den Heften.
Man sieht: Physikbegeisterten
liefert das Thema Champagner jede
Menge Gesprächsstoff. Ob dies jeder
Gast auf einer Silvesterfeier ebenso
sieht, sollte man vorsichtig ausprobie-
ren.
Literatur
[1] M. Vollmer, K.-P. Möllmann, Phys.Unserer
Zeit 2011, 42(3), 144.
[2] M. Vollmer, K.-P. Möllmann, Phys. Ed.
2012, 47 (5), 608.
[3] G. Liger-Belair, Uncorked: The Science of
Champagne, Princeton University Press,
Princeton 2004.
Michael Vollmer, Klaus-Peter Möll-
mann, FH Brandenburg
308 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Abb. 2 Für etwa 9 ms sichtbare Kondensationswolke nach Öffnen einer Champagnerflasche in Raumluft mit etwa 70 %
relativer Feuchte (4000 Bilder/s, 1/4000 s).
Jahresregister 2012 online
Nach mehr als 40 Jahren Physik in
unserer Zeit hat sich die Redaktion
entschlossen, das Jahresregister nicht
mehr in gedruckter Form zu liefern.
Stattdessen finden Sie es auf
www.phiuz.de in der linken Spalte
mit den SPECIAL FEATURES unter
„Jahres- und Gesamtregister.“ Das
Register in Form eines PDF hat den
Vorteil, dass sich darin leichter nach
Stichworten suchen lässt als in der
gedruckten Variante. Darüber hinaus
hat jeder Leser die Möglichkeit, das
PDF in eine Word-Datei umzuwandeln
und sich so sein eigenes Register zu
schaffen.
An dieser Stelle möchten wir auch
noch darauf hinweisen, dass Sie auf
derselben Seite das Gesamtregister
seit 1994 finden, aufgetrennt in ein
Sach- und ein Autorenregister.
TB
PHYSI K I N UNSERER ZEI T
|
MAGAZI N
HI STORI SCHES RÄTSEL
|
Der Radar-Ritter
Bei seinem Tod ging ein Rauschen durch den Blätterwald. Schließlich
war ein echter Ritter gestorben, der nicht nur wegen seiner Verdiens te
in der Radioastronomie in diesen Ehrenstand gekommen war: Als
Radar-Experte hatte er im Kalten Krieg an vorderster Front gestanden.
militärischen Radartechnik: Seine
Anlagen hatten im Krieg aufgetauch-
te deutsche U-Boote aufgespürt und
Flugzeuge geleitet.
So konnte er auch durchsetzen,
auf dem Parkplatz ein stationäres
Teleskop mit 76 Metern Durchmes-
ser zu errichten. Heute trägt es
seinen Namen. Weil die Baukosten
damals in die Höhe schossen, ver-
schuldete er sich persönlich mit
50000 Pfund. Doch mit dieser Anten-
ne – seinerzeit der Größten seiner
Art weltweit – konnte der Physiker
nicht nur die Bahn der Rakete verfol-
gen, die Sputnik I ins All trug. Er
musste damit auch vor Kontinental -
raketen mit atomaren Sprengköpfen
warnen, was ihn zu einem der wich-
tigsten Wissenschaftler im Kalten
Krieg machte. (Immerhin wurden
ihm nach dem Sputnik-Erfolg seine
Schulden erlassen.)
So lange allerdings keine militäri-
schen Raketen flogen, durfte der
Physiker das Teleskop auch für
andere Aufgaben nutzen,
für die er sich mehr
interessierte – etwa die
Untersuchung von Pul -
saren und anderer Radio-
quellen im All. Der Radar-Ritter
wurde so zu einem der wichtigsten
Radioastronomen
seiner Zeit.
Andreas Loos, Berlin
Wer war der angeblich verstrahlte
Physiker? Schreiben Sie die Lösung
auf eine Postkarte an:
Physik in unserer Zeit, Wiley-VCH,
Boschstraße 12, 69469 Weinheim,
oder schreiben Sie eine Email an:
thomas@buehrke.com. Absender
nicht vergessen! Einsendeschluss ist
der 15.12.2012. Der Rechtsweg ist
ausgeschlossen. Wir verlosen drei
Exemplare des Buches Der perfekte
Tipp von Andreas Heuer.
Lösung aus Heft 5/2012
Die verkannte Physikerin war
Chien-Shiung Wu (31.5.1912 bis
16.2.1997).
Gewinner aus Heft 4/2012
A. Kuthe, München,
B. Schomaker, Rahden,
D. Willems, Mendig.
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43) Phys. Unserer Zeit 309
Schließlich konnte niemand so wie
er per Teleskop über den Eisernen
Vorhang blicken, was ihn angeblich
sogar in Lebensgefahr brachte. Bei
einem Besuch in der Sowjetunion im
Jahre 1963 glaubte er sich starker
elektromagnetischer Strahlung aus -
gesetzt. „Ich war heilfroh, auf der
Rückreise die Lichter von London
wiederzusehen“, erinnerte er sich
später. „Ich war für eine ziemliche
Zeit krank, aber ich habe mich
wieder erholt.“
Fast fünfzig Jahre lang schwieg
der Physiker über seinen Verdacht –
und selbst danach blieb er vage.
„Ich habe ein Memorandum über
den ganzen Besuch geschrieben, und
auch über meine Besuche in der
Sowjetunion davor und danach. Das
ist nun im John Rylands Archive und
ich habe darum gebeten, es nicht zu
veröffentlichen, so lange ich lebe.“
Man darf gespannt sein, was darin
zu lesen sein wird.
Im Internet sind noch keine
Auszüge daraus zu finden, dafür
anderes: Große Teile seiner Kindheit
und Jugend verbrachte er auf dem
Kricketplatz. Das Spiel blieb seine
Passion, ebenso wie die Orgel, mit
der er Jahrzehnte hindurch das ganze
Kirchspiel unterhielt. Bäume scheint
er auch geliebt zu haben – so er-
weiterte er einen Teil des Botani-
schen Gartens der Universität Man-
chester zu einem 14-Hektar-Garten
mit exotischen Bäumen in Jodrell
Bank bei Manchester.
Genau dort parkte er in den
1940er Jahren eine mobile Radaran -
lage der Armee, auf der Flucht vor
elektrischen Störungen durch Stra-
ßenbahnen und andere städtische
Stromquellen Manchesters. In dieser
Zeit war der promovierte Physiker
die Nummer Eins der britischen
TREFFPUNKT TV
|
19.11., 10.00 Uhr, hr: Ein Motor-
rad unter Druck. Die Sendereihe
Achtung! Experiment zeigt die Gül-
tigkeit physikalischer Gesetze und
beweist: Wissenschaft ist aufregend
und macht Spaß.
19.11., 11.00 und 11.45 Uhr, ZDF
Info: Die Geburt des Universums
und Suche nach neuen Sonnen-
systemen. Zweiteilige Sendung
über neue Erkenntnisse der Astro-
physik und Kosmologie.
21.11., 23.05 Uhr, ntv: Mysterium
Universum: Extreme Energien.
Verschiedene Energieformen im Uni-
versum.
23.11., 17.35 Uhr, Arte: Die Son-
nenöfen der Pyrenäen. Doku über
die derzeit größte Solarthermie-Anla-
ge der Welt In Südspanien. Sie gilt
als Modell für das Projekt Desertec:
Solarthermie-Kraftwerke in der
Wüste.
26.11., 19.30 Uhr, Bayern-alpha:
Fusion – Die Energiequelle der
Sterne.
28.11., 23.05 Uhr, ntv: Mysterium
Universum: Todessterne. Super-
novae und ihre Überreste, Neutro-
nensterne und Schwarze Löcher.
2.12., 19.15 Uhr, Bayern alpha:
Heinrich Hertz – der Nachweis
der elektromagnetischen Wellen.
11.12., 21.00 Uhr, WDR: Der
Mars. Neues vom Roten Planeten
zeigt Ranga Yogeswar in Quarks &
Co.
13.12., 22.15 Uhr, Arte: Das Rät-
sel der Dunklen Materie: Doku-
mentation über die gemeinsamen
Anstrengungen von Teilchen- und
Astrophysikern, diesem Phänomen
auf die Spur zu kommen.
MAGAZI N
MOLGASTRONOMI E
|
Explosionen in der Champagnerflöte
„Sterne, Sterne, ich trinke Sterne“ rief Dom Perignon verzückt, als ihm
das erste Glas Champagner die Nase reizte und er davon probierte. So
die Anekdote. Kohlendioxidbläschen und deren Spiel im Glas, auf der
Zunge, in der Nase, ist der ganz besondere Reiz des Schaumweins. Was
aber bewirkt das Perlen überhaupt?
landen die nach wie vor druckbela-
denen Bläschen an der Oberfläche,
werden weiter nach oben gedrückt,
ragen somit immer weiter aus der
Flüssigkeit und sind auf ihrer Kappe
noch von einem dünnen Champag-
nerfilm umschlossen. Bald ist die
Oberflächenspannung dem Druck
nicht mehr gewachsen. Dann zerbirst
der Champagnerfilm schlagartig.
Winzige Tröpfchen werden in die
Höhe geschleudert, das Gas ent-
weicht. Gleichzeitig füllen sich die
von den Blasen hinterlassenen
„Löcher“ auf, Champagner schwappt
von unten hinein, so dass er in Form
winziger Tröpfchen nach oben
schießt, die beim allzu tiefen Schnup-
pern in der Champagnerflöte die
Nase kitzeln.
Aber das ist noch nicht alles,
denn Ähnliches geschieht auch bei
Mineralwasser in abgeschwächter
Form. Entscheidend ist die Aromen-
komplexität des Grundweins. Wäh-
rend der ersten Gärung entwickeln
sich charakteristische Aromen mit
ausgewiesenen Attributen. Dazu
gehören Alkohole wie Butanol (für
sich riecht es fuselölig, süßlich,
balsamisch), Pentanol (süßlich,
kräuterartig, nussig-wachsig), Phenyl-
2-ethanol (floral, rosenartig, mit
einem Hauch Rosenwasser), aber
auch Aldehyde wie Butanal (ste-
chend moderig, ein Hauch Kakao,
grünlich-malzig) und Hexanal (frisch
grün leicht fettig, fruchtig) tragen
zum Bukett bei. Selbst die an und für
sich übel riechende Buttersäure darf
nicht fehlen. Eingebettet und wohl-
dosiert trägt sie zur Abrundung des
Schaumweins bei, wie auch viele
Schwefelverbindungen.
Diese Aromenverbindungen lösen
sich bei den Genusstemperaturen um
10 °C nur mäßig in Wasser und fin -
den daher in der CO
2
-Atmosphäre
der Bläschen das bevorzugte Lö-
sungsmittel. Jedes platzende Bläs-
chen erzeugt somit eine Wolke
und schleudert flüchtige Aromen
heraus.
Voilà, darauf erst mal einen
kräftigen Schluck Schampus auf die
kleinen „Aromabooster“. Wir trinken
Sterne. À la votre!
Literatur
G. Liger-Belair, Entkorkt – Wissenschaft im
Champagnerglas, Spektrum Verlag, Heidelberg
2006.
Thomas Vilgis, MPI für
Polymerforschung, Mainz
310 Phys. Unserer Zeit 6/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Der Druck in der Flasche, aufgebaut
durch das Kohlendioxid von der
Flaschengärung, beträgt beachtliche
3,5 bis 6,5 bar. Das Gas ist in Mikro-
bläschen gelöst, wobei die Größen-
ordnung für ihren Radius R aus dem
Pascalschen Druck p ≈ 2γ/R zu rund
500 μm abgeschätzt werden kann,
wenn die Oberflächenspannung γ
mit etwa 50 mN/m gemessen wird.
Nach dem Öffnen und dem Ein -
schenken wachsen die Bläschen und
steigen nach oben, sammeln dabei
immer mehr CO
2
auf und werden
größer – und mit dem Quadrat des
Radius schneller (Physik in unserer
Zeit 2011, 42(1), 50). Schließlich
So gelangen die Aromastoffe in die Nase: Ein Bläschen zer-
platzt an der Oberfläche, ein Jetstrom schießt nach oben.
Am Fuße von Mount Sharp
Der erfolgreich gelandete Mars-Rover Curiosity übermittelte dieses Foto von
Mount Sharp. Er befindet sich im Innern des Kraters Gale und erhebt sich bis in
rund 5000 Meter Höhe. Auf welche Weise sich die erkennbaren Schichten gebildet
haben, ist noch weitgehend unklar. Der Krater entstand vor 3,8 bis 3,5 Milliarden
Jahren durch einen Meteoriteneinschlag. Möglicherweise floss anschließend Wasser
in ihn hinein und bildete einen See, in dem sich Tonminerale am Boden absetzten.
Schließlich trocknete das Gewässer aus, und am Boden blieben Sedimentschichten
zurück. Im Laufe der folgenden Jahrmilliarden erodierte der Wind das abgelagerte
Material, wobei Mount Sharp stehen blieb. In der Analyse der Sedimentschichten
sehen die Forscher eine einzigartige Möglichkeit, die Klimageschichte des Mars zu
rekonstruieren (marsprogram.jpl.nasa.gov/msl).
PHYSI K I M BI LD
|
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 6/2012 (43)
|
Phys. Unserer Zeit
|
311
RÜCKBL I CK
|
VORSCHAU
I M NÄCHSTEN HEFT
|
RÜCKBLI CK
|
Heft 4/2012
Von Luftschauern zu kosmischen Teilchenbeschleunigern
Editorial
Eine Ballonfahrt mit Folgen
Physikgeschichte
Das Antimaterie-Rätsel
Teilchenphysik
Auf der Spur von Kohlendioxid
Technische Physik
Olympische Rekorde
Sportphysik
Aus der Erde in die Erde
Energietechnik
Ein Geodreieck als optisches Gitter
Spielwiese
Heft 5/2012
Seltsame Myonen
Editorial
Bedrohliche Wirbel
Atmosphärenforschung
Die Vermessung des Protons
Teilchenphysik
Diskrete Physik und schnelle Transformationen
Diskrete Physik
Leonardos Kreuz in der Teetasse
Spielwiese
Entropie entmystifiziert
Physikdidaktik
PHIUZ 1/2013 erscheint Mitte Januar
Die Wiedergabe von Gebrauchsnamen, Han delsnamen, Warenbezeichnungen
und dgl. in dieser Zeitschrift berechtigt nicht zu der An nahme, dass solche Namen
ohne weiteres von jedermann benutzt werden dürfen. Vielmehr handelt es sich
häufig um gesetzlich geschützte eingetragene Warenzeichen, auch wenn sie nicht
eigens als solche gekennzeichnet sind. – Alle Rechte vorbehalten, insbesondere
die der Übersetzung in fremde Sprachen. Kein Teil dieser Zeitschrift darf ohne
schriftliche Genehmigung des Ver lages in irgendeiner Form – durch Photokopie,
Mikrofilm oder irgendein anderes Verfahren – reproduziert oder in eine von
Ma schinen, insbesondere von Datenverarbeitungsmaschinen verwendbare
Sprache übertragen oder übersetzt werden. Nur für den persön li chen und
sons tigen eigenen Gebrauch dürfen von einzelnen Beiträgen oder Teilen von ihnen
einzelne Vervielfältigungsstücke hergestellt wer den. Der Inhalt dieses Heftes
wurde sorg fältig erarbeitet. Dennoch übernehmen Autoren, Herausgeber,
Redaktion und Verlag für die Richtigkeit von Angaben, Hinweisen und Rat schlägen
sowie für eventuelle Druckfehler keine Haftung.
Physik in unserer Zeit
finden Sie im Internet unter
http://www.phiuz.de
Zugriff auf Physik in unserer Zeit vom Schreibtisch aus:
Wiley Online Library bietet Vollpreis-Abonnenten Zugang
zu den Volltexten sowie zu Inhaltsverzeichnissen und
Abstracts von über 300 anderen Zeitschriften aus dem
Wiley-Programm. Sichern Sie Ihren Zugriff – wenden Sie
sich an Ihre Bibliothek.
Die Verbrennung
Die Verbrennung ist in der Technik, etwa in
Motoren, ein elementarer Vorgang. Dabei laufen
komplexe chemische und physikalische Prozesse
sehr schnell und auf kleiner Skala ab. Computer-
simulation und Laserdiagnostik ermöglichen
heute tief gehende Einblicke in ein Phänomen,
das die menschliche Kultur seit jeher befeuert.
Chemische Reaktionen
in Superzeitlupe
Einer der großen wissenschaftlichen Träume ist
es, Superzeitlupen-„Filme“ von extrem schnellen
chemischen Reaktionen aufzunehmen. Idealer-
weise zeigen diese Bilder in Femtose kunden auf-
gelöst, was dabei in den Molekülen geschieht.
Entscheidend für solche Aufnahmen ist das rich-
tige „Licht“, das zum Beispiel ein Freie-Elektro-
nen-Laser liefert. Mit FLASH in Hamburg gelan-
gen erste, tiefe Einblicke in die Mole kül dynamik.
Das neue Bild der Heliosphäre
Jahrzentelang ließ sich die Frage nach der Struk-
tur der Heliosphäre ausschließlich mit Computer-
simulationen angehen. Erst Messungen des
Satelliten Interstellar Boundary Explorer lieferten
jüngst ein Bild dieser, das Planetensystem umge-
benden Plasmablase. Das zeigt völlig unerwartet
beim Übergang zum interstellaren Medium keine
Stoßfront.
Das Putt-putt-Boot als
Wärmekraftmaschine
Ein Dampfjetboot ist eine einfache Wärmekraft-
maschine. Ohne bewegliche Teile verwandelt
sie thermische Energie einer Kerzenflamme in
mechanische Energie, die sich in periodisch aus-
und einströmendem Wasser äußert und das
Boot in Bewegung versetzt.
Das Entropierad
Ein Entropierad nutzt reversible Konformations-
änderungen von Polymermolekülen als Arbeits-
mittel. Auf diese Weise lässt sich thermische
Energie bei einer relativ geringen Temperatur
in mechanische Energie umwandeln.
Kraftvolle Eleganz
Beim Turnen können enorm hohe Kräfte auftre-
ten, etwa am Reck und an den Ringen. Trotzdem
fordern die Jurys elegante und flüssige Bewegun-
gen, zudem müssen die Athleten unangestrengt
wirken.
AcademiaNet ist ein einzigartiger Service für Entschei-
dungsträger aus Wissenschaft und Industrie, ebenso wie für
Journalisten und Veranstalter von Tagungen und Kongressen.
Hier Ƭnden Sie hochquaIiƬzierte Akademikerinnen, die
neben ihren hervorragenden fachIichen QuaIiƬkationen auch
noch Führungserfahrung und Managementfähigkeiten
vorweisen können.
AcademiaNet, das europäische Rechercheportal für
herausragende Wissenschaftlerinnen bietet:
Ǟ ProƬIe hochquaIiƬzierter Akademikerinnen aIIer Fachrich-
tungen - ausgewähIt von Vertretern renommierter Wissen-
schaftsorganisationen und Industrieverbänden
Ǟ IndividueIIe SuchmögIichkeiten nach Fachrichtungen,
Arbeitsgebieten und weiteren Kriterien
Ǟ AktueIIe redaktioneIIe Beiträge zum Thema »Frauen in der
Wissenschaft«
www.academia-net.org
Das Rechercheportal für
herausragende Wissenschaftlerinnen
Eine Initiative der Robert Bosch Stiftung in Zusammenarbeit mit
Spektrum der Wissenschaft und der nature publishing group

Sign up to vote on this title
UsefulNot useful

Master Your Semester with Scribd & The New York Times

Special offer for students: Only $4.99/month.

Master Your Semester with a Special Offer from Scribd & The New York Times

Cancel anytime.