Sie sind auf Seite 1von 267

Zum Thema:

Der absolute Temperaturnullpunkt läßt sich niemals erreichen, doch kann


man sich ihm heute bereits bis auf wenige Millionstel Grad nähern. Louis
Cailletets Sauerstoffverflüssigung hatte im Jahr 1877 das Interesse an den
tiefen Temperaturen ausgelöst. Dann wurde Helium, das Gas mit dem
niedrigsten Siedepunkt, von Onnes in Leiden verflüssigt; heute werden mit
magnetischer Kühlung und mit Hilfe von Eigenschaften des Atomkerns so
faszinierende und vor allem technologisch bedeutsame Phänomene wie das
Verschwinden der inneren Reibung von Flüssigkeiten und die Supraleit-
fähigkeit untersucht und nutzbar gemacht. Zum erstenmal ist diese aben-
teuerliche Geschichte, sind ihre Protagonisten (fast alle Nobelpreisträger)
und deren Anteil an der Entwicklung der modernen Quantenphysik aus
unmittelbarer Erfahrung und Anteilnahme geschildert und charakterisiert
worden.

Zum Autor:
Professor Kurt Mendelssohn (geb. 1906), Schüler von Nernst, Planck,
Einstein und Schrödinger in Berlin und Breslau, forscht und lehrt seit 1933
in Oxford; er war überdies der erste, der in England Helium verflüssigt hat.
So hat er mit eigenen Experimenten und Untersuchungen das Vordringen
zum absoluten Nullpunkt wesentlich mitgefördert. 1952 war er
Gastprofessor an der Rice Universität in Houston (Texas), 1964 an der
Kwame Nkrumah Universität in Kumasi (Ghana); zuvor auch in Japan.
Sein Hauptwerk Cryophysics (1960) gehört zur Standardliteratur der
Tieftemperaturforschung. Er ist außerdem mit Untersuchungen über den
Stand der naturwissenschaftlichen Forschung in China, Japan, der
Sowjetunion und Polen hervorgetreten.
Kindlers Universitäts Bibliothek

Kurt Mendelssohn

Die Suche nach dem absoluten Nullpunkt

68 Abbildungen und farbige Diagramme


Kindlers Universitäts Bibliothek
World University Library
Herausgeber der deutschen Ausgabe
Hans-Geert Falkenberg Redaktion:
Kurt Fassmann Rolf Geisler

Wissenschaftlicher Beirat der deutschen Ausgabe


Prof. Dr. Herbert W. Duda Prof. Dr. J. Hans D. Jensen
(Wien) (Heidelberg)
Prof. Dr. Ludwig Heilmeyer Prof. Dr. Helmuth Plessner
(Freiburg) (Erlenbach bei Zürich)

Herausgeber der internationalen Ausgabe


Verlag Weidenfeld & Nicolson Managing Editor:
(London) Colin Haycraft

Wissenschaftlicher Beirat der internationalen Ausgabe


Prof. J. L. Aranguren (Madrid) Dr. Michael Grant (Belfast)
Prof. Léon Binet (Paris) Prof. L. Heilmeyer (Freiburg)
Sir Maurice Bowra (Oxford) Prof. A. den Hollander (Amsterdam)
Prinz Louis de Broglie (Paris) Prof. J.H.D. Jensen (Heidelberg)
Douglas Cooper (Oxford) Prof. Bernard Lewis (London)
John Davy (London) Denis Mack Smith (Oxford)
Prof. S. Dresden (Leiden) Prof. Sir Nevill Mott (Cambridge)
Prof. Herbert W. Duda (Wien) Prof. Enzo Paci (Mailand)
Prof. P. L. Entralgo (Madrid) Prof. H. Plessner (Zürich)
Prof. R. J. Forbes (Amsterdam) John Vaizey (Oxford)
Pierre Gaxotte (Paris) Prof. Miguel Gayoso (Madrid)
Aus dem Englischen von Gernot v. Pape

© 1966 Copyright by K. Mendelssohn


© 1966 Copyright der deutschsprachigen Ausgabe by Kindler Verlag GmbH,
München
Titel der englischen Originalausgabe:
The Quest for Absolute Zero. The meaning of low temperature physics
Korrekturen Dr. Rudolf Zitek
Scan by Brrazo 10/2005, k-Lesen by Circus
Satz bei Münchner Buchgewerbehaus GmbH
Printed in Italy by Officine Grafiche Arnoldo Mondadori. Verona
Inhalt

1. Paris 1877 8
2. Krakau 1883 26
3. London 1898 56
4. Leiden 1908 81
5. Der dritte Hauptsatz 99
6. Quantelung 123
7. Unbestimmtheit 148
8. Magnetische Kühlung 175
9. Supraleitung 206
10. Suprafluidität 238
Nachwort 265
Literaturhinweise 266
Abbildung gegenüber der Titelseite: Apparatur für den ersten nuklearen Kühl-
versuch; das Solenoid ist herabgelassen, und man erkennt den Kryostaten mit
flüssigem Helium.
1 | Paris 1877

Unsere Geschichte beginnt im Jahr 1877. Es ist Weihnachtsabend, und


Schauplatz ist die Akademie der Wissenschaften in Paris. In der vorange-
gangenen Woche hatten sich die Gerüchte verdichtet, daß die Bekanntgabe
einer bedeutenden Entdeckung kurz bevorstünde. Die Versammlung
wartete ungeduldig, während die Tagesordnung in der schwerfälligen
Weise gelehrter Akademien erledigt wurde. Dann öffnete der Schriftführer
Dumas gleichsam den Vorhang, indem er ein Zitat aus den Werken
Lavoisiers verlas: »Würde man die Erde in eine heißere Zone des Sonnen-
systems bringen, sagen wir eine, in der die umgebende Temperatur höher
wäre als die kochenden Wassers, dann würden alle unsere Flüssigkeiten
und sogar einige Metalle in den gasförmigen Zustand versetzt und Teil der
Atmosphäre. Würde die Erde andererseits in sehr kalte Zonen, etwa die des
Jupiter oder Saturn, gebracht, dann würde das Wasser unserer Flüsse und
Meere in festes Gebirge verwandelt. Die Luft (oder wenigstens einige ihrer
Bestandteile) würde aufhören, ein unsichtbares Gas zu sein, und flüssig
werden. Eine derartige Umwandlung würde also neue Flüssigkeiten
hervorbringen, die wir uns bis jetzt nicht vorstellen können.«
Fast ein ganzes Jahrhundert war vergangen, seit der große Chemiker
diese prophetischen Sätze geschrieben hatte und alle Versuche mißglückt
waren, in den Laboratorien Lavoisiers »neue Flüssigkeiten« herzustellen.
Die Mitteilung, die nun verlesen werden sollte und in der die Verflüssi-
gung von Sauerstoff gemeldet wurde, war daher ein Meilenstein auf einem
neuen Weg, dem Weg zum absoluten Temperaturnullpunkt. Autor der
Mitteilung war ein frisch gewähltes korrespondierendes Mitglied der
Akademie, ein Bergbauingenieur aus Chatillon-sur-Seine namens Louis
Cailletet. Wie viele seiner Vorgänger begann er, mit Gasen zu experimen-
tieren, die er hoffte, durch Anwendung hohen Drucks verflüssigen zu
können. Für den ersten Versuch nahm er Acetylen (C2H2), da man

8
vermutet hatte, daß bei Zimmertemperatur ein Druck von etwa 60 at zu
dessen Verflüssigung ausreichen würde. Bevor dieser Druck jedoch
erreicht wurde, bekam die Apparatur ein Leck, und das komprimierte Gas
entwich. Cailletet hatte das dickwandige Glasrohr mit dem komprimierten
Acetylen während des Zwischenfalls beobachtet. Gleich nach Entstehen
des Lecks bemerkte er, daß sich ein blasser Nebel im Rohr gebildet hatte,
der sofort wieder verschwand. Der Schlüssel zu Cailletets späterer Großtat
war seine unverzügliche Folgerung, daß die Druckerniedrigung eine
plötzliche Abkühlung des Acetylens bewirkt und er die vorübergehende
Kondensation eines Gases wahrgenommen hatte. Zuerst argwöhnte er, das
Acetylen sei nicht rein gewesen und er habe Wassertröpfchen gesehen. Aus
Berthelots berühmtem Laboratorium verschaffte er sich nun sehr reines
Acetylen, aber als er das Experiment damit wiederholte, entwickelte sich
wiederum der Nebel. Jetzt stand außer Zweifel, daß Acetylen verflüssigt
worden war und Cailletet bei seinem Mißgeschick auf eine neue
Gasverflüssigungsmethode gestoßen war. Im Besitz dieser Kenntnis verlor
er keine Zeit, das wichtigste Problem auf jenem Gebiet anzugreifen: die
Verflüssigung der atmosphärischen Gase. Er begann mit Sauerstoff, da
dieser ziemlich leicht rein dargestellt werden konnte, komprimierte ihn bis
auf etwa 300 at und kühlte das dickwandige Glasrohr seiner Apparatur auf
–29° C ab, indem er es mit verdampfendem Schwefeldioxid umgab. Als er
den Druck plötzlich verminderte, beobachtete er wieder einen Nebel aus
Kondensationströpfchen. In einigen weiteren Versuchen stellte er sicher,
daß dieser Nebel nicht auf Verunreinigungen zurückzuführen war.
Sauerstoff war verflüssigt worden, und einen Bericht über dieses
Experiment legte er der Akademie vor.
Aber noch eine andere Überraschung stand bevor. Cailletets Aufsatz
war kaum verlesen, als der Schriftführer bekanntgab, die Akademie habe
zwei Tage vorher, am 22. Dezember, ein Telegramm eines Genfer
Physikers erhalten. Es lautete:
Sauerstoff heute bei 320 Atmosphären und 140 Kältegraden durch
kombinierte Anwendung von schwefliger und Kohlensäure verflüssigt.
Raoul Pictet

9
Diese kurze Mitteilung ergänzte ein Bericht über die von Pictet
angewandte Methode, der offenbar früher eingesandt worden war und das
Ergebnis vorwegnahm. Pictet hatte nicht Cailletets direkten Weg zum
Erfolg gefunden, sondern sich der Verflüssigung von Sauerstoff stufen-
weise genähert, indem er verschiedene Gase nacheinander verflüssigt hatte.
Dieser Weg wurde als Kaskadenverfabren bekannt und wird noch
besprochen werden. Wichtig ist, daß Pictet praktisch gleichzeitig, aber mit
einer ganz anderen Methode, dasselbe Ziel wie Cailletet erreicht hatte.
Das Zusammentreffen der Entdeckungen war kein Zufall. Die
Geschichte der Naturwissenschaften kennt viele Beispiele dafür, daß zwei
oder mehrere Leute unabhängig voneinander dieselbe Entdeckung
ungefähr zur selben Zeit gemacht haben. Mit »unabhängig« ist dabei
gemeint, daß sie nicht voneinander abschrieben oder einander über die
Schulter schauten. Diese Entdeckungen waren niemals unabhängig, wenn
man den Entwicklungsstand der Wissenschaft betrachtet. Die Wissenschaft
schreitet nicht durch glückliche Zufälle voran; sie wächst organisch und
bringt unausweichlich die Entdeckungen hervor, die jedes Entwicklungs-
stadium erfordert. Cailletet hätte dem Nebel keine Beachtung geschenkt,
wäre er nicht an Gasverflüssigung interessiert gewesen. Hätte nicht er
dessen Bedeutung erfaßt, so wäre sie früh genug von jemand anderem
bemerkt worden. Dasselbe gilt für Pictet, der auf einem anderen Weg zum
selben Ergebnis kam. Obwohl unsere Geschichte mit einer Doppelfanfare
am Weihnachtsabend 1877 beginnt, war, wie wir später sehen werden, die
Bühne dafür längst errichtet, und die Galapremiere mußte eben um jene
Zeit stattfinden.
Der organische Fortschritt der Wissenschaft mit der Unausweichlichkeit
ihrer großen Leistungen zur rechten Zeit hat ihren Anhängern ein heikles
Problem beschert, nämlich das der Priorität. Obwohl jedermann weiß, daß
eine Entdeckung, wenn sie gemacht wurde, gemacht werden mußte, legt
man dennoch großen Wert darauf, sie zuerst gemacht zu haben. Es sind
genug Fälle bekannt, die Kopf-an-Kopf-Rennen nahekommen und
Zielfotos erfordern. Es gibt dabei gewisse Spielregeln, die sich zwar von
Zeit zu Zeit und von Land zu Land etwas ändern, die aber alle auf eine Art

10
offizielle Publikation der Entdeckung abzielen. Im Frankreich Cailletets
und Pictets kam es auf die Mitteilung an die Akademie an. Pictet hatte sich
durch sein Telegramm den 22. Dezember gesichert, den Tag, an dem sein
Experiment gelungen war. Aber was war mit Cailletet, dessen Aufsatz erst
am 24. verlesen wurde? Seine entscheidende Beobachtung hatte er am 2.
Dezember gemacht, und nur aus persönlichen Gründen war die
Bekanntgabe auf den Sitzungen am 7., am 10. oder am 17. unterblieben.
Cailletet hatte sich in folgendem Dilemma gesehen: Auf der Sitzung der
Akademie am 17. Dezember stand er zur Wahl als korrespondierendes
Mitglied, und er hielt es mit Recht für schlechte Politik, ein sensationelles
Forschungsergebnis an oder kurz vor diesem Tag bekanntzugeben. Es hätte
nach einem Versuch aussehen können, die Wähler zu beeinflussen.
Andererseits konnte es nicht schaden, die Katze aus dem Sack zu lassen,
solange das nicht in der Akademie geschah. So hatte Cailletet die
Sauerstoffverflüssigung vor einem geladenen Kollegenkreis in der École
Normale in Paris vorgeführt, und zwar am Sonntag, dem 16. Dezember.
Am folgenden Tag wählte ihn die Mineralogische Abteilung der Akademie
mit 33 gegen 19 Stimmen. Jetzt konnte die wichtige Bekanntgabe am 24.
stattfinden, aber Pictets Telegramm vom 22. kam dazwischen. Es schien,
als hätte Cailletet die Priorität verloren. Aber die Sache ging glücklich aus.
Am 2. Dezember, dem Tag seines entscheidenden Experiments in
Chatillon-sur-Seine, hatte Cailletet einen Brief mit einem vollständigen
Bericht über die Entdeckung an seinen Freund Sainte-Claire Deville in
Paris geschrieben. Der Brief war am 7. angekommen, und Deville hatte ihn
sofort zum ständigen Schriftführer der Akademie gebracht, von dem er
gezeichnet und mit Datum gesiegelt worden war. Damit war Cailletets
Priorität bei der Verflüssigung von Sauerstoff anerkannt.
Pictet hatte in seiner ersten Mitteilung nichts über die tiefste Temperatur
bei seinen Experimenten gesagt. Von Cailletet war der Temperaturabfall
bei seiner Expansion auf 200° C geschätzt worden, was nicht sehr falsch
war. In jenem Stadium schien noch bedeutsamer als die Temperatur-
erniedrigung die Tatsache, daß Lavoisiers Voraussage sich im
Laboratorium als richtig erwiesen hatte. Die Luft der Erdatmosphäre war in

11
eine Flüssigkeit verwandelt worden, denn Cailletet gab nur eine Woche
nach der denkwürdigen Sitzung vom 24. die Verflüssigung von Stickstoff
bekannt. Er war seinem Erfolg in der Weihnachtswoche auf den Fersen
geblieben.
Guillaume Amontons, der in der zweiten Hälfte des 17. Jahrhunderts
lebte, scheint als erster die Vorstellung eines absoluten Nullpunkts der
Temperatur formuliert zu haben. Er war ein später Zeitgenosse von Boyle
und Mariotte, die, wiederum unabhängig voneinander, gezeigt hatten, daß
bei der Kompression der Luft ihr Druck im selben Verhältnis ansteigt, wie
ihr Volumen abnimmt. Amontons hatte als Kind das Gehör verloren und
widmete sein Leben dem Studium der Temperatur und ihrer Messung. Bei
seinen Versuchen, ein zuverlässiges Thermometer zu bauen, benutzte er
ein Luftvolumen, das durch eine Quecksilbersäule abgeschlossen war, die
zur Druckanzeige diente. So erweiterte er die Arbeit von Boyle und
Mariotte durch Messung der Druckänderung in einem bestimmten
Luftvolumen bei Temperaturvariation. Er begann seine Messungen am
Siedepunkt des Wassers und bemerkte, daß gleiche Temperaturernied-
rigungen gleiche Luftdruckabnahmen bewirkten. Daraus schloß er, daß
nach weiterer Abkühlung der Luftdruck schließlich bei einer bestimmten
Temperatur – er schätzte sie auf –240° C – ganz verschwinden würde. Da
der Druck des Gases nicht negativ werden kann, muß es eine tiefste
Temperatur geben, unter die man Luft oder auch irgendeine andere
Substanz nicht abkühlen kann. Amontons war damit ein Vorläufer von
Charles und Gay-Lussac in Frankreich, die ein Jahrhundert später, auch
unabhängig voneinander, dieses Gesetz in einer strengeren Form
aussprachen. Sie zeigten, daß die Druckabnahme pro Grad Celsius ¹/273
des Drucks bei der Temperatur des schmelzenden Eises, d. h. bei 0° C,
ausmachte. Der absolute Nullpunkt wurde dadurch auf –273° C festgelegt.
Bezeichnenderweise stellte Amontons sich diesen absoluten Nullpunkt
als einen Zustand vollkommener Ruhe vor, in dem alle Bewegung
aufgehört haben würde. Das ist wichtig, weil sie einen Hinweis auf seine
Vorstellungen vom Wesen der Wärme gibt. Die Bedeutung der Begriffe
Wärme und Temperatur und deren richtige Messung stellte die Forscher

12
des 17. und 18. Jahrhunderts vor mißliche Probleme. Was, so fragten sie
sich, ist das Wesen der »Wärme«? Offenbar war der physikalische Zustand
von Wasser, das über einer Flamme erhitzt worden war, kurz vor dem
Kochen ein anderer als der kalten Wassers. Das ließ sich mit Amontons'
Thermometer zeigen. Auch war etwas in das Wasser eingetreten, und
dieses Etwas hatte die Flamme hervorgebracht. Nach der alten
alchimistischen Vorstellung war ein feuriger »Grundstoff« aus der Flamme
in das Wasser übergegangen. Andererseits würde ein heißes Stück Eisen,
ins Wasser geworfen, ebenfalls dessen Temperatur erhöhen. Plausible
Erklärungen für alle diese Beobachtungen erhielt man, wenn man die
Existenz eines Fluidums, genannt Wärmestoff, postulierte, dessen einzige
Eigenschaften Wärme und die Fähigkeit wären, bei Berührung von einem
Körper in einen anderen überzugehen. Demgemäß war Wärmestoff von der
Flamme an das Eisen und anschließend vom Eisen an das Wasser
übergeben worden. Seine Konzentration wurde mit dem Thermometer
gemessen, und es floß, wie es jedes Fluidum muß, von höherer zu niederer
Konzentration. Schließlich hatten Eisen und Wasser dieselbe Temperatur,
und das bedeutete, daß sie dieselbe Konzentration an Wärmestoff
enthielten. Der große Vorteil dieser Vorstellung einer materiellen Natur der
Wärme war, daß sie quantitative Aussagen gestattete. Zum Beispiel ist es
möglich, Wärmestoff in Einheiten zu messen. Die Wärmestoffmenge, die
die Temperatur von einem Gramm Wasser um einen Grad erhöht, wird
eine Kalorie genannt. Das Problem beim Wärmestoff besteht darin, daß er
ein gewichtsloses Fluidum ist. Man hatte nämlich gefunden, daß das Stück
Eisen nicht schwerer wurde, wenn man es erwärmte. Diese Erkenntnis
machte es schwierig, das Fluidum in das bestehende physikalische
Weltbild einzuordnen. Die Vorstellung des Wärmestoffs als eines
gewichtslosen Fluidums gab man schließlich Anfang des 19. Jahrhunderts
auf. Wie nützlich dieser Begriff jedoch ist, zeigt die Tatsache, daß er in
einer weniger bestimmten Form bis heute beibehalten worden ist. Der
Begriff einer »Wärmemenge«, die in Kalorien gemessen wird, ist
zusammen mit anderen Begriffen wie Temperatur, Druck und Volumen
grundlegend für die Thermodynamik.

13
Die Stärke der Thermodynamik liegt darin, daß sie diese wohl-
definierten Größen verwendet, die leicht und eindeutig gemessen werden
können. Die einfache Formel, die diese Größen miteinander verknüpft,
erschloß viele komplizierte wissenschaftliche und technologische
Probleme, die oft dank der Allgemeingültigkeit der Thermodynamik mit
fast unheimlicher Leichtigkeit gelöst wurden.
Die Begriffe der Thermodynamik werden uns von jetzt an bis zum Ende
unserer Geschichte begleiten. Sie stehen neben jenen der atomistischen
Deutung der Wärme, der kinetischen Theorie. Die Thermodynamik hat es
mit folgenden Größen zu tun: Temperatur, gemessen mit dem
Thermometer, Druck, gemessen als Kraft, die auf die Flächeneinheit wirkt,
und Volumen, gemessen als Größe eines Behälters. Alle beziehen sich auf
Beobachtungen in einem Maßstab, der vielmillionenmal größer ist als der
eines einzelnen Atoms. So ist in der Thermodynamik die Einheit der
Wärmemenge, die Kalorie, definiert als diejenige Menge Wärme, die zur
Erwärmung von einem Gramm Wasser um ein Grad Celsius nötig ist. In
dieser Definition ist nichts über die physikalische Natur der Wärme
ausgesagt. Sie kann ein gewichtsloses Fluidum sein oder etwas anderes.
Amontons' Bemerkung über den absoluten Nullpunkt als Zustand der
Ruhe zeigt, daß er tatsächlich an etwas anderes dachte als an die
hypothetische Substanz »Wärmestoff«. Dieses andere ist Bewegung im
atomaren Maßstab. 2000 Jahre vor Amontons postulierte Demokrit, daß
alle Materie aus winzigen unteilbaren Bausteinen, den Atomen,
zusammengesetzt sei. Seit der Zeit ging es mit der atomistischen Theorie
auf und ab, aber niemals wurde sie ganz aufgegeben. Sie ist unter anderem
deshalb reizvoll, weil sie eine Deutung der Wärme erlaubt, die ohne das
gewichtslose Fluidum auskommt und auf etwas schon Bekanntem basiert:
den Gesetzen der Mechanik. Newton und Amontons waren Zeitgenossen,
und es war nur natürlich, Newtons Gesetze, die die Bewegung der Körper
am Himmel und auf der Erde beschreiben, auch auf jene hypothetischen
kleinen Atome anzuwenden. Amontons scheint nicht über jene vage
Andeutung hinausgegangen zu sein, aber 1778 behandelte der große
Schweizer Mathematiker und Naturwissenschaftler Daniel Bernoulli die

14
Frage strenger. In seiner berühmten Abhandlung über Hydraulik postulierte
er, daß alle »elastischen Fluida«, wie z. B. Luft oder Wasser, aus kleinen
Teilchen bestünden, die in ständiger unregelmäßiger Bewegung seien und
dabei fortwährend miteinander und mit den Wänden des Behälters
zusammenstießen. Da die Stöße vollkommen elastisch sind, läuft sich die
Bewegung nicht tot. Die Teilchen bewegen sich etwa wie Tennisbälle, mit
dem Unterschied, daß sie überhaupt nicht »ermüden«. Jeder dieser
atomaren Tennisbälle springt, wenn man ihn fallen läßt, immer wieder bis
zur ursprünglichen Höhe zurück. Die Heftigkeit der Stöße, die Geschwin-
digkeit der einzelnen Teilchen werden von uns als Wärmeempfindung
registriert. Bernoulli legte dar, daß seine Theorie zum selben Ergebnis
führt, wie es Amontons 1702 experimentell erreichte.
Diese kinetische Deutung der Wärme ist von großer Schönheit, nicht
deshalb, weil sie besonders einfach ist – wie wir sehen werden, ist das
nicht immer der Fall –, sondern weil sie die Erscheinungen der Wärme
ganz und gar mit den bekannten Ausdrücken der Mechanik erklärt. Man
benötigt keinen neuen Begriff wie etwa den des gewichtslosen
Wärmestoffs.
Der wichtigste Glaubensgrundsatz der Naturwissenschaft besagt, daß
die physikalische Welt nach einem folgerichtigen und allumfassenden Plan
geschaffen wurde. Deshalb erwarten wir, daß alle unsere Beobachtungen,
wie zusammenhanglos sie uns auch immer erscheinen mögen, nach diesem
Schema zusammenhängen müssen. Die Entdeckung dieses Schemas ist der
einzige Zweck jeder Grundlagenforschung. Bis jetzt stehen wir immer
noch ganz am Anfang, wenn wir eifrig neue Erscheinungen entdecken, und
können nicht einmal hoffen, wären wir auch noch so findig, jemals
angemessene Vorstellungen von diesem Schema zu entwickeln. Es ist, als
setzten wir ein Puzzlespiel zusammen, und gegenwärtig wissen wir, daß
wir noch nicht einmal alle Teile in Händen haben. Auch wissen wir nicht,
wie groß das Spiel eigentlich ist, und haben das unbehagliche Gefühl, daß
es unendlich groß sein könnte. Unter diesen Umständen müssen wir uns
glücklich schätzen, wenn wir hier und da einige wenige Teile finden, die
zusammenpassen und kleine Inseln des Puzzlespiels bilden, die zunächst

15
keine Beziehung zu anderen Inseln haben. Daher triumphieren wir, wenn
wir zwei Inseln miteinander verbinden können. Die direkte Verknüpfung
der Erscheinungen der Wärme mit den Gesetzen der Mechanik über die
kinetische Theorie ist ein solcher Triumph, einer der größten in der
Geschichte der Naturwissenschaften. Dennoch dauerte es noch ein
Jahrhundert, bis Bernoullis kinetische Theorie anerkannt wurde, und wir
sehen leicht ein, weshalb. Die Erklärung der Wärme als eine Empfindung,
die durch ungeheuer viele winzige Nadelstiche von unsichtbar kleinen,
schnell bewegten Teilchen hervorgerufen wird, ist überzeugend. Überdies
ergeben sich, wie wir sofort sehen werden, die Beziehungen zwischen
Volumen, Druck und Temperatur, die von Boyle und Gay-Lussac
experimentell entdeckt wurden, als direkte Folgerungen aus der kinetischen
Theorie. Was jedoch ist eine Wärmemenge, ausgedrückt in Begriffen der
atomaren Bewegung? Man sieht sofort, daß hier die Vorstellung von einem
gewichtslosen Fluidum, das von einem Körper in einen anderen geschüttet
werden kann, viel besser geeignet ist. Außerdem sind, wie jeder
Billardspieler weiß, Stöße zwischen mehr als zwei Kugeln schwierig
vorauszuberechnen. Wie also kann man die Stöße zwischen Millionen und
aber Millionen schnell bewegter Teilchen mathematisch behandeln? Erst
als dieses letzte Problem zufriedenstellend gelöst war, wurde die kinetische
Theorie zu dem, was sie heute ist. Solange man aber nicht nach einer
Erklärung durch ein physikalisches Modell verlangt, hilft immer die
Thermodynamik. Ihre Lösungen mögen nicht aufschlußreich sein, sie sind
aber immer richtig. Auch heute gibt es noch viele Probleme in der
Phänomenologie der Wärme, die zwar keine großen Schwierigkeiten für
die thermodynamische Lösung bieten, die aber für die kinetische Deutung
ganz unzugänglich geblieben sind. Immer wenn man Bedingungen
annimmt, unter denen man die Atome oder Moleküle als vollkommen
elastische Tennisbälle betrachten kann, ergibt die kinetische Theorie ein
klares und einfaches Bild. Aber sobald man berücksichtigen muß, daß die
Tennisbälle Kräfte aufeinander ausüben, werden die Schwierigkeiten
unüberwindbar. Andererseits wurde die mathematisch zweifellos
ungeheure Schwierigkeit, die aus der Vielzahl einzelner Stöße entsteht,
durch Maxwell und Boltzmann in der zweiten Hälfte des 19. Jahrhunderts

16
gelöst. Die dabei benutzte mathematische Methode ist die Statistik, die sich
auch in der Staatskunst (hier drängt sich eine Sinnverbindung auf) beim
Umgang mit größeren Bevölkerungszahlen bewährt hat. Die Statistik sieht
vom Individuellen ab und beschäftigt sich statt dessen mit Durch-
schnittswerten. Wie der Haushaltsplan mit dem mittleren Einkommen und
die Versicherungsgesellschaften mit der mittleren Lebenserwartung, so
rechnet die kinetische Theorie mit der mittleren Geschwindigkeit. Es stört
die Versicherungsgesellschaften nicht, wenn einige Leute länger leben als
der Durchschnitt, da andere früher als der Durchschnitt sterben. In jedem
Augenblick haben in einem Gas einige Atome viel größere und andere viel
kleinere Geschwindigkeiten als der Durchschnitt, aber das macht nichts
aus, solange sehr große Zahlen statistisch behandelt werden.
Wir wollen diese Überlegung jetzt auf den einfachen Fall eines mit Luft
gefüllten Raums anwenden, dessen Volumen wir ändern können, also etwa
den eines Zylinders mit einem Kolben. Zunächst halten wir den Kolben
fest und messen den Gasdruck, d. h. die Kraft, die die Gasmoleküle auf den
Kolben ausüben. Das gelingt uns, indem wir das Gewicht bestimmen, das
auf den Kolben gelegt werden muß, um ihn festzuhalten. Die Kraft ist
gegeben durch die Zahl der Moleküle, die die Flächeneinheit des Kolbens
in der Zeiteinheit treffen, und durch die mittlere Geschwindigkeit der
Moleküle. Die letztere ist ein Maß für die Temperatur, und da wir unser
erstes Experiment ohne Temperaturänderung durchführen wollen, wird
diese mittlere Geschwindigkeit dieselbe bleiben. Das erste Experiment
besteht darin, so viel mehr Gewicht auf den Kolben zu legen, daß das Gas
bis zur Hälfte seines ursprünglichen Volumens komprimiert wird. Dann
finden wir mit Boyle, der dasselbe vor 300 Jahren tat, daß ein genau
doppelt so großes Gewicht benötigt wird. Dieses Ergebnis steht gut in
Einklang mit der Theorie, da dieselbe Zahl Moleküle jetzt auf das halbe
Volumen beschränkt ist und der Kolben zweimal so häufig getroffen wird.
Bei unserem zweiten Experiment erhöhen wir die Temperatur, behalten
aber die Kolbenstellung bei. Jetzt wird die Geschwindigkeit der Moleküle
und dadurch die Heftigkeit jedes einzelnen Stoßes vergrößert. Zusätzlich
bewirkt die größere Geschwindigkeit, daß der Kolben häufiger getroffen

17
wird. Die Kraft auf den Kolben wächst daher mit dem Quadrat der
Molekülgeschwindigkeit. Dieser Druckanstieg ist, wie Amontons beobach-
tete, zum Temperaturanstieg proportional. Jetzt haben wir die Bedeutung
der Temperatur im atomistischen Modell gefunden. Sie ist im wesentlichen
gleich dem Quadrat der Geschwindigkeit der Moleküle, d. h. ihrer kine-
tischen Energie.
Schließlich untersuchen wir, was geschieht, wenn wir den Kolben durch
Erhöhung des Gewichts senken und nun nichts unternehmen, um die
Temperatur konstant zu halten. Betrachten wir einen Augenblick lang ein
einzelnes Molekül, das gerade auf den Kolben zufliegt. Es hat vor dem
Zusammenstoß eine bestimmte Geschwindigkeit. Nachdem es jedoch
zurückgestoßen wurde, ist die Geschwindigkeit größer, da der Kolben nicht
in Ruhe war, sondern sich mit seiner eigenen Geschwindigkeit gegen das
Molekül bewegte. Das zurückfliegende Molekül wird beim nächsten
Zusammenstoß seine höhere Geschwindigkeit an ein anderes weitergeben
usf. Auf diese Weise wächst die mittlere Geschwindigkeit aller Moleküle
im Zylinder, und das entspricht, wie wir sahen, einer Temperaturerhöhung.
Mit anderen Worten: Bei Kompression erwärmt sich ein Gas. Diese
Erscheinung kennt jeder, der einmal einen Fahrradreifen aufgepumpt und
gespürt hat, daß die Pumpe dabei heiß wird. Der Vorgang läßt sich
umkehren. Wenn wir das Gewicht auf dem Kolben vermindern und ihn
durch das Gas herausdrücken lassen, treffen die Moleküle auf einen
zurückweichenden Kolben und haben nach dem Zusammenstoß eine
geringere Geschwindigkeit. Das Gas kühlt sich bei Expansion ab. Hier
folgt nun die Erklärung für Cailletets Experiment: Er benutzte keinen
Kolben, aber man versteht leicht, was in seinem Fall geschah: Ein Zylinder
sei in zwei Teile geteilt, die durch ein Rohr verbunden sind und von denen
nur einer einen Kolben enthält (Abb. 1).

18
1 Cailletets Kühlvorrichtung läßt sich als Teil eines einzelnen Hubs einer Expansions-
maschine auffassen.

Der andere ist jetzt Cailletets dickwandiges Glasrohr mit dem


komprimierten Sauerstoffgas. Wenn man das Gas sich ausdehnen läßt,
indem es den Kolben des rechten Zylinders zurückstößt, wird sich der
Sauerstoff in beiden Behältern abkühlen, da wegen ihrer gegenseitigen
Stöße alle Moleküle an der Geschwindigkeitsverminderung teilnehmen.
Dem zurückweichenden Kolben folgt ein Gasstoß durch das Verbindungs-
rohr. Tatsächlich wissen die Moleküle in Cailletets Rohr auf der linken
Seite nichts von der Existenz des Kolbens, und daher ist es viel einfacher
und billiger, statt Zylinder und Kolben einen Gashahn am Ende des
Verbindungsrohrs zu verwenden. Wenn dieser geöffnet wird, strömt der
komprimierte Sauerstoff aus, und der in dem dickwandigen Rohr
zurückbleibende Rest kühlt sich so weit ab, daß augenblicklich
Flüssigkeitströpfchen gebildet werden. Der Gashahn ist natürlich nichts
anderes als das zufällige Leck in Cailletets Apparatur.

19
2 Kontinuierlicher Kühlkreislauf mit einem Kompressor A, einer Expansionsmaschine B
und einem Wärmeaustauscher D. Die in B entnommene Wärme wird in C durch das
Kühlwasser abgeführt.

Cailletet hatte versucht, Acetylen durch hohen Druck zu verflüssigen,


und vermutlich erkannte er nicht sofort die volle Bedeutung seines
erfolgreichen Mißgeschicks. Wir haben gerade gesehen, wie sein
Experiment mit den Begriffen der kinetischen Theorie erklärt werden kann,
aber natürlich gibt es auch eine Erklärung in der Sprache der
Thermodynamik. Sie ist älter als die kinetische und eignet sich besser für
quantitative Überlegungen, sagt aber nichts darüber, was in dem sich
ausdehnenden Gas im einzelnen vorgeht. Der Grundstein zur thermo-
dynamischen Behandlung wurde ein halbes Jahrhundert vor Cailletet von
dem französischen Pionieroffizier Sadi Carnot in seiner Theorie der
Wärmekraftmaschine gelegt. Seine Schrift Reflexions sur la puissance
motrice du feu wurde 1824 veröffentlicht und sollte zur Grundlage der
Energieerzeugung und der Thermodynamik werden. In dieser Schrift setzt
er die mechanische Energie, die zur Kompression eines Gases aufgewandt
wird, in Beziehung zu dem Temperaturanstieg, der dabei auftritt.
Umgekehrt muß die Energieabgabe des Gases beim Herausstoßen des
Kolbens Abkühlung bewirken. Bei diesen Vorgängen hat man es also mit
einer Umwandlung der Energie von mechanischer Arbeit in Wärme und
umgekehrt zu tun. Aufgrund dieser Überlegungen läßt sich eine einfache
Kühlvorrichtung bauen, die aus zwei Kolbenmaschinen besteht, von denen
20
die eine (A) zur Kompression des Gases und die andere (B) dazu dient, es
bei der Expansion mechanische Arbeit leisten zu lassen (Abb. 2). Das A
verlassende Gas ist heiß, und diese Kompressionswärme wird durch
Kühlwasser in den Behälter C abgeführt. Das Gas wird nun zur
Expansionsmaschine B weitergeleitet, wo Wärmeenergie in mechanische
Arbeit umgewandelt wird. Das dabei abgekühlte Gas verläßt B und passiert
vor der Rückkehr nach A bei D ein Rohr, das jenes umgibt, durch welches
das komprimierte Gas nach A gelangt. Diese Vorrichtung D dient dazu, das
einströmende komprimierte Gas durch den Gegenstrom des aus der
Expansionsmaschine austretenden kalten Gases abzukühlen. Dieser
»Wärmeaustauscher« sorgt dafür, daß nach jedem Hub von B das zum
nächsten Hub in B einströmende Gas kälter ist als vorher. Die ganze
Anordnung ist ein geschlossener Kreislauf, in dem die Wärme fortwährend
vom Kühlwasser abgeführt und B zunehmend kälter wird. Das geht bis zu
einer Temperatur weiter, bei der das Gas im Kreislauf so kalt wird, daß es
in B flüssig zu werden beginnt.
Eine Kühlapparatur dieser Art wurde schon 1857 von Siemens zum
Patent angemeldet, aber als zwanzig Jahre später Cailletet seine Experi-
mente machte, wies niemand auf das Patent hin. Offenbar wurde damals
der Zusammenhang zwischen Cailletets Methode und einer Kolbenkühl-
maschine nicht klar erkannt. Von den Siemens-Maschinen wurden einige
gebaut, und 1862 brachte der schottische Ingenieur Kirk ein sehr
erfolgreiches Modell zur Abkühlung von Schieferöl in einem Raffinerie-
prozeß heraus, das ebenfalls Quecksilber gefrieren lassen, d. h. eine
Temperatur von mindestens –39° C erreichen konnte. Jedoch waren die
Männer, die diese Maschinen entwickelten, keine Wissenschaftler, sondern
Ingenieure, die Kühlmöglichkeiten für Schiffe suchten, damit Fleisch
unverdorben von Australien nach England transportiert werden konnte,
was dann 1879 zum erstenmal gelang.
Den ersten Versuch, Luft mit einer Expansionsmaschine zu verflüssi-
gen, machte Solvay (wahrscheinlich 1887); denn damals erhielt er ein
deutsches Patent. Darin werden drei mögliche Apparaturen beschrieben,
von denen zwei Expansionsmaschinen waren. Eine wurde ausprobiert,

21
erreichte aber nur etwa die Hälfte der nötigen Abkühlung. Da die
Originalaufzeichnungen des Experiments verloren sind, weiß man nicht,
um welchen der drei Entwürfe es sich handelte. Erfolg hatte schließlich der
französische Ingenieur Georges Claude, dessen systematische und
beharrliche Versuche 1902 zur Verflüssigung von Luft führten.
Beträchtliche technische Schwierigkeiten waren zu überwinden. Zunächst
mußte die Expansionsmaschine thermisch gut isoliert werden, da ihre
tiefste Arbeitstemperatur unter –150° C lag und der Wärmezustrom
minimal sein mußte. Zweitens ist das Schmieren der beweglichen Teile
äußerst schwierig, da Öl bei diesen tiefen Temperaturen gefriert. Es läßt
sich Petroläther, der bis –140° C flüssig bleibt, verwenden, aber bessere
Ergebnisse wurden mit einer trockenen Lederdichtung erzielt. Eine kleine
Luftmenge, die zwischen der Kolbendichtung und der Zylinderwand
hindurch entweicht, ist in diesem Fall das eigentliche Schmiermittel.
Claude hätte wahrscheinlich angesichts all dieser Schwierigkeiten nicht
durchgehalten, wenn es sich lediglich um ein wissenschaftliches
Experiment gehandelt hätte. Aber um die Jahrhundertwende war die
Luftverflüssigung für die industrielle Gewinnung von Sauerstoff aus der
Atmosphäre sehr wichtig geworden. Claude wurde außerdem durch den
Erfolg angespornt, den seine deutschen und englischen Konkurrenten
sieben Jahre früher mit einem anderen Verfahren gehabt hatten.
Temperaturen noch unter –200° C erreichte Claudes Expansions-
maschine 1920, und zwar mit Wasserstoffgas statt Luft als Arbeits-
substanz. Es ging wieder um Gastrennung, nämlich um die Gewinnung von
Wasserstoff aus Kokereigas, und nicht um die Verflüssigung des
Wasserstoffs selbst. Niemand scheint ernsthaft die Expansionsmaschine als
Werkzeug für die Tieftemperaturforschung in Betracht gezogen zu haben.
Als ich 1933 den russischen Physiker Peter Kapitza in seinem neuen
Laboratorium in Cambridge besuchte, sah ich einige Metallpreßstücke
herumliegen, die ich für Teile einer Kühlvorrichtung hielt. Kapitza
bestätigte das, sagte aber nichts Bestimmtes; er wollte die Maschine lieber
vorher in Gang gesehen haben. Ein Jahr darauf gab er seinen Erfolg
bekannt. Er hatte einen Heliumverflüssiger gebaut, der eine

22
Expansionsmaschine enthielt und nur zehn Grad über dem absoluten
Nullpunkt arbeitete, eine genial erdachte und großartig ausgeführte
technische Leistung. 1946 schließlich wurde ein ähnlich angelegter
Heliumverflüssiger von Prof. Collins vom Massachusetts Institute of
Technology entworfen und gebaut und von der A. D. Little Company
kommerziell ausgewertet. Ein gutes Hundert dieser Maschinen wurde in
alle Welt verkauft und löste eine Revolution in der Tieftemperatur-
forschung aus. Flüssiges Helium, bis dahin eine Seltenheit, die nur in
wenigen Labors zur Verfügung stand, wurde plötzlich einer großen Zahl
akademischer und industrieller Forschungsstätten zugänglich. Die Folge
war eine ungeheure Ausweitung der wissenschaftlichen und technolo-
gischen Arbeit bei sehr tiefen Temperaturen, so daß man die Zeit bis 1946
jetzt oft mit v. C, vor Collins, bezeichnet.
Die Kolbenmaschine ist nicht die einzige Vorrichtung, mit der Wärme
in mechanische Arbeit umgewandelt werden kann. Bei der Energieerzeu-
gung im großen, z. B. in Generatorstationen, Ozeandampfern und jetzt
auch in Flugzeugen, hat die Turbine sie ersetzt. Der thermodynamische
Wirkungsgrad einer Turbine ist größer, und zwar aus Gründen, die über
den Rahmen unserer Geschichte hinausgehen. Noch weit verlockender ist
die Turbine zum Entzug von Wärme, d. h. zur Kälteerzeugung. Patente für
Turbinen zur Gastrennung ließen sich Thrupp in England und Johnson in
Amerika in den späten neunziger Jahren geben. Verflüssigungsturbinen
wurden zuerst Anfang der dreißiger Jahre von der Firma Linde AG in
Deutschland betrieben, aber aus Gründen der industriellen oder militäri-
schen Geheimhaltung sickerten in den folgenden Jahren nur wenige Infor-
mationen durch. Es war wiederum das technische Genie Kapitza, das 1939,
jetzt in Moskau, eine detaillierte Analyse der Überlegenheit der Turbine als
Verflüssigungsvorrichtung vorlegte. Die Turbine besitzt nicht nur wesent-
liche thermodynamische Vorteile, sondern arbeitet auch noch bei viel
geringerem Druck als die Kolbenmaschine, was die ganze Anlage billiger
und in der Konstruktion einfacher macht. Heute ist die Turbine zur
Standardausrüstung für die riesigen Tieftemperatureinrichtungen gewor-
den, die Stahlwerke und Raketenbasen versorgen. Der 1877 von Cailletet

23
beobachtete Nebel hat zu einer technologischen Entwicklung von
gigantischen Ausmaßen und mit immer weitergehender Verzweigung
geführt.
Kehren wir nun zu dem fehlenden Glied zwischen Cailletets Experiment
und der Kolbenmaschine zurück. Die Expansionsmaschine erzeugt Kälte,
weil sie mechanische Arbeit leistet, aber wo wird in Cailletets Apparatur
solche Arbeit geleistet? Es geschieht nichts weiter, als daß der
komprimierte Sauerstoff in die Luft entweicht. Den Schlüssel liefert Abb. 1
(S. 19), in der wir die rechte Seite des Zylinders durch einen Absperrhahn
ersetzt haben. Sobald dieser geöffnet wird, leistet der Sauerstoff ein
bißchen mehr, als daß er nur entweicht. Er hebt die Erdatmosphäre um ein
wenig an, und die so geleistete Arbeit bewirkt eine Abkühlung. Anders
ausgedrückt: Cailletets Experiment stellt nichts anderes dar als einen
unvollständigen einzelnen Arbeitsgang der Kühlvorrichtung in Abb. 2 (S.
20). Das Sauerstoffgas wird zunächst bei A auf 300 at komprimiert. Dann
wird es in C durch verdampfendes Schwefeldioxid auf –29° C vorgekühlt
und schließlich – ohne Verwendung eines Wärmeaustauschers – B
zugeführt.
In Cailletets Fall entspricht A nur einem Teil eines Expansionszylinders
(der linken Seite in Abb. 1), und wenn der Hahn geöffnet wird, findet ein
einzelner Expansionshub nur teilweise statt. Ein kleiner Bruchteil des sich
ausdehnenden Gases bleibt im Glasrohr zurück, wo die Tröpfchen
flüssigen Sauerstoffs erscheinen. Die Mehrzahl der Tröpfchen ist durch das
Ventil entkommen und genauso rasch verdampft wie entstanden.
Während Cailletets Experiment zum erstenmal die Erdatmosphäre im
flüssigen Zustand zu zeigen vermochte, ist es hoffnungslos unwirksam als
Methode zur Gasverflüssigung. Als man wenige Jahre später bessere Wege
zur Herstellung flüssiger Luft fand, wurde Cailletets Methode aufgegeben
und blieb bis 1932 nichts weiter als eine historische Kuriosität. In jenem
Jahr wurde sie wieder in ihrer alten Form von F. E. Simon weiterverfolgt,
der aufzeigte, daß sie im Sonderfall des Heliums eine zwar immer noch
wenig wirksame, aber doch einfache und bequeme Verflüssigungsmethode
darstellt.

24
Cailletet ging seinem Erfolg weiter nach, indem er seine Apparatur
verbesserte. 1882 kühlte er die Glaskapillaren mit flüssigem Äthylen statt
Schwefeldioxid und senkte dadurch die Anfangstemperatur seines
Experiments von –29° C auf –105° C. Er beobachtete bei Expansion eine
heftige Turbulenz im Rohr, aber der Sprühregen aus flüssigem Sauerstoff
verdampfte wiederum sofort. Der nächste entscheidende Schritt zur
Beherrschung tiefer Temperaturen war ihm auch jetzt versagt geblieben.
Dieser nächste Schritt war auf der denkwürdigen Sitzung der Akademie am
Weihnachtsabend 1877 von Jamin, einem anderen großen Pionier der
Physik des 19. Jahrhunderts, formuliert worden. Jamin hatte gesagt: »Die
Möglichkeit der Sauerstoff Verflüssigung ist jetzt erwiesen … Das
entscheidende Experiment steht noch aus. Es wird darin bestehen, den
flüssigen Sauerstoff auf der Temperatur seines Siedepunkts zu halten.« Er
unterschied klar zwischen der momentanen Beobachtung eines
Tröpfchennebels und der Gewinnung einer Flüssigkeit, deren Oberfläche in
einem Reagenzglas ruhig siedet. Das zu erreichen war Cailletet und den
französischen Physikern nicht vergönnt. Cailletet setzte seine Arbeit viele
Jahre lang fort, und als er 1913 in Paris 80jährig starb, hatte er die
Genugtuung, seine ursprüngliche Entdeckung zu einem neuen Zweig der
Physik entwickelt zu sehen. Alle Gase waren verflüssigt worden, und dem
absoluten Nullpunkt war man bis auf weniger als ein Grad nahe
gekommen. Das Tor zu einer fremden, neuen Welt verwirrender
physikalischer Erscheinungen wie dem vollkommenen Verschwinden des
elektrischen Widerstands war geöffnet. Sein altes Laboratorium in
Chatillon-sur-Seine ist noch heute erhalten; ein Raum, in dem seine
Apparaturen stehen, mit Blick auf seinen Gemüsegarten – von seinen
Nachkommen liebevoll gepflegt.

25
2 | Krakau 1883

Welchen Anstoß Cailletets Beobachtung der wissenschaftlichen


Entwicklung gab, kennzeichnet die Tatsache, daß 1882 ein polnischer
Wissenschaftler, der damals in Paris arbeitete, die Vielzahl von Cailletet-
Apparaturen erwähnte, die dort von der berühmten Instrumentenmanu-
faktur E. Ducretet hergestellt wurden. Er wies darauf hin, daß Cailletet
keine experimentelle Einzelheit vor seinen Kollegen geheimhielt, die
häufig seine Versuche wiederholen und erweitern wollten. Der Pole war
einer von ihnen und kaufte bei Ducretet eine Apparatur, um sie mit nach
Krakau zu nehmen, wo er gerade den Lehrstuhl für Physik erhalten hatte.
Sein Name war Zygmunt Florenty von Wroblewski. Die alte Jagellonen-
Universität von Krakau gehörte damals zur habsburgischen Monarchie,
was das deutsche Adelsprädikat vor Wroblewskis polnischem Namen
erklärt. Bei seiner Ankunft in Krakau begegnete Wroblewski im
Chemischen Institut einem Mann seines Alters – er war damals Mitte
Dreißig –, der dasselbe Interesse an der Gasverflüssigung hatte. Es war K.
Olszewski, der sich dreizehn Jahre lang mit einer alten und unzureichenden
Ausrüstung herumgeplagt hatte. Er war natürlich nicht nur über die
Ankunft Wroblewskis erfreut, sondern auch über die der modernen
Verflüssigungsapparatur. Wroblewski und Olszewski gingen im Februar
1883 ans Werk, und ihnen gelang am 9. April das, was Cailletet und die
anderen vergeblich versucht hatten: Flüssiger Sauerstoff siedete ruhig in
einem Versuchsgefäß ihrer Apparatur.
Daß ihnen das in zwei Monaten oder sogar rascher gelang, ist fast
unglaublich. Um dieses Kunststück beneiden sie viele moderne Forscher,
die Geld, Ausrüstung und Personal genug haben. Um es zu erklären,

26
müssen wir mehrere Faktoren beachten. Wroblewski war sehr vertraut mit
den Pariser Experimenten, denen er beigewohnt hatte. Olszewski, der sich
über zehn Jahre mit einer veralteten und behelfsmäßigen
Hochdruckausrüstung abgemüht hatte, hatte praktische Erfahrungen wie
kein zweiter. Cailletets Apparatur vom Vorjahr erforderte nur eine
geringfügige Änderung, um flüssigen Sauerstoff in beständiger Form zu
erzeugen. Tatsächlich war Cailletet dem Erfolg nahe gewesen, und es
fehlte nichts weiter als eine neue Idee. Für diese jedoch verdienen die
Polen volle Bewunderung, da sie ihren Erfolg einem besseren Verständnis
der physikalischen Prinzipien verdanken. Von den beiden Änderungen, die
sie anbrachten, war die erste trivial.
Sie bogen die Glaskapillare so um, daß kein flüssiger Sauerstoff durch
den Expansionshahn entweichen konnte, sondern sich alles auf dem Boden
der Kapillare ansammelte (Abb. 3). Die zweite Änderung war die
entscheidende. Wie Cailletet benutzten auch sie zur Kühlung der Kapillare
flüssiges Äthylen, aber statt es unter Atmosphärendruck sieden zu lassen,
pumpten sie den Dampf über der Flüssigkeit bis zu einem Druck von 2,5
cm Quecksilbersäule, d. h. ¹/30 at, ab. Dadurch verringerte sich die
Temperatur auf – 130° C, und als das Sauerstoffgas unter hohem Druck in
die Kapillare drang, sahen sie, wie sich kleine Tröpfchen auf der Glaswand
bildeten und als Flüssigkeit am Boden der Kapillare sammelten. Sie hatten
Sauerstoff verflüssigt, ohne von Cailletets ursprünglicher Vorrichtung für
die Expansion des Gases Gebrauch gemacht zu haben.
Um das dieser Verflüssigungsart zugrunde liegende Prinzip zu
verstehen, müssen wir zu früheren Experimenten zurückgehen, die die
Rolle von Druck und Temperatur beim Verflüssigungsprozeß und die
Natur des Gleichgewichts zwischen Flüssigkeit, Dampf und Gas erhellt
hatten.
Vorher soll noch einiges über die Entwicklung der Krakauer
Tieftemperaturschule gesagt werden.

27
3 Die Apparatur, mit der Wroblewski und Olszewski als erste flüssigen Sauerstoff
erzeugten, der in einem Versuchsgefäß ruhig siedete.

Die erste Nachricht von dem entscheidenden Experiment, die zur


Sitzung der Französischen Akademie am 16. April übermittelt wurde,
erschien unter den Namen beider Experimentatoren; das gilt auch für die
ausführliche Veröffentlichung in den Annalen der Physik und Chemie. Wir
wissen daher nicht, wer von beiden die Idee hatte, den Äthylendampf
abzupumpen, aber es mag bezeichnend sein, daß die Namen nicht in
alphabetischer Reihenfolge stehen; Wroblewski wird an erster Stelle als
Autor angegeben. Lehrbücher nennen gewöhnlich Olszewski und
Wroblewski zusammen als die führenden Wissenschaftler der Krakauer
Schule, aber tatsächlich überdauerte die Zusammenarbeit die nächsten
sechs Monate nicht. Im Oktober 1883 finden wir Olszewski wieder in
seinem Chemischen Institut bei eigenen Tieftemperaturexperimenten,
während Wroblewski fast dieselbe Arbeit im Physikalischen Laboratorium
fortsetzt. Was genau vorgefallen ist, läßt sich nicht mehr leicht feststellen,

28
aber viele Jahre später spricht Olszewski spitz von der »Auflösung der
Zusammenarbeit«. Es scheint, als seien sie, obwohl sie genau dieselbe
Frage an derselben Universität bearbeiteten, wie Pole voneinander getrennt
geblieben, bis hin zum frühen Tod Wroblewskis fünf Jahre später. Als er
eines Nachts noch im Labor arbeitete, stieß er eine Petroleumlampe um
und verbrannte in den Flammen. Heute sind seine angesengten Notizblätter
in der alten Halle der Jagellonen-Universität ausgestellt, unweit des
Immatrikulationsgesuchs, das von einem berühmten Studenten vor mehr
als 400 Jahren unterschrieben wurde, einem Nikolaus Kopernikus.
In unserem Bericht über die Expansionsmaschine waren wir im vorigen
Kapitel auf die kinetische und thermodynamische Erklärung des
Kühlvorgangs zu sprechen gekommen, hatten aber nichts über den
Verflüssigungsmechanismus gesagt. In Lavoisiers Prophezeiung zur
Luftverflüssigung, die in der Akademie auf der Sitzung am
Weihnachtsabend 1877 verlesen wurde, wird die Kälte als wichtige
Wirkkraft angesehen. Schon zu Lavoisiers Zeiten jedoch begann man zu
erkennen, daß auch der Druck bei der Verwandlung eines Gases in
Flüssigkeit eine Rolle spielt. Alles dies war kompliziert und verwirrend,
aber andererseits hatte Robert Boyles Untersuchung der »Federung der
Luft« eine wunderbar einfache Beziehung zwischen Druck und Volumen
eines Gases enthüllt. Ende des 18. Jahrhunderts beschäftigte sich M. van
Marum aus Haarlem mit Experimenten, die klären sollten, ob Boyles
Gesetz für alle Gase oder nur bei Luft gilt. Eine der Substanzen, die er
untersuchte, war Ammoniakgas. Dabei machte er eine wichtige
Entdeckung. Als er zunehmend höheren Druck anwandte, nahm das
Gasvolumen nicht mehr proportional ab, wie Boyles Gesetz es
voraussagte. Bei 7 Atmosphären stieg schließlich der Druck trotz weiterer
Kompression nicht mehr an, während das Volumen weiter abnahm. Statt
noch komprimiert zu werden, verwandelte sich das Ammoniakgas bei
diesem Druck in flüssiges Ammoniak. Weitere Verringerung des
Volumens bewirkte nur eine Zunahme der Flüssigkeitsmenge im Zylinder
auf Kosten des Gasvolumens. Allein durch Anwendung hohen Drucks also
und ohne Temperaturerniedrigung war Ammoniak verflüssigt worden.

29
Van Marums Beobachtung zog zahllose Versuche nach sich, bekannte
Gase durch Kompression zu verflüssigen. Bei manchen gelang es, aber
andere blieben auch unter dem höchsten erreichbaren Druck Gase. Eins
dieser Experimente steht in wichtiger Beziehung zur späteren Geschichte
der Gasverflüssigung, obwohl es nicht in erster Linie für diesen Zweck
gedacht gewesen war. An der Royal Institution in London stellte
Humphrey Davy, der unter anderem als Erfinder der Grubenlampe in die
Geschichte eingegangen ist, Untersuchungen über die Eigenschaften von
Chlorverbindungen an. Eines Tages im Jahr 1823 erhitzte Michael
Faraday, der damals Assistent in Davys Labor war, in einem abgedichteten
Glasrohr eine dieser Verbindungen, um ihre chemische Aufspaltung zu
studieren. Er und ein Freund von Davy, Dr. Paris, der bei dem Experiment
zuschaute, nahmen verblüfft einige Tropfen einer öligen Flüssigkeit wahr,
die sich am kalten Ende des Rohrs bildeten (Abb. 4). Dr. Paris ging nach
Hause und fragte sich, ob die benutzten Materialien vielleicht verunreinigt
gewesen seien. Am nächsten Morgen aber bekam er von Faraday
mitgeteilt, daß die Tropfen verflüssigtes Chlorgas gewesen waren. Faraday
erkannte, daß außer dem Druck, den er im abgedichteten Rohr durch
Erhitzen erzeugt hatte, auch die Temperatur eine Rolle spielte, da sich die
Flüssigkeit am kalten Ende gesammelt hatte. Als er 1826 und noch einmal
1845, jetzt als Direktor der Royal Institution, auf diese Experimente
zurückkam, wandelte er sie ab, indem er das ungeheizte Ende des Rohrs in
eine Kühlmischung tauchte, statt es auf Zimmertemperatur zu lassen.
Dieses Vorgehen erwies sich als sehr erfolgreich, und er konnte einige
Gase verflüssigen, die früheren Versuchen widerstanden hatten. Sauerstoff,
Stickstoff und Wasserstoff jedoch zeigten keine Neigung zur
Verflüssigung, und viele Forscher hielten sie für, wie sie es nannten,
»permanente Gase«.

30
4 Faradays Chlorverflüssigung

Die Vorstellung von permanenten Gasen war durch eine Reihe von
negativen, wenn auch aufsehenerregenden Versuchen gestützt worden.
Wenn Luft auch unter dem höchsten im Experiment herstellbaren Druck
nicht flüssig wurde, mußte ein noch höherer Druck erzeugt werden.
Geniale Vorrichtungen wurden zu diesem Zweck ausprobiert. Aime
komprimierte Sauerstoff und Stickstoff auf über 200 at, indem er sie in
besonders entworfenen Zylindern bis zu Tiefen von über 1,5 km ins Meer
versenkte. Ein sonst nicht bekannt gewordener Mediziner aus Wien
namens Natterer wurde der hervorragende Pionier in der Konstruktion von
Hochdruckkompressoren. 1844 sorgte er auch für die Herstellung dieser
Maschinen durch den »wohlrenommierten Mechaniker Herrn Kraft«, »um
den Freunden der Physik und Chemie die Entdeckung aller Hindernisse
und die Erfindung der vorteilhaftesten, angemessensten und sichersten
Anordnung der ganzen Apparatur zu ersparen«. Die Maschinen kosteten
31
100 Gulden und wurden bis auf 200 at geprüft. Natterer selbst war drauf
und dran, seinen Kunden weit vorauszueilen, verkündete er doch, er sei
»willens, die Kompression bis auf 2000 at fortzusetzen«. Tatsächlich ging
er noch über sein Ziel hinaus, indem er wenige Jahre später etwa 3000 at
erreichte, eine ganz erstaunliche Leistung auf dem neuen Gebiet der
Hochdrucktechnik. Sein Rekord blieb lange ungebrochen, und noch 40
Jahre später stützt sich Olszewski bei seinem erfolgreichen Experiment auf
einen alten Natterer-Kompressor, den er in dem sonst ärmlich
ausgerüsteten Krakauer Labor entdeckte, als er dort als Student seine
Arbeit begann. Natterer selbst hatte zumindest eines gezeigt, daß nämlich
auch ein Druck von 3000 at Luft nicht verflüssigte. Sauerstoff und
Stickstoff schienen wirklich permanente Gase zu sein.
Faraday kam nicht als erster darauf, daß Druck und Temperatur bei der
Umwandlung eines Gases in Flüssigkeit eine Rolle spielen. 1822 beschloß
Charles Cagniard de la Tour, ein Attache des Innenministeriums in Paris,
einmal zu untersuchen, was mit einer Flüssigkeit geschieht, wenn sie in
einem geschlossenen Behälter erhitzt wird. Zuerst nahm er Alkohol als
Probesubstanz und füllte ihn in ein Druckkochgefäß, das aus dem
geschlossenen Ende eines dickwandigen Kanonenrohrs angefertigt war.
Dies Gefäß, meinte er, würde sicher Druck und Temperatur standhalten,
aber natürlich konnte er nicht sehen, was im Innern vorging. Also verlegte
er sich aufs Horchen. Er tat eine Quarzkugel in den alkoholgefüllten
Druckkörper und bemerkte, daß es verschieden klang, je nachdem, ob sie
in der Flüssigkeit oder in Luft herumrollte. Dann verschloß er das Gefäß
und erhitzte es, wobei er fortwährend das Geräusch registrierte. Er fand,
daß der Alkohol bei hinreichend hoher Temperatur schließlich völlig in
den Gaszustand überging und keine Flüssigkeit zurückblieb. Da er jetzt
sehen wollte, was und wie es geschieht, machte er seine nächsten
Beobachtungen an abgedichteten Glasrohren. Er erhitzte sie und füllte sie
mit immer größeren Flüssigkeitsmengen. Obwohl er dickwandige Rohre
benutzte, pflegten sie zu explodieren, sobald er etwa das halbe Volumen
mit Flüssigkeit gefüllt hatte. Dennoch fühlte er sich schließlich berechtigt,
daraus zu schließen, daß bei einem Druck von über 119 at Alkohol nicht in

32
flüssiger Form existieren könne und daß die –^Flüssigkeit ganz plötzlich
zu Gas würde. Wegen dieser Schlußfolgerung haben wir Cagniard de la
Tour als den Entdecker des hervorstechenden Merkmals des Gleich-
gewichts zwischen Gas und Flüssigkeit, des sogenannten kritischen Punkts,
anzusehen. Das Wesen dieses Gleichgewichts blieb höchst unklar und
wurde erst durch eine großartige Versuchsreihe erhellt, die Thomas
Andrews am Queen's College in Belfast zwischen 1861 und 1869 durch-
führte. Andrews betrachtete seine Arbeit als Fortsetzung der Untersu-
chungen de la Tours. Er hatte jetzt jedoch eine viel bessere Apparatur zur
Verfügung als sein französischer Vorgänger und zog außerdem seine
Lehren aus dessen Fehlschlägen. Cagniard de la Tour hatte mit Alkohol
bescheidenen Erfolg gehabt, aber Wasser mit seinem höheren Siedepunkt
hatte einen Druck erfordert, dem seine Glasrohre nicht mehr standhielten.
Andrews wählte daher für seine Arbeit Kohlendioxid (COä), das bei
normaler Temperatur gasförmig ist. Wie er erwartete, war der Druck
relativ niedrig, den man zur Untersuchung jenes ganzen Bereichs brauchte,
in dem Gas und Flüssigkeit im Gleichgewicht stehen. Er stellte Messungen
derselben Art an wie van Marum bei Ammoniak. Für verschiedene Flüssig-
keiten bestimmte er die Volumenänderung einer gegebenen Substanzmenge
bei Druckvariation. Die resultierenden Kurven heißen Isothermen, weil sich
jede auf ein und dieselbe Temperatur bezieht. Die gleichen Messungen
waren von Boyle und Mariotte zweihundert Jahre früher an Luft bei
Zimmertemperatur gemacht worden. Wir haben bereits von der Beziehung
zwischen dem Druck P und dem Volumen V berichtet, die sie entdeckt
hatten und die in Form der einfachen Gleichung P • V = konst. geschrieben
werden kann. Wenn also Luft auf die Hälfte ihres ursprünglichen
Volumens komprimiert werden soll, ist das Doppelte des ursprünglichen
Drucks nötig, für ein Drittel des Volumens das Dreifache usf. Wir haben
ebenfalls gesehen, daß dieser einfache Zusammenhang durch die kinetische
Theorie erklärt werden kann. Ändert man die Temperatur und mißt wiede-
rum Isothermen, dann erhält man das Ergebnis, das zuerst von Amontons,
später noch einmal von Charles und Gay-Lussac angegeben wurde und das
ebenso einfach als P • V = konst. • T geschrieben werden kann, wobei T die
Temperatur, gemessen vom absoluten Nullpunkt aufwärts, ist.
33
5 Isothermen eines »idealen« Gases für vier verschiedene Temperaturen. Nach dem
Boyleschen Gesetz muß das Produkt aus Druck und Volumen für beliebige Werte von P
und V bei konstanter Temperatur dasselbe sein. Die grauen und rosafarbenen Flächen
sind gleich groß.

Tragen wir in einem Diagramm P und V als Ordinate bzw. Abszisse auf
und markieren alle Punkte, für die das Produkt P mal V denselben Wert
hat, so erhalten wir eine symmetrische Kurve, die Isotherme von Luft bei
gegebener Temperatur T (Abb. 5). Für eine höhere Temperatur erhält man
eine Kurve ähnlicher Gestalt, aber da P mal V jetzt einen größeren Wert

34
hat, liegt sie oberhalb der ersten Isotherme. Entsprechend liegt die
Isotherme für eine tiefere Temperatur tiefer.
Alle diese Isothermen sind glatte Kurven, sogenannte rechtwinklige
Hyperbeln. Für uns ist interessant, daß sie keine Unregelmäßigkeit zeigen,
die wir erwarten würden, wenn die Luft irgendwo in unserem Diagramm
vom gasförmigen in den flüssigen Zustand überginge. Gleichwohl konnte
Cailletet Luft verflüssigen, und der Schluß ist unausweichlich, daß unser
Diagramm in irgendeiner Hinsicht falsch ist. Anders ausgedrückt: Wir
müssen erwarten, daß das Gesetz von Boyle nicht allgemein gilt, sondern
unter gewissen Bedingungen versagt. Andrews' Ziel war, diese
Bedingungen genau zu erforschen.
Einen Hinweis darauf, was er erwarten mußte, hatten die Beobachtun-
gen von van Marum geliefert, der sich im Grunde für genau dasselbe
interessiert hatte, nämlich ob Boyles Gesetz für Ammoniak gilt. Van
Marum war einer dieser Isothermen (der für Zimmertemperatur) gefolgt
und hatte gefunden, daß sich das Volumen bei Druckerhöhung zunächst
mehr verringerte, als es nach Boyles Gesetz sollte. Schließlich erreichte er
einen Druck, von dem ab eine weitere Volumenabnahme zu keiner
zusätzlichen Kompression des Ammoniakgases führte, statt dessen trat
flüssiges Ammoniak auf. Andrews fand, daß van Marum ganz richtig
beobachtet hatte, erweiterte aber den Rahmen der Untersuchungen durch
Messung vieler verschiedener Isothermen. Die Kurvenschar, die er erhielt,
sah ganz anders aus (Abb. 6) als jene, die aus Boyles Gesetz folgern
würde. Alle Isothermen, die tiefen Temperaturen entsprechen, zeigen das
von van Marum entdeckte Verhalten. Sie alle haben einen waagerechten
Teil, der dem Bereich entspricht, in dem das Gas zur Flüssigkeit konden-
siert. Folgen wir einer dieser Isothermen von größerem zu kleinerem
Volumen, d. h. von rechts ausgehend, so bemerken wir erst den Anstieg
und dann einen Knick, dort, wo der waagerechte Teil beginnt. Hier erschei-
nen die ersten Flüssigkeitströpfchen. Wenn man nun das Volumen weiter
verringert, wird immer mehr Gas flüssig, bis am Ende des flachen Teils
kein Gas mehr übrigbleibt. Von jetzt ab ändert jede weitere Druckerhöhung
das Volumen kaum, d. h., die flüssige Phase ist sehr wenig kompressibel.

35
Der flache Teil der Isotherme offenbart etwas Wichtiges. Da der Druck
konstant bleibt, während immer mehr Gas flüssig wird, muß der Druck des
Gases im Kontakt mit der Flüssigkeit immer derselbe sein, unabhängig
davon, ob ein kleiner oder großer Volumenanteil mit Flüssigkeit gefüllt ist.
Auch zeigt Andrews' Diagramm deutlich, daß dieser Gleichgewichtsdruck
steigt, wenn wir zu höheren Isothermen übergehen, d. h. die Temperatur
erhöhen. Überdies bemerken wir, daß der flache Teil kürzer wird, bis eine
besonders wichtige Isotherme erreicht ist, die kein flaches Stück mehr
aufweist, sondern lediglich einen Punkt, an dem die Steigung der Kurve
Null geworden ist. Die höheren Isothermen steigen nun alle glatt über den
ganzen Volumen- und Druckbereich an, und wenn man zu noch höheren
Temperaturen übergeht, nehmen die Isothermen mehr und mehr die Gestalt
einer rechtwinkligen Hyperbel an. Das ist dann der Bereich, in dem Boyles
Gesetz gilt.
Andrews' Ergebnisse lieferten nicht nur eine Menge neuer Tatsachen,
sondern auch ein wunderbar vollkommenes und befriedigendes Bild des
Zusammenhangs zwischen dem gasförmigen und flüssigen Aggregat-
zustand. Außerdem paßten alle verwirrenden und einander scheinbar
widersprechenden Ergebnisse der Vergangenheit jetzt zueinander, und
jedes hatte in dem neuen Rahmen plötzlich einen Sinn. Das wichtigste aber
war, daß Andrews' sorgfältige Messungen den Weg zum Verständnis der
starken Kohäsionskräfte öffneten, die von jedem Atom ausgehen, aber nie
die Dimension gewöhnlicher makroskopischer Beobachtung erreichen. Es
ist auch wesentlich, daß Andrews' Beobachtungen, obwohl sie sich auf
Kohlensäure beschränkten, qualitativ allgemeingültig sind. Die Tempera-
turen, die Drücke und die Volumina variieren von Substanz zu Substanz,
aber die temperaturbedingte Gestalt der Isothermen ist ziemlich die
gleiche, ob wir nun Wasser, Wasserstoff oder Eisen nehmen.
Im unteren Teil von Andrews' Diagramm kann man jene Bereiche klar
erkennen, in denen die Substanz entweder vollständig gasförmig oder
vollständig flüssig oder, wie im flachen Teil, teils im flüssigen und teils im
gasförmigen Zustand ist. Dieser Bereich, in dem beide Phasen im
Gleichgewicht stehen, wo wir also einen Meniskus (eine gekrümmte

36
Trennfläche) zwischen Flüssigkeit und Gas wahrnehmen können, wird
jedoch schmäler bei höheren Temperaturen und verschwindet völlig, wenn
endlich unsere besonders wichtige Isotherme erreicht ist. Bei jeder höheren
Temperatur fehlt der flache Teil, es gibt dort keinen Bereich der Isotherme,
in dem wir einen Meniskus beobachten können. Andrews selbst sagte von
diesem Zustand: »Wenn jemand fragt, ob die Substanz jetzt im
gasförmigen oder flüssigen Zustand ist, dann erlaubt die Frage, glaube ich,
keine eindeutige Antwort.« Andererseits läßt Andrews' Diagramm keinen
Zweifel, wo ein Meniskus auftreten kann und wo nicht. Jede Isotherme mit
einem flachen Teil zeigt Flüssigkeit und Gas im Gleichgewicht an. An dem
Punkt, an dem die besonders wichtige Isotherme die Steigung Null hat,
verschwindet die letzte Spur dieses Gleichgewichts. Das ist der kritische
Punkt der Substanz. Außer dem kritischen Druck und dem kritischen
Volumen bezeichnet er, was noch wichtiger ist, die kritische Temperatur.
Als kritische Temperatur von Kohlendioxid fand Andrews 31° C,
woraus sich klar ergibt, daß oberhalb dieser Temperatur auch bei höchstem
Druck niemals jener Zustand mit einem Meniskus erzeugt werden kann.
Das erklärt sofort, warum es Natterer nicht gelang, Sauerstoff zu
verflüssigen, obwohl er ungeheuren Druck anwenden konnte. Wie
Wroblewski später zeigte, ist die kritische Temperatur des Sauerstoffs –
118° C und der kritische Druck 50 Atmosphären. Man versteht jetzt auch,
warum 1882 Cailletets zweiter Versuch, flüssigen Sauerstoff in beständiger
Form zu bekommen, keinen Erfolg hatte und warum die Polen ihr Ziel
erreichten. Cailletets Kühlmittel, flüssiges Äthylen, das bei Atmosphären-
druck siedet, ermöglichte ihm eine Anfangstemperatur von –105° C, 13
Grad oberhalb des kritischen Punkts, wo selbst Natterers 3000
Atmosphären keine Verflüssigung ergeben hätten. Bei den Krakauer
Experimenten siedete flüssiges Äthylen unter vermindertem Druck bei –
130° C, also unterhalb des kritischen Punkts des Sauerstoffs, und es
bedurfte nur eines Drucks von etwa 25 at, um eine beständige
Kondensation der Flüssigkeit einzuleiten. Die Polen hatten eine Isotherme
mit einem flachen Teilstück erreicht.

37
6 Isothermen eines realen Gases (CO2), wie sie von Andrews gemessen wurden. Sie
kommen den durch das Boylesche Gesetz beschriebenen erst bei hohen Temperaturen
(T7) nahe. Bei tiefen Temperaturen sind sie komplizierter, und unterhalb des kritischen
Punkts liegt der Verflüssigungsbereich.

Wir haben Andrews' Diagramm nicht nur aus historischen Gründen


benutzt, sondern auch weil es klar und überzeugend die Bedeutung und die
Grenzen des flüssigen Zustands erläutert, und wir werden später darauf
zurückkommen. Für viele Zwecke ist jedoch eine andere Form der
Darstellung bequemer und aufschlußreicher; auch diese werden wir häufig
benutzen müssen. In ihr tragen wir nicht Druck und Volumen, sondern
Druck und Temperatur als Ordinate bzw. Abszisse auf. Wir können uns bei

38
dieser Gelegenheit auch eine Gewohnheit aneignen, die uns den Umgang
mit tiefen Temperaturen erleichtern wird. Wir befreien uns von jedem
künstlichen Anfangspunkt der konventionellen Temperaturskalen, der,
folgt man Celsius, der Gefrierpunkt des Wassers ist, während er für jene,
die an Fahrenheit glauben, in einer Mischung von Eis und Salz festgelegt
ist. Seit Amontons und Gay-Lussac den absoluten Nullpunkt bei –273° C
festsetzten, können wir genausogut von dort aus zählen, auch wenn wir es
nur deshalb täten, um lediglich in eine Richtung (d. h. aufwärts) zählen zu
können. Gleichwohl müssen wir wieder in die Konvention zurückfallen,
wenn wir die Größe der Gradeinheiten wählen, mit denen wir zählen:
Durch eine zugegeben willkürliche Entscheidung wurde hier die
Gradeinheit der Celsiusskala übernommen. Da °F und °C als Symbole für
die beiden konventionellen Skalen benutzt worden waren, wurde nun °K
die Bezeichnung für die absolute Skala, und zwar Lord Kelvin zu Ehren,
der den Begriff Temperatur von den Beschränkungen befreite, die auf das
Thermometer zurückgehen, und ihn statt dessen auf reine Thermodynamik
begründete. So gibt es in der absoluten Skala keine negativen Tempera-
turen mehr. Der Nullpunkt ist der absolute Nullpunkt. Die Temperatur
schmelzenden Eises (0° C) liegt bei 273° K, die kochenden Wassers bei
373° K, was natürlich +100° C ist. Das befreit uns von lästigen
Minuszeichen und Subtraktionen. Von nun an gilt als kritische Temperatur
des Sauerstoffs nicht -118°'C, sondern 155° K (273 minus 118).
In unserem Druck-Temperatur-Diagramm (Abb. 7) bezeichnen die
Linien die Grenzen der verschiedenen Aggregatzustände. Die durchgehend
fette Linie schließt den festen Zustand ein. Sie vereinigt sich mit der
Temperaturachse bei dem Druck 0 und dem absoluten Nullpunkt. Von dort
steigt sie an, zuerst allmählich, dann immer rascher bis zum oberen Ende
jedes beliebigen Diagramms, das wir heute zeichnen können. Das bedeutet,
daß es auch bei den höchsten Drücken, die wir im Laboratorium erzeugen
können, stets eine bestimmte Temperatur gibt, bei der eine Substanz
schmilzt. Was mit dieser Schmelzkurve jenseits der Grenzen experimen-
teller Forschung geschieht, können wir nicht sagen. Das ist eines der
ungelösten Probleme der Physik, das wir leider verlassen müssen, weil

39
unsere Untersuchung uns in die entgegengesetzte Richtung führt. Bei
hinreichend tiefen Temperaturen grenzt der feste Zustand immer an den
gasförmigen und nicht, wie man leicht denken könnte, an den flüssigen
Zustand.
Wir können dieses Diagramm verdeutlichen, indem wir den Fall des
Wassers betrachten und beobachten, was in einem wassergefüllten Gefäß
geschieht, wenn wir die Temperatur ändern. Um der von der
atmosphärischen Luft herrührenden Komplikation aus dem Wege zu
gehen, evakuieren wir das Gefäß zunächst und verstärken es so, daß es
Druck aushält. Bei einer Temperatur unterhalb des Gefrierpunkts sehen wir
nichts in dem Gefäß außer Eis. Ein mit dem Gefäß verbundenes
Druckmeßgerät registriert, wie sich feststellen läßt, einen gewissen Druck,
d. h., der Raum über dem Eis ist nicht leer. Er ist tatsächlich mit Wasser im
Gaszustand, also mit Wasserdampf, gefüllt, und der Druck dieses Dampfes
hat den Wert, den die durchgehend fette Linie in unserem
Gleichgewichtsdiagramm angibt. Wir befinden uns in dem Bereich, in dem
der feste und der gasförmige Zustand im Gleichgewicht sind. Wenn wir
unser Gefäß weiter erwärmen, steigt der Druck allmählich an und zeigt uns
so, daß etwas von dem Eis verdampft. Schließlich erreichen wir die
Temperatur, bei der das Eis zu schmelzen beginnt, und jetzt sehen wir
Wasser und Eis im Gefäß, das zusätzlich Dampf enthält, der aber
unsichtbar bleibt. Diese Temperatur wird der Tripelpunkt genannt, weil
hier alle drei Phasen, die feste, flüssige und gasförmige, im Gleichgewicht
sind. Bei irgendeiner tieferen Temperatur ist kein Wasser und bei
irgendeiner höheren kein Eis vorhanden.

40
7 Das Druck-Temperatur-Zustandsdiagramm zeigt die Kurven, längs denen die festen,
flüssigen und gasförmigen Phasen derselben Substanz im Gleichgewicht miteinander
stehen. Man beachte, daß die flüssigen und gasförmigen Phasen nicht völlig voneinander
getrennt sind, sondern oberhalb des kritischen Punkts ineinander übergehen.

41
Erwärmen wir das Gefäß über den Tripelpunkt hinaus, so sehen wir nur
Wasser, bemerken aber auch, daß die Wasseroberfläche mit steigender
Temperatur sinkt; also verdampft ein Teil des Wassers. Dadurch wird
bestätigt, daß der Druck des Dampfes stetig ansteigt. Wir bewegen uns
jetzt auf der unterbrochenen Kurve, deren allmählicher Anstieg dem
Anstieg des flachen Teils der Isothermen in Abb. 6 (S. 38) entspricht.
Schließlich geschieht etwas Außergewöhnliches. Bei einer bestimmten
Temperatur wird der Meniskus, der das Wasser von seinem Dampt trennt,
plötzlich unsichtbar. Senken wir jetzt die Temperatur wieder ein wenig,
dann taucht auch die Wasseroberfläche an genau derselben Stelle auf, an
der sie so überraschend verschwand. Wir haben den kritischen Punkt
erreicht.
So seltsam das Verschwinden des Meniskus auch erscheinen mag, es ist
nicht schwierig zu erklären. Als das Gefäß erwärmt wurde, nahm die
Dichte des Wassers darin ab, wie es bei jeder Substanz geschieht, die
erwärmt wird. Andererseits verdampfte immer mehr Wasser, was bedeutet,
daß der Dampf sich zunehmend verdichtete, bis schließlich die Temperatur
erreicht wurde, bei der die Dampfdichte der Dichte der Flüssigkeit
entsprach. In diesem Augenblick verschwindet jeder Unterschied zwischen
der flüssigen und der gasförmigen Phase; sie sind identisch geworden. Jetzt
ist der Zustand erreicht, den Andrews beschrieb, als er sagte, daß die
Frage, ob die Substanz eine Flüssigkeit oder ein Gas ist, nicht zu
beantworten sei. Also ist es sinnlos, über Gasverflüssigung zu sprechen,
solange wir nicht eine Temperatur erreichen können, bei der sich eine
Grenzfläche zwischen den beiden Phasen bildet. Unser Diagramm zeigt,
daß eine solche Grenzfläche bei einer Temperatur oberhalb der kritischen
nicht entstehen kann.
Aus dem Druck-Temperatur-Diagramm entnehmen wir mit einem Blick
die möglichen Zustände, in denen eine Substanz bei einer gegebenen
Temperatur angetroffen werden kann. Bevor wir das Diagramm für die
Erörterung der Gasverflüssigung benutzen, muß noch erklärt werden,
warum der so vertraute Begriff Siedepunkt bis jetzt in unseren
Überlegungen übergangen wurde. Der Grund dafür ist, daß der Siedepunkt

42
zwar praktisch sehr wichtig ist, aber keine grundlegende Bedeutung hat,
und nur existiert, wenn sich über der Flüssigkeit auch Luft befindet. Er ist
lediglich die Temperatur, bei der der Dampfdruck der Substanz gleich dem
Druck der Atmosphäre wird. Da letztere sich mit der Höhe ändert, kocht
Wasser in Mexico City bei 93° C und in London bei 100° C, während die
entsprechenden Siedepunkte des flüssigen Sauerstoffs 87° bzw. 90° K (–
183° C) sind. Die kritischen oder Tripelpunkte von Wasser oder Sauerstoff
dagegen sind stets dieselben, wo immer sie auch gemessen werden.
Kehren wir nun zu dem einfachen Fall einer Substanz zurück, die in
einem Behälter eingeschlossen ist und daher nur unter ihrem eigenen
Dampfdruck steht. Hier zeigt das Diagramm, daß Druckänderungen
entsprechende Temperaturänderungen bewirken müssen. Z. B. wird jetzt
klar, warum Wroblewski und Olszewski eine tiefere Temperatur erreichten
als Cailletet. Sie verminderten den Dampfdruck über ihrem Bad aus
flüssigem Äthylen, während Cailletet es unter Atmosphärendruck sieden
ließ. Aus dem Diagramm folgt ebenfalls, daß jede Substanz, deren
kritischer Punkt oberhalb der Zimmertemperatur (etwa 293° K) liegt, allein
durch Druckanwendung verflüssigt werden kann. Vermindern wir
anschließend den Druck, so kühlt sich die Flüssigkeit entlang der
unterbrochenen Dampfdruckkurve (siehe S. 41) ab. Nach diesem Prinzip
arbeiten die meisten Haushaltskühlschränke. Benutzen wir eine
hinreichend starke Pumpe, um den Dampfdruck zu vermindern, können wir
die Substanz auch unter den Tripelpunkt abkühlen und auf diese Weise den
festen Zustand erreichen. Für die meisten praktischen Zwecke ist das nicht
erwünscht, da die Arbeitssubstanz, ist sie einmal gefroren, nicht mehr
durch den Kühlkreis fließen kann.
Überdies können wir zwei oder mehr solcher Kühlkreise hintereinander
schalten (Abb. 8). Wenn wir eine Substanz A verwenden, die bei
Zimmertemperatur durch Kompression verflüssigt werden kann, können
wir sie bei einer etwas tieferen Temperatur T1 verdampfen lassen. Ein
zweites Gas B, dessen kritischer Punkt unterhalb der Zimmertemperatur,
aber über T1 liegt, kann nun durch Kompression bei T1 verflüssigt und
anschließend bei einer noch tieferen Temperatur T2 verdampft werden.

43
8 Eine Kühl»kaskade« mit zwei Substanzen verschiedener kritischer Daten. Wesentlich
ist, daß sich die Bereiche des Flüssigkeit-Gas-Gleichgewichts etwas überlappen.

44
Diesen Vorgang hat man Kaskadenverfahren genannt. Pictet
verflüssigte 1877 mittels einer solchen Kaskade Luft, indem er in seinem
ersten Kreis Schwefeldioxid, im zweiten Kohlensäure und im dritten
Sauerstoff benutzte. Zumindest glaubte er dies zur Zeit seines Experiments,
das vollkommener und mit wahrscheinlich besserem Verständnis der
entscheidenden Faktoren geplant war als das Cailletets. Eine spätere
Untersuchung seiner Experimente macht es jedoch unwahrscheinlich, daß
im dritten Kreis tatsächlich Sauerstoff unter Druck verflüssigt wurde, und
es scheint, daß der Flüssigkeitsstrahl, den er aus seiner Maschine
entspringen sah, Sauerstoff war, der auf dieselbe Weise wie in Cailletets
Anordnung verflüssigt worden war, d. h. durch Druckverminderung. Selbst
wenn Pictets erste Kaskade nur zum Teil arbeitete, so zeigten doch er und
andere nach ihm, daß sie sehr erfolgreich betrieben werden und als
wirksames Mittel zur Verflüssigung von Sauerstoff oder Luft dienen kann.
Eine Kaskade mit drei aufeinanderfolgenden Kreisen von Methylchlorid,
Äthylen und Sauerstoff wurde zwischen 1892 und 1894 von dem
holländischen Physiker Kamerlingh Onnes in seinem Laboratorium in
Leiden konstruiert. Ihr wurde noch ein vierter Kreis zur Kondensation der
atmosphärischen Luft hinzugefügt. Die ganze Anlage, die damals die
hervorragendste Errungenschaft der Tieftemperaturtechnik war, erzeugte
pro Stunde 14 Liter flüssige Luft und blieb noch viele Jahre nach Onnes'
Tod (1926) in Betrieb. Sie bildete die Grundlage des berühmten Leidener
Laboratoriums, das für mehr als drei Jahrzehnte die Tieftemperatur-
forschung beherrschen sollte und heute Kamerlingh Onnes' Namen trägt.
Das jedoch ist ein späterer Abschnitt unserer Geschichte.
Sofort nachdem die Verflüssigung von Luft gelungen war, versuchte
Cailletet auf dieselbe Weise Wasserstoff zu verflüssigen, aber alle seine
Bemühungen schlugen fehl. Auch Pictet versuchte sich daran, und hierbei
übertraf seine Begeisterung leider seine wissenschaftliche Vorsicht. Pictets
Gewißheit, daß seine Apparatur flüssigen Wasserstoff erzeugte, ließ ihn
Behauptungen aufstellen, die sich später als ganz unhaltbar erwiesen.
Aufgrund einer völlig falschen chemischen Voraussage erwartete er, daß

45
flüssiger Wasserstoff metallische Eigenschaften habe. Er berichtete, einen
stahlblauen Strahl flüssigen Wasserstoffs gesehen zu haben, der die Wand
seiner Apparatur mit metallisch klingendem Gerassel getroffen habe.
1884 begannen Wroblewski und Olszewski, die jetzt jeder für sich in
Krakau arbeiteten, in eigenen Experimenten Wasserstoff nach Cailletets
Expansionsmethode zu verflüssigen. Beide bemerkten einen leichten
Nebel, und jeder hoffte, er möge aus Tröpfchen flüssigen Wasserstoffs
bestehen. Beide hegten jedoch den Verdacht, daß es sich um irgendeine
Verunreinigung in kondensierter Form gehandelt haben könnte. Aber die
Tage Cailletets und Pictets waren jetzt vorüber, und von jedem, der
ernsthaft behauptete, Wasserstoff verflüssigt zu haben, erwartete man, daß
er etwas Handfesteres vorweise als eine vergängliche Nebelspur. Das
Mißlingen dieser Krakauer Experimente kennzeichnet das Ende jener
Epoche, in der man mit roher Gewalt und aufs Geratewohl Gase zu
verflüssigen versuchte.
Die treibende Kraft, die hinter den Experimenten stand, war eine völlig
andere geworden. Der Mythos von den »permanenten Gasen« war zerstört,
und Lavoisiers Voraussage hatte sich als richtig erwiesen. Nachdem
Cailletet Sauerstoff und Stickstoff verflüssigt hatte, zweifelte niemand
mehr ernsthaft daran, daß auch Wasserstoff in den flüssigen Zustand
versetzt werden könne. Das Problem war nicht mehr, ob dieses zuletzt
übriggebliebene Gas verflüssigt werden könnte, sondern die Frage nach der
Temperatur, bei der das geschehen würde. Ein wichtiges Kapitel der
wissenschaftlichen Forschung war erfolgreich abgeschlossen; der
Zusammenhang der drei Aggregatzustände miteinander war verstanden.
Für jede Substanz konnte ein Diagramm gezeichnet werden, auf dem die
feste, flüssige und gasförmige Phase zu sehen war und das bis auf kleinere
Abweichungen immer wie das Diagramm der Abb. 7 (S. 37) aussehen
würde.
Das neue Kapitel, das in den späten achtziger Jahren begann, war die
Erforschung der tiefen Temperaturen. Bis dahin war die Herstellung tiefer
Temperaturen nur ein Hilfsmittel bei der Verflüssigung der permanenten
Gase gewesen, und wie wir gesehen haben, hatte man die Rolle, die diese

46
tiefen Temperaturen spielten, nicht immer sehr gut verstanden. Nachdem
dann die erste Erregung über die verflüssigten Gase abgeflaut war, rückte
der Tieftemperaturaspekt in den Vordergrund. Als die polnischen Physiker
als erste gezeigt hatten, wie man flüssigen Sauerstoff im Laboratorium
aufrechterhalten kann, begann man allmählich zu erfassen, daß die
Wissenschaft sich auf den Weg zum absoluten Nullpunkt begeben hatte
und daß auf einen Schlag bereits zwei Drittel des Wegs zurückgelegt
worden waren. Die wenigen Gramm bläulicher Flüssigkeit im Inneren
einer Apparatur in Krakau waren der erste Stützpunkt in einem
unermeßlich großen Gebiet, das bis dahin vollkommen unerforscht war.
Von dort aus schritt man auf zwei Wegen voran, die zwar immer
voneinander abhingen, aber verschiedene Ziele hatten. Auf dem einen fand
der Marsch auf den absoluten Nullpunkt statt, der bald zu einem
aufregenden Rennen wurde, auf dem anderen wurde das Verhalten der
Materie in dem eben erschlossenen Bereich der tiefen Temperaturen
erforscht. Ein dritter Forschungszweck gesellte sich bald dazu: die
technische Anwendung der neuen wissenschaftlichen Entdeckungen.
Der erste Theoretiker der Tieftemperaturforschung war der holländische
Naturwissenschaftler Johannes Diederik van der Waals, der 1872 im Alter
von 35 Jahren Andrews' Ergebnisse im Rahmen der Molekülphysik
deutete. Die kinetische Theorie betrachtete ein dem Gesetz von Boyle
gehorchendes Gas als eine Gesamtheit von Molekülen, die so klein sind,
daß ihr Volumen gegen das Gasvolumen vernachlässigt werden kann. Ihr
einzig wichtiges Merkmal außer ihrer Masse ist die Geschwindigkeit, mit
der sie sich durch den Raum bewegen und zusammenstoßen. Da diese
Zusammenstöße vollkommen elastisch sind, können wir einfache
physikalische Gesetze erwarten, um das Verhalten eines solchen idealen
Gases zu beschreiben. Wir sahen bereits, daß mit diesem einfachen Modell
Erwärmung durch Kompression und Abkühlung durch Expansion leicht
erklärt werden können. Wenn wir eine Kühlmaschine entwerfen, die auf
Expansion unter Arbeitsleistung gegen einen Kolben oder in einer Turbine
beruht, brauchen wir nicht mehr als die Gesetze von Boyle und Gay-
Lussac. Aber diese Gesetze sagen uns nichts über Verflüssigung. Würden

47
sie immer befolgt, so könnte man eine Expansionsmaschine bauen, die,
von Zimmertemperatur ausgehend, den absoluten Nullpunkt erreichen
würde. Zu der Zeit also, als man noch einige Gase für permanent hielt,
muß das durchführbar erschienen sein. Aber wir wissen nicht, ob jemals
einer diese Möglichkeit in Betracht zog. Obwohl van der Waals seine
berühmte Arbeit Über die Kontinuität des gasförmigen und flüssigen
Zustands fünf Jahre vor der Sauerstoffverflüssigung veröffentlichte, war er
bereits überzeugt, daß kein Gas permanent sein würde. Er hatte sich zum
Ziel gesetzt, die Gründe für das Versagen von Boyles Gesetz
herauszufinden, ein Versagen, das sein Landsmann van Marum zuerst
bemerkt und darauf Andrews so gründlich erforscht hatte. Da
Wasserdampf bei Abkühlung zuerst zu flüssigem Wasser kondensiert und
dann zu Eis gefriert, mußte die Vorstellung von Gasmolekülen, die nur
kinetische Energie besitzen, erweitert werden. Es ist klar, hinsichtlich
welcher zwei Aspekte das einfache kinetische Modell eines Gases
unzulänglich ist: Die Moleküle müssen eine endliche Größe haben und
üben natürlich Kräfte aufeinander aus. Van der Waals berücksichtigte diese
beiden Vernachlässigungen, indem er die Gasgesetze mit (P + a/V2) statt
des Drucks P und (V – b) statt des Volumens V niederschrieb. Seine erste
Korrektur berücksichtigt die Tatsache, daß die Anziehungskraft zwischen
den Molekülen diese enger zusammenrückt und daher wie ein zusätzlicher
Druck wirkt, der durch die Konstante a bestimmt wird. Dieser »Druck«
muß um so größer sein, je enger die Moleküle zusammengerückt sind, d.
h., a muß durch V2 dividiert werden. Die zweite Verbesserung vermindert
das Gesamtvolumen um die Konstante b, die den Volumenanteil ausdrückt,
den die Moleküle selbst einnehmen.
Die neue Gleichung, die statt P • V – konst. • T jetzt (P + a/V2) • (V – b)
= konst. • T lautet, ergibt Kurven von eigenartig geschlängelter Gestalt
(Abb. 9), die jedoch derjenigen der von Andrews gemessenen Isothermen
nicht unähnlich ist. Es kommt kein flaches Teilstück vor, aber man
beachte, daß van der Waals' Gleichung in dem geschlängelten Bereich zu
jedem gegebenen Druck drei Lösungen für das Volumen ergibt. Wenn wir
mit einer geraden Linie diese drei Lösungspunkte miteinander verbinden,

48
erhalten wir eine Kurve, die Andrews' Isothermen sehr ähnelt. Überdies
können wir die richtigen drei Werte durch eine nicht allzu mühsame
Rechnung ermitteln. Man mußte bald einsehen, daß die Natur der
intermolekularen Kräfte viel zu kompliziert ist, um durch eine so einfache
Formel, wie es die von van der Waals ist, genau ausgedrückt werden zu
können. Heute ist es klar, daß keine einfache Zustandsgleichung
allgemeingültig sein kann. Diese Schwierigkeiten entstehen jedoch nur,
wenn man sehr genaue Werte für die Isothermen sucht, und es besteht kein
Zweifel, daß van der Waals' Näherung im großen und ganzen richtig war.
Wenn wir uns nicht um feinere Einzelheiten kümmern, gibt die Van-der-
Waals-Gleichung komplizierte Verhältnisse bemerkenswert zuverlässig
wieder. Außerdem ist die Rolle der anziehenden Kräfte beim Übergang
von einem Aggregatzustand in einen anderen klarer geworden. Diese
Kräfte können bei hohen Temperaturen vernachlässigt werden, da nämlich
die sehr hohe Bewegungsenergie sie dort vollkommen verdeckt. Wird nun
das Gas abgekühlt, so sinkt diese kinetische Energie und die
intermolekularen Kräfte machen sich durch Abweichungen von Boyles
Gesetz bemerkbar. Bei hinreichend tiefen Temperaturen schließlich wiegen
sie die abnehmende kinetische Energie auf. Die Moleküle fliegen nicht
mehr nach jedem Zusammenstoß auseinander, sondern werden
zusammengehalten. Der flüssige Zustand ist erreicht. In diesem Zustand
haben die Moleküle zwar noch eine gewisse Bewegungsfreiheit, können
sich aber nicht mehr sehr weit voneinander entfernen. Bei noch tieferen
Temperaturen wird die kinetische Energie so klein, daß auch diese
Bewegungsfreiheit verlorengeht. Von jetzt an ist jedes Molekül an seine
Nachbarn gebunden, und die ganze Molekülansammlung ist zum festen
Zustand gefroren.

49
9 Van der Waals' Modifikation des Boyleschen Gesetzes berücksichtigt das Eigenvolumen
der Moleküle und die zwischen ihnen wirkenden Kräfte. Es ergibt sich eine gute
Annäherung an die von Andrews gemessenen Isothermen (vgl. Abb. 6).

Ein großer Vorzug der Van-der-Waals-Gleichung ist, daß sie mit den
obigen Einschränkungen für jede Substanz gilt. Lediglich die beiden
Koeffizienten a und b sind von Fall zu Fall verschieden. Sind sie einmal

50
aus der Messung von einer oder mehreren Isothermen bestimmt, kann das
ganze Zustandsdiagramm für die Substanz vorhergesagt werden.
Insbesondere ist die kritische Temperatur ziemlich genau gleich 0,15 • a/b ,
so daß die Kenntnis der beiden Koeffizienten für ein Gas die Vorhersage
seines kritischen Punkts erlaubt. Da die Van-der-Waals-Gleichung auch im
Bereich oberhalb der kritischen Temperatur gilt, lassen sich a und b aus
sorgfältigen Messungen der Isothermen weit oberhalb des Bereichs
möglicher Verflüssigung bestimmen. Nach dem enttäuschenden Ergebnis
des Jahres 1884 widmete Wroblewski die meiste Zeit der vier ihm
verbleibenden Lebensjahre der Bestimmung der Koeffizienten a und b für
Wasserstoff. Nach seinem Tod schickte einer seiner Schüler die von ihm
aufgezeichneten Beobachtungen und Folgerungen an die Akademie der
Wissenschaften in Wien. Die Ergebnisse waren nicht ermutigend gewesen.
Er schätzte die kritische Temperatur des Wasserstoffs auf etwa 30° K;
seine Folgerung war, wie sich später zeigen sollte, richtig. Dagegen ist die
tiefste Temperatur, die mit flüssiger Luft bequem erreicht werden kann,
etwa 50° K. Es bestand also keine Hoffnung, flüssigen Wasserstoff
dadurch zu erhalten, daß man das Gas bei Temperaturen flüssiger Luft
komprimierte. Eine Lücke von 25° klaffte zwischen den Dampfdruck-
kurven von Luft und Wasserstoff, und es stand kein anderes Gas zur
Verfügung, das zur Verflüssigung mittels einer Kaskade hätte dienen
können. Der Fortschritt hatte sich totgelaufen.
Sieben Jahre später (1895) erfanden Hampson in England und Linde in
Deutschland, wieder unabhängig und gleichzeitig, ein neues Gasverflüssi-
gungsverfahren, das das Tor zu weiteren Fortschritten auf den absoluten
Nullpunkt hin öffnete. Es erwies sich dank seiner technischen Einfachheit
sofort als erfolgreich. Das zugrunde liegende physikalische Prinzip ist
leider nicht annähernd so einfach. Das Verfahren stützt sich auf
Beobachtungen, die Joule und Thomson (der spätere Lord Kelvin) mehr als
40 Jahre früher gemacht hatten. Im Zusammenhang mit seiner Arbeit über
die Energieumwandlung interessierte sich Joule für die Gasexpansion unter
Bedingungen, bei denen keine Arbeit während dieser Expansion geleistet
wird. Als wir Cailletets Experiment erörterten, sahen wir, daß selbst dann,

51
wenn die Versuchsanordnung keinen Kolben enthält, Arbeit geleistet
werden kann – wie z. B. durch Anhebung der Erdatmosphäre. Von der
kinetischen Vorstellung her ist völlig klar, daß immer Arbeit geleistet wird,
wenn die Moleküle des sich ausdehnenden Gases vom Kolben oder von
ihren Nachbarn mit einer geringeren Geschwindigkeit zurückprallen, als
sie ursprünglich besaßen. Bei Joules Experiment ließ man das Gas sich
einfach in ein größeres Volumen ausdehnen. Unter diesen Bedingungen
sollte sich keine Wärme entwickeln, da nirgends in der Anordnung Arbeit
geleistet wird. Seine ersten Experimente waren erfolglos, aber 1852
unternahm er zusammen mit Thomson einen empfindlicheren Versuch. Sie
ließen Luft ein Rohr entlangströmen, in dem sich ein poröser Pfropfen
befand. Da der Pfropfen für den Gasstrom einen Widerstand bildete, war
der Luftdruck vor ihm größer als hinter ihm. Die Luft dehnte sich also
beim Durchströmen des Pfropfens aus, ohne dabei Arbeit zu leisten. Bei
den Zusammenstößen, wie während des Durchtritts der Luft durch die
feinen Kanäle im Pfropfen stattfinden, können die Moleküle nirgends mit
verminderter Geschwindigkeit zurückprallen.
Die Ergebnisse waren in zweierlei Hinsicht überraschend. Zunächst
kühlten sich die Luft wie auch ihre Bestandteile Sauerstoff und Stickstoff
bei dieser Expansion leicht ab, und dasselbe taten die meisten anderen
Gase, die Joule und Thomson untersuchten. Die zweite Überraschung war,
daß bei Wasserstoff, der einzigen Ausnahme von dieser Regel, statt dessen
ein Erwärmungseffekt auftrat. Spätere Untersuchungen zeigten, daß der
Abkühlungseffekt sich mit sinkender Temperatur vergrößert und sich sogar
Wasserstoff bei hinreichend tiefer Temperatur abkühlt, wenn er sich auf
diese Weise ausdehnt.
Da wir von einem idealen Gas, d. h. einem, das dem Gesetz von Boyle
gehorcht, überhaupt keinen Erwärmungseffekt erwarten dürfen, müssen
wir zwangsläufig folgern, daß die von Joule und Thomson beobachteten
Erscheinungen von Eigenschaften herrühren, die auch für die
Verflüssigung verantwortlich sind. Das ganze Problem konnte erst nach
den Untersuchungen von Andrews und van der Waals gelöst werden.
Andrews' Diagramm (S. 38) zeigt tatsächlich, daß noch weit oberhalb der

52
kritischen Temperatur die Isothermen von rechtwinkligen Hyperbeln stark
abweichen. Sie erscheinen verzerrt, und das ist ein sicheres Zeichen für die
Nähe des flüssigen Zustands bei tieferen Temperaturen; das ist ebenfalls
erklärbar durch die intermolekularen Kräfte und das Eigenvolumen der
Moleküle. Wenn sich jetzt das Gas durch den porösen Pfropfen ausdehnt,
wird tatsächlich Arbeit geleistet, allerdings keine äußere Arbeit gegen
einen Kolben oder gegen die Atmosphäre. Die Arbeit wird in diesem Fall
intern aufgewandt, nämlich um die Moleküle voneinander zu entfernen, d.
h. die gegenseitigen Anziehungskräfte zu überwinden. Die Van-der-Waals-
Gleichung berücksichtigt jedoch nicht nur die intermolekularen Kräfte,
sondern auch das Eigenvolumen der Moleküle, und dieser Ausdruck in der
Gleichung wirkt in der entgegengesetzten Richtung. Wegen ihres
Eigenvolumens halten die Moleküle nämlich voneinander einen gewissen
Abstand. Daher kann auch ein Erwärmungseffekt auftreten. Wir verstehen
nun, warum die von Joule und Thomson gefundene Temperaturänderung
bei einigen Gasen eine Abkühlung und bei anderen eine Erwärmung ist.
Die beiden Korrekturen in der Van-der-Waals-Gleichung wirken in
entgegengesetzten Richtungen, und der resultierende thermische Effekt
kann daher eine Erwärmung oder eine Abkühlung sein, je nachdem,
welche der beiden Wirkungen überwiegt. Zum Glück für die Erzeugung
tiefer Temperaturen herrscht bei Annäherung an die Verflüssigung immer
der Abkühlungseffekt vor.
Verglichen mit der Abkühlung, die in einer Expansionsmaschine erzielt
werden kann, ist der Joule-Thomson-Effekt gewöhnlich sehr klein.
Andererseits ist die Kühlvorrichtung sehr einfach. Sie besteht nur aus
einem Pfropfen oder einer Düse, durch die hindurch das Gas expandiert
wird, und erfordert keinerlei bewegliche Teile bei tiefen Temperaturen.
Der Siemenssche Kühlkreis und dessen Wärmeaustauscher waren seit fast
40 Jahren bekannt, so war es nur eine Frage der Zeit, ob jemand auf die
Idee kommen würde, die Expansionsmaschine durch einen Joule-
Thomson-Pfropfen zu ersetzen. Die Patentanträge für eine solche
Vorrichtung wurden unabhängig voneinander am 23. Mai 1895 von
Hampson in England und am 5. Juni desselben Jahres von Linde in

53
Deutschland eingereicht. Der Bericht über Lindes erstes Experiment
wenige Monate später ist ganz dramatisch. Da der Wärmeaustauscher sehr
schwer war, vergingen nicht weniger als drei Tage, bis die Endtemperatur
erreicht war und sich die erste flüssige Luft niederschlug. In den zwei
dazwischenliegenden Nächten erwärmte er sich zum Teil wieder, da die
Wärmeisolation schlecht war.

10 Im Hampson-Linde-Kreislauf ist die Expansionsmaschine der Abb. 2 (S. 19) durch


eine Düse ersetzt, in der Abkühlung aufgrund des Joule-Thomson-EfTekts erfolgt.

Die Funktionsweise des Hampson-Linde-Krefslaufs ist sehr einfach


(Abb. 10). Das Gas wird in A komprimiert, strömt durch einen Wärme-
austauscher D und wird dann durch die Düse B expandiert. An dieser
Stelle findet eine geringe Temperaturerniedrigung statt, und das
expandierte Gas kühlt daher das einströmende Gas in D. Wird dieser
Vorgang häufig wiederholt, so nimmt die Temperatur an der Düse stetig
ab, bis schließlich Verflüssigung eintritt und der verflüssigte Anteil sich in
E sammelt. Der Vergleich der Abb. 2 (S. 19) und 10 zeigt sofort, wie
ähnlich die beiden Kreise sind. Der einzige Unterschied besteht in der
Verwendung einer Düse anstatt einer Expansionsmaschine. Dieser
Unterschied bedeutet jedoch, daß man die technische Einfachheit mit
einem großen Verlust an Kühlwirkung und der Notwendigkeit höherer
Drücke und größerer Gasmengen im Kreis bezahlen mußte.
Von 1895 an hat sich die industrielle Anwendung der Ergebnisse der
54
Tieftemperaturphysik der Zukunft zugewandt. Ihr wichtigstes Ziel wurde,
aus der atmosphärischen Luft Sauerstoff zu gewinnen, der in großen
Mengen bei der Stahlherstellung und bei anderen technischen Prozessen
benötigt wird.
Die Abtrennung des Stickstoffs aus der Luft und die des Wasserstoffs
aus Wassergas sind ebenfalls von großer Bedeutung. Die Patente von
Hampson und Linde führten schließlich zu den großen Gastrennungs-
werken in England, Deutschland und den USA. Sie wurden um die
Jahrhundertwende in Frankreich durch das Patent von Claude ergänzt, der
dann die Herstellung von Expansionsmaschinen als Geschäftsunternehmen
betrieb.

55
3 | London 1898

Am 1. September 1894 veröffentlichte die Londoner Times einen Artikel


über die Fortschritte auf dem Weg zum absoluten Nullpunkt. Dieser
Artikel stützte sich auf ein Interview mit Professor (später Sir James)
Dewar von der Royal Institution in London und handelte hauptsächlich von
dem, wie es damals schien, letztmöglichen Schritt in Richtung auf das
Endziel, nämlich der Verflüssigung des Wasserstoffs. Dewar, damals
52jährig, war durch seine brillanten Experimente in den Mittelpunkt der
Tieftemperaturforschung getreten. Vier Jahre später erreichte er sein Ziel,
wenn auch auf eine Weise, die von der im Interview angedeuteten sehr
verschieden war. Zu jener Zeit gründete sich seine Hoffnung, die Kluft
zwischen den Temperaturen der flüssigen Luft und dem kritischen Punkt
des Wasserstoffs zu überbrücken, auf die »Herstellung einer neuen
Substanz«, die einen geeigneten kritischen Punkt bei, sagen wir, 80º K
haben sollte. Man hielt Wasserstoff mit einem zehnprozentigen Zusatz von
Stickstoff für eine solche Substanz, und Dewar experimentierte damit.
Heute wissen wir, daß die Löslichkeit von Stickstoff in flüssigem
Wasserstoff viel zu klein ist, um nutzbar zu sein. Aber Dewar war offenbar
nicht sicher, ob er nicht vielleicht doch Wasserstoff verflüssigt habe. Auf
jeden Fall war er vorsichtig, und daher schrieb The Times: »Professor
Dewar behauptet nicht, reinen flüssigen Wasserstoff in einem seiner
Vakuumgefäße erzeugt zu haben, obwohl sich unmöglich sagen läßt,
welche Flüssigkeit außer Wasserstoff es gewesen sein könnte.«
James Dewar war ein kleiner Mann von vielseitiger Begabung und
nahezu unheimlichem experimentellem Geschick, und er besaß ein leicht
reizbares Künstlertemperament. Als jüngster von sieben Söhnen eines
schottischen Gastwirts brach er im Alter von zehn Jahren einmal ins Eis

56
ein, danach stand es einige Jahre schlecht um seine Gesundheit. Damals
entwickelte er seine große handwerkliche Gewandtheit, indem er viel Zeit
beim Dorfschreiner verbrachte, der ihn den Geigenbau lehrte. Eine dieser
Geigen, die anläßlich seiner goldenen Hochzeit gespielt wurde, trug die
Inschrift »James Dewar, 1854«. Später besuchte er die Universität
Edinburgh, wo er nach seinem Studium eine Professur für Chemie
innehatte. Im Alter von 33 Jahren erhielt er den Jackson-Lehrstuhl für
experimentelle Philosophie in Cambridge. Nach allem, was man darüber
weiß, scheinen Dewar und Cambridge nicht besonders gut miteinander
ausgekommen zu sein. Als ihm zwei Jahre darauf der Fuller-Lehrstuhl für
Chemie an der Royal Institution in London angeboten wurde, nahm er ihn
mit Vergnügen an und blieb dort bis zu seinem Tode im Alter von 81
Jahren bis zum letzten Augenblick tätig. Wie seine wissenschaftlichen
Veröffentlichungen zeigen, erstreckte sich Dewars Interesse auf einen sehr
großen Themenkreis, aber seine übrige Forschungsarbeit tritt völlig zurück
neben seinen hervorragenden Beiträgen auf dem Gebiet der tiefen
Temperaturen. An der Royal Institution fühlte er sich frei von
akademischen Pflichten und Universitätsvorschriften, und dem Künstler in
ihm war der Geist Davys und Faradays immer gegenwärtig. Als ein Jahr
nach seiner Amtsübernahme die Sauerstoffverflüssigung bekanntgegeben
wurde, fühlte er, daß der Geist Faradays ihn mahnte, die frühere
Pionierarbeit bei der Gasverflüssigung an der Royal Institution
fortzusetzen. Sofort besorgte er sich aus Paris eine Cailletet-Apparatur, und
schon nach wenigen Monaten, im Sommer 1878, zeigte er seinem
Auditorium anläßlich eines der berühmten Freitagabendvorträge die
Tropfen flüssigen Sauerstoffs. Bevor er die Apparatur vorführte, die »der
Royal Institution von Dr. Warren de la Rue großmütig gestiftet« worden
war, gab Dewar einen Abriß der Geschichte der Gasverflüssigung, wobei
er bezeichnenderweise mit Faradays Brief an Dr. Paris über die
Verflüssigung von Chlorgas begann.
Dieser Experimentalvortrag war der erste einer langen Reihe von
Demonstrationen, die sich über mehr als drei Jahrzehnte verteilten und in
den eindrucksvollen Experimenten mit flüssigem Wasserstoff gipfelten.

57
Die seltene Verbindung von experimentellem Geschick und künstlerischem
Instinkt, getragen von tiefem wissenschaftlichem Verständnis, machte
Dewar zu einem einzigartigen Schausteller. Ein großes Gemälde in der
Royal Institution zeigt ihn, wie er – im Frack – die Eigenschaften flüssigen
Wasserstoffs einer großen Versammlung demonstriert. Seine Vorlesungen
waren um so eindrucksvoller, als er in ihnen gewöhnlich seine eigenen
neuesten Forschungsergebnisse vorführte. Sie waren gesellschaftliche
Ereignisse, bei denen die Öffentlichkeit das Schauspiel des derzeitigen
wissenschaftlichen Fortschritts erlebte und der Hörsaal zum Theater wurde.
Wie auf jeder Bühne sahen die Zuschauer nur die glänzende Aufführung,
ahnten aber kaum die unendliche Sorgfalt, mit der geplant und geprobt
worden war.
Cailletets Experiment mit einer käuflichen, fertigen Apparatur zu
wiederholen ist einfach. Aber zur Forschung geeignete Tieftemperatur-
einrichtungen aufzubauen ist ein viel schwierigeres Unterfangen. Dewar
brauchte noch sechs Jahre, bis er diese zweite Stufe erreichte, und auch
dann war er noch nicht viel weiter gekommen als Wroblewski und
Olszewski im vorangegangenen Jahr, von deren »glänzendem Erfolg« er
am Anfang seines Vortrags berichtete. Dewars hauptsächliche
Verbesserung bestand in einer Abänderung, die einem großen Auditorium
die Experimente zu beobachten erlaubte. Aber seine Untersuchungen des
chemischen Verhaltens von flüssigem Sauerstoff und die Bemerkung des
Präsidenten der Royal Society vom 27. Mai 1886, er sei Zeuge gewesen,
als Dewar Sauerstoff gefrieren ließ, deuten darauf hin, daß er außerdem
seine Versuchsanordnung sehr verbessert hatte. Im selben Jahr noch
beschrieb Dewar seine Apparatur, defen Konstruktion einen bedeutenden
Fortschritt gegenüber der Krakauer Ausrüstung darstellte. Seltsamerweise
ist die Beschreibung einem Artikel angefügt1, der sich mit der
Untersuchung von Meteoriten beschäftigt, eine Tatsache, die zehn Jahre
später noch gewisse Folgen hatte.
Die Tätigkeit der Royal Institution und Dewars Vorliebe für Demonstra-
tionsexperimente erforderten es, daß die verflüssigten Gase in einem
Probegefäß »ruhig siedeten«, wie Jamin es gefordert hatte. Um das zu

58
erreichen, sind zwei Dinge nötig. Erstens muß eine ausreichende Menge
des verflüssigten Gases erzeugt und zweitens verhindert werden, daß das
Gas sofort wieder verdampft. Das erste Problem lösten die polnischen
Wissenschaftler, und sie unternahmen auch einige Schritte zur Lösung des
zweiten. Cailletet hatte bereits bemerkt, daß die Beobachtungen bei seinem
ersten Experiment durch den Reif gestört wurden, der sich auf der
Außenseite seines Glasrohrs bildete. Bei späteren Untersuchungen umgab
er daher dieses Rohr mit einem zweiten, das an dem ersten mit Stöpseln
befestigt und dessen Boden mit Calciumchlorid, einem Trockenmittel,
bedeckt wurde. In dieser derart verbesserten Anordnung war das
Experimentierrohr von einem wasserdampffreien Zwischenraum
umschlossen, so daß sich kein Reif bilden konnte. Bei den früheren
Krakauer Experimenten wurde diese Vorrichtung ebenfalls benutzt, und
zum erstenmal konnte man flüssigen Sauerstoff in einem Probegefäß
sieden sehen, wenn auch nur für kurze Zeit, da der Wärmezustrom ihn bald
wieder verdampfen ließ. Im folgenden Jahr (1884) wurde die Apparatur
weiter verbessert. Der kalte Äthylendampf wurde über die Außenwand des
Glasgefäßes mit dem flüssigen Äthylen abgesogen, das wiederum den
flüssigen Sauerstoff vom Wärmezustrom abschirmte (Abb. 11a). Mit
diesem Verfahren begannen Olszewski und Dewar zur selben Zeit.
Damals wurde der wissenschaftliche Wortschatz um ein neues Wort
bereichert. Die besonders konstruierten Behälter, in denen verflüssigtes
Gas zu Beobachtungs- und Forschungszwecken aufbewahrt wurde, nannte
man Kryostate (kryos ist das griech. Wort für »kalt«) und die Kunst der
Kälteerzeugung Kryogenik (Kältetechnik). Bald gehörten die Kryo-staten
nicht mehr zur Verflüssigungsapparatur selbst. Statt dessen wurde die
Flüssigkeit aus dem Expansionsgefäß über einen Hahn in den eigentlichen
Kryostaten gefüllt, der dann abgenommen werden konnte. Das erleichterte
das Experimentieren sehr. Die Kryostaten dieser Zeit bestanden aus einem
Rohr, das flüssigen Sauerstoff enthielt, und einem äußeren Glasbecher, in
den das Rohr mit einem Stöpsel eingepaßt war (Abb. 11b). Auf dem Boden
des Bechers befand sich ein Trockenmittel, das den Wasserdampf
zwischen den Glaswänden absorbierte und die Reifbildung verhinderte. So

59
konnte Dewar bei seinen Vorträgen jeweils kurz vorher gewonnenen
flüssigen Sauerstoff in den Hörsaal mitbringen und dessen Eigenschaften
dem Auditorium vorführen. In den zehn Jahren seit der ersten
Verflüssigung hatten die Experimente mit flüssiger Luft und flüssigem
Sauerstoff ungeheure Fortschritte gemacht, aber es gab ein beunruhigendes
Zeichen dafür, daß die Annäherung an den absoluten Nullpunkt auf eine
weitere Schwierigkeit stoßen würde

11 Entwicklungsstufen des Vakuumgefäßes

.
Damit eine Flüssigkeit verdampft, muß ihr eine bestimmte
Wärmemenge zugeführt werden. Diese latente Wärme der Verdampfung
ermöglicht es überhaupt erst, ein verflüssigtes Gas aufzubewahren. Jeder
Kubikzentimeter flüssigen Sauerstoffs erfordert zu seiner Verdampfung
den Zustrom einer Wärme von 70 cal in den Kryostaten. Je weniger

60
Wärme in den Kryostaten gelangt, um so länger hält sich der Sauerstoff im
flüssigen Zustand. Leider ist jedoch die latente Wärme des Sauerstoffs
ungefähr viermal kleiner als die des Wassers, was, wie Trouton gezeigt hat,
der Tatsache zuzuschreiben ist, daß Sauerstoff bei einer viermal geringeren
Temperatur siedet als Wasser (Temperaturen in Grad Kelvin). Nach
Troutons Regel war daher zu erwarten, daß die latente Wärme des
Wasserstoffs noch kleiner, möglicherweise mehr als viermal kleiner als die
des Sauerstoffs sein würde. Diese grobe Überlegung zeigte nur zu deutlich,
daß, selbst wenn man Wasserstoff verflüssigen könnte, die damalige
Bauart der Kryostaten zu seiner Aufbewahrung ganz ungeeignet wäre.
Dewar scheint dieses wichtige Problem irgendwann gegen Ende des
Jahrs 1892 gelöst zu haben, da er in einem Vortrag am 20. Januar 1893
seinem Auditorium sein berühmtes Vakuumgefäß vorführte, und zwar in
einer so vollkommenen Form, daß sie bis heute unverändert blieb. Wie wir
gerade gesehen haben, war der doppelwandige Kryostat schon seit einigen
Jahren in Gebrauch gewesen, aber nur Wasserdampf war aus dem
Zwischenraum entfernt worden. Dewar baute den Kryostat um, indem er
auch noch die Luft entfernte (Abb. 11c). Als Anregung zu diesem genialen
Schritt nannte er eine seiner eigenen Veröffentlichungen, die damals
zwanzig Jahre zurücklag. Darin hatte er beschrieben, wie er das Vakuum
zur Wärmeisolation in einem Kalorimeter benutzt hatte. Jetzt demonstrierte
er überzeugend die Überlegenheit seiner Erfindung gegenüber den
Kryostaten alter Bauart, indem er den ruhig wie Wasser im Vakuumgefäß
stehenden flüssigen Sauerstoff zeigte und dann den Stutzen abbrach, an
dem das Gefäß hermetisch zugeschmolzen worden war. Als Luft in den
Zwischenraum der Wände eindrang, begann der flüssige Sauerstoff heftig
zu sieden. In derselben Vorlesung zeigte Dewar auch Vakuumgefäße mit
versilberten Wänden, in denen zusätzlich die Wärmezufuhr durch
Strahlung weitgehend beseitigt worden war.
Um das Vakuumgefäß zu erfinden, bedurfte es mehr als nur einer
glänzenden Idee. Die Anfertigung dieser Gefäße erforderte einen sehr
geschickten Glasbläser und die fertige Flasche eine sorgfältige
Wärmebehandlung, damit sie nicht zersprang, wenn das Innere plötzlich

61
auf die Temperatur flüssiger Luft abgekühlt wurde. Einige der während des
Vortrags gezeigten Gefäße waren recht kompliziert gebaut. Diese
Vollkommenheit hatte man erst nach vielen Versuchen und Fehlschlägen
erreicht. Über diese Schwierigkeiten sagte Dewar, wie üblich, nichts. Des
längeren erläuterte er jedoch die sinnreichen Methoden, mit denen er die
für seine Flaschen erforderlichen hohen Vakua erzielt hatte.
Das Dewar-Gefäß war ein gewaltiger Schritt vorwärts auf dem Weg, die
Temperaturen der flüssigen Luft zu beherrschen und noch tiefere zu
erzeugen. Insbesondere gestatteten jetzt die sehr verbesserten
Aufbewahrungsmöglichkeiten, die die Vakuumflasche bot, mit Litern statt
mit Kubikzentimetern verflüssigter Gase zu experimentieren. Im selben
Vortrag sprach Dewar über die finanziellen Schwierigkeiten, mit denen die
Forschung zu kämpfen hatte, und man vernahm einen Seufzer der
Erleichterung, als er sagte: »Als ich wegen der Kostenfrage in großer
Bedrängnis war, sprang die Goldsmiths' Company mit einem großzügigen
Zuschuß von 1000 Pfund ein, damit die Arbeit mit der verbesserten
Apparatur fortgesetzt werden konnte.« Drei Tage später kam die Times, als
sie über den Vortrag berichtete, auf dieses Thema zurück und wies
prophetisch auf das neue Gesetz hin, das die Wissenschaftler entdeckt
hätten: das Gesetz der steigenden Ausgaben.
Bei hervorragenden Erfindungen beanspruchen freilich oft mehrere die
Priorität; und beim Vakuumgefäß nannten die Deutschen den Namen
Weinholds, der die Vakuumisolation bereits vor Dewar benutzt haben soll,
während die Franzosen das Gefäß vase d'Arsonval nannten, weil dieser die
Vakuumisolation 1888 für biologische Zwecke verwendet hatte. Es steht
jedoch außer Zweifel, daß jeder dieser beiden Wissenschaftler, hätte er die
Bedeutung der Vakuumisolation für die Aufbewahrung flüssigen
Sauerstoffs erkannt, auch davon Gebrauch gemacht hätte. Erst Dewars Idee
führte zur Umwälzung in der experimentellen Kältetechnik. Ohnehin hatte
er jedoch einen beträchtlichen Vorsprung vor Weinhold und d'Arsonval, da
er bereits zwanzig Jahre früher die Vakuumisolation in der Kalorimetrie
benutzt hatte.
Doch das war nicht der einzige Prioritätsstreit, in den sich Dewar

62
verwickelt fand. Wenige Jahre später entstand eine zweite dieser
Kontroversen, mit denen seine wissenschaftliche Karriere durchsetzt war
und zu denen er übermäßig veranlagt zu sein schien.
Im Februarheft des Philosophical Magazine von 1895 erschien ein
Artikel von Olszewski, der auf 25 Seiten ein Resümee seiner ganzen
Tieftemperaturarbeit gab. In der Einleitung führte Olszewski für diese
Veröffentlichung zwei Gründe an. Der erste war, daß seine Arbeiten über
eine ganze Anzahl kontinentaleuropäischer Zeitschriften verstreut und
daher englischen Lesern nicht leicht zugänglich wären; der zweite, daß
Dewar seine Arbeit wiederholt hätte, ohne ihn auch nur zu erwähnen.
Während das erste Argument als angängig, wenn auch ungewöhnlich
durchgehen könnte, war er mit dem zweiten im Unrecht und auch schlecht
beraten. Im Unrecht, weil Dewar in Wirklichkeit einen Teil der Arbeit
Olszewskis vorweggenommen hatte, und schlecht beraten, weil Olszewski
Dewars Wut und giftige Gehässigkeit arg unterschätzt hatte. Olszewski
beklagte sich hauptsächlich darüber, daß Dewar von seiner, Olszewskis,
Apparatur zur Verflüssigung großer Sauerstoffmengen aus dem Jahr 1890
keinerlei Notiz genommen hatte. Offenbar hatte er Dewars Arbeit aus dem
Jahr 1886 über die Meteoriten nie zu Gesicht bekommen, wo die
Gasverflüssigungseinrichtung der Royal Institution beschrieben worden
war. Daher war es ganz sinnlos zu behaupten, Dewar hätte nichts weiter
getan als die Krakauer Arbeit wiederholt. Dewar stellte das in seiner
Antwort richtig. Außerdem jedoch schlug er zurück, und zwar auf die
empfindlichste Stelle. Offenbar wußte Dewar einiges über den Bruch
Olszewskis mit Wroblewski gleich zu Beginn der Krakauer Experimente,
wenn er schrieb: »Ich bin persönlich sehr froh darüber, daß eine englische
Ausgabe der Aufsätze Professur Olszewskis erschienen ist. Man hat jedoch
etwas sehr Wichtiges vergessen, und ich bin überzeugt, daß die
Herausgeber des Philosophical Magazine das in Kürze nachholen werden.
Hier in England sähen wir gern eine Übersetzung der glänzenden späteren
Aufsätze von Professor Wroblewski. Bevor das geschehen ist, kann die
wissenschaftliche Öffentlichkeit viele der Prioritätsansprüche Professor
Olszewskis unmöglich beurteilen.« Ein Jahr darauf nahm Dewar in einer

63
langen Veröffentlichung über den Fortgang seiner Tieftemperaturarbeit das
Thema mit Gusto und frischer Kraft wieder auf. Er riet seinen Lesern,
einen von Wroblewski 1885 veröffentlichten Aufsatz zu lesen »und sich
allgemein mit der Arbeit dieses sehr bemerkenswerten Mannes vertraut zu
machen, bevor sie zu voreiligen Schlüssen über die von seinem
zeitweiligen Mitarbeiter geltend gemachten Prioritätsansprüche kämen«.
Die Apparatur und die Experimente, die in dieser Arbeit beschrieben
wurden, sind von beträchtlicher Bedeutung. Sie begründeten Dewars
größten Triumph und trugen die Keime zu zwei weiteren bitteren
Kontroversen in sich. Die erste Abbildung dort zeigt die Apparatur, mit der
in der Royal Institution Luft verflüssigt und wo deutlich sichtbar die Joule-
Thomson-Expansion durch eine Düse als Kühlvorrichtung benutzt und ein
damit verbundener Wärmeaustauscher verwendet wurden. Es sei bemerkt,
daß diese Arbeit Anfang 1896 erschien, nur wenige Monate nach der
Erteilung der Patente an Hampson und Linde. Linde wird im Text erwähnt,
Hampsons Name jedoch erscheint nur in einer ärgerlichen Fußnote gegen
einen Professor des Royal College of Science, der das Vakuumgefäß
Cailletet zuschrieb. Der Artikel dieses Professors trug den Titel »L'appareil
du Dr. Hampson pour la liquefaction de l'air«. Im wesentlichen wollte
Dewar darauf hinweisen, daß seine eigene Apparatur brauchbar war, auch
wenn ihr kein wirklich neues Prinzip zugrunde lag, da der
Wärmeaustauscher ja bereits 1857 von Wilhelm Siemens beschrieben
worden war. Außerdem erwähnte er die Experimente von Joule und
Thomson als »wohlbekannt«.
Von den in diesem Aufsatz beschriebenen Experimenten sind jene am
wichtigsten, in denen Wasserstoffgas durch ein Verfahren expandiert wird,
das dem zur Luftverflüssigung benutzten ähnelt und ebenfalls von einer
Joule-Thomson-Düse sowie einem Wärmeaustauscher Gebrauch macht.
Wie zu erwarten war, stellte Dewar fest, daß keine Abkühlung erfolgte,
wenn Wasserstoff bei Zimmertemperatur in die Apparatur gefüllt wurde.
Als er dieses Gas jedoch mit flüssiger Luft vorgekühlt hatte. beobachtete er
einen Abkühlungseffekt, allerdings kein Zeichen einer Verflüssigung. Wie
niedrig die Temperatur des Strahls aus Wasserstoffgas war, der aus der

64
Düse kam, demonstrierte er damit, daß er ihn auf flüssigen Sauerstoff
richtete: Der Sauerstoff gefror zu einem blaßblauen, festen Block. Dewar
schätzte, daß die Temperatur des Strahls zwischen 20º und 30º über dem
absoluten Nullpunkt liegen müßte, und wies darauf hin, daß die
Eigenschaften der Materie nun bei diesen sehr tiefen Temperaturen
untersucht werden könnten. Daß die Verflüssigung des Wasserstoffs selbst
erreicht werden könnte, davon war Dewar jetzt überzeugt. Über die
Zukunftsaussichten sagte er: »Diese Schwierigkeiten werden durch
Verwendung eines anders geformten Vakuumgefäßes und durch bessere
Isolation überwunden werden. Daß man flüssigen Wasserstoff gewinnen
und in geeignet gebauten Vakuumgefäßen handhaben kann, läßt sich nicht
bezweifeln.«
In den folgenden zwei Jahren veröffentlichte Dewar viele
Forschungsergebnisse über die Eigenschaften der Materie bei den
Temperaturen flüssiger Luft, aber offensichtlich arbeitete man hinter den
Kulissen mit voller Kraft auf die Verflüssigung des Wasserstoffs hin.
Schließlich war Olszewski in Krakau eifrig mit demselben Problem
beschäftigt, und ein neuer starker Konkurrent war in Holland aufgetaucht.
Dank seiner großen Luftverflüssigungskaskade besaß Kamerlingh Onnes
in Leiden kältetechnische Einrichtungen, die jenen der Royal Institution
wahrscheinlich überlegen waren, und Dewar wußte, daß auch Onnes
Vorbereitungen zur Wasserstoffverflüssigung traf. Am 10. Mai 1898
erreichte Dewar sein Ziel: Er hatte 20 Kubikzentimeter flüssigen
Wasserstoffs erzeugt, die in einem Vakuumgefäß ruhig siedeten. Die
Bekanntgabe erfolgte auf der Sitzung der Royal Society vom 12. Mai.
Weder damals noch bei irgendeiner späteren Gelegenheit gab Dewar eine
Beschreibung seines Verflüssigers. Er erwähnte lediglich, daß das
Wasserstoffgas bei dem ersten erfolgreichen Versuch auf –205º C (68º K)
vorgekühlt worden war und mit 300 Litern pro Minute durch seine
Apparatur strömte. Nach einer nicht näher angegebenen Zeit begann sich
flüssiger Wasserstoff zu sammeln, und die 20 Kubikzentimeter wurden in
ungefähr fünf Minuten gewonnen; danach wurde seine Apparatur durch
Verunreinigungen im Wasserstoffgas blockiert.

65
66
67
Dewar beobachtete eine farblose Flüssigkeit mit einer klar erkennbaren
Oberfläche, und eine grobe Messung zeigte, daß sie eine sehr geringe
Dichte besaß; flüssiger Wasserstoff hat nur ¹/14 des spezifischen Gewichts
von Wasser. Dewar interessierte sich natürlich vor allem für die
Temperatur, die er erreicht hatte, aber hier stieß er auf eine eigenartige
Schwierigkeit: Das in seiner Apparatur angebrachte elektrische
Thermometer zeigte hoffnungslos kleine Meßwerte an und arbeitete
offenbar nicht mehr richtig. Neue Naturgesetze, von denen Dewar noch
nichts ahnen konnte, kündigten die Nähe des absoluten Nullpunkts an.
Obwohl Dewar bei dieser ersten Verflüssigung den Siedepunkt des
flüssigen Wasserstoffs nicht bestimmen konnte, so konnte er doch zeigen,
daß die erreichte Temperatur sehr niedrig sein mußte. Zwei verschlossene
Glasgefäße, das eine mit Sauerstoffgas, das andere mit Luft gefüllt, wurden
in den Kryostaten mit flüssigem Wasserstoff getaucht, und beide
Substanzen gefroren sofort. Das bei diesem ersten Experiment benutzte
elektrische Thermometer enthielt ein Thermoelement und maß die
zwischen zwei Verbindungsstellen verschiedener Metalle auftretende
Spannung, deren eine auf die zu messende Temperatur gebracht wurde. Zu
seiner Überraschung ergab sich keine wesentliche Spannung, die über den
Temperaturabfall Auskunft hätte geben können. Anschließend benutzte
Dewar ein elektrisches Thermometer anderer Bauart, das darauf beruht,
daß sich der elektrische Widerstand eines Platindrahts mit der Temperatur
ändert. Bei seinen früheren Experimenten mit flüssiger Luft und flüssigem
Sauerstoff hatte Dewar festgestellt, daß dieser Widerstand in derselben
Proportion sank, wie die Temperatur fiel. Eine solche Widerstands-
abnahme zeigte sich auch, als das Thermometer auf den Siedepunkt des
Wasserstoffs abgekühlt wurde; aber die daraus bestimmte Temperatur war
verdächtig hoch, nämlich 35° K. Hier geschah wieder etwas Seltsames;
diesmal war die Abnahme zu gering. Das deutete darauf hin, daß auch die
Widerstandsänderung bei Annäherung an den absoluten Nullpunkt vom
normalen Verhalten abwich. Schließlich wurde ein Gasthermometer
benutzt, ein Instrument, das nach dem oben erörterten Gesetz von Gay-
Lussac arbeitete. Dewar füllte sein Gasthermometer mit Wasserstoff unter

68
geringem Druck, um dadurch den Bedingungen eines idealen Gases
möglichst nahezukommen, aber einige Korrekturen mußte er noch
anbringen. Er maß damit ziemlich genau den richtigen Siedepunkt, nämlich
ungefähr 20° über dem absoluten Nullpunkt.
Kaum hatte Dewar die erfolgreiche Wasserstoffverflüssigung bekannt-
gegeben, als zwei Wochen später in der Zeitschrift Nature ein von
Hampson an den Herausgeber geschriebener Brief erschien. Hampson
beklagte sich dort, daß sein Anteil an dem Experiment überhaupt nicht
erwähnt worden war, und behauptete, er wäre, bevor er sich im Mai 1895
um sein Patent beworben hatte, Ende 1894 in die Royal Institution
gekommen, um Dewars Assistent Lennox zu sprechen. Dabei hätte er, so
behauptete Hampson, Lennox von seiner Erfindung erzählt. Damit wollte
er zu verstehen geben, daß Dewar seine Erfolge bei der Verflüssigung von
Luft und Wasserstoff auf der Grundlage der in diesem Gespräch von
Hampson an Lennox übermittelten Informationen erzielt habe. Auf diesen
Brief antwortete Dewar entrüstet und giftig und behauptete, auch wenn
Hampson nie gelebt hätte, hätte er auf demselben Weg und in derselben
Zeit Erfolg gehabt. Hampson zahlte mit gleicher Münze zurück, und auch
Dewar blieb ihm wiederum nichts schuldig. Die Herausgeber von Nature
scheinen ein gewisses Vergnügen an diesem unwürdigen Streit gefunden
zu haben, hatten sie doch am 4. August nicht weniger als vier Briefe von
Hampson und vier Antworten von Dewar veröffentlicht. Dann aber schlief
die ganze Sache ein, und noch heute ist ungewiß, ob die Streiter ermüdeten
oder ob die Herausgeber oder die Urlaubszeit ihr ein Ende setzten. Diese
Kontroverse ist merkwürdig, und es läßt sich heute nicht mehr genau
sagen, was an ihr faul war. Was wollte Hampson damals in der Royal
Institution? Warum sprach er nur mit Lennox, statt Dewar selbst
aufzusuchen? Warum wieder erwähnte Dewar in seinem Artikel von 1896
über die Luftverflüssigung zwar Linde, jedoch nicht Hampson, obwohl
seine Fußnote zeigt, daß er dessen Arbeit kannte? Es ist gut möglich, daß
Dewar in denselben Bahnen dachte wie Linde und Hampson unabhängig
voneinander, und in diesem Fall hätte Hampsons Mitteilung an Lennox
Dewar in arge Verlegenheit gebracht. Wir sollten jedoch nicht vergessen,

69
daß die Luftverflüssigung mit der Joule-Thomson-Kühlung Dewar
großartig gelungen war, bevor Hampsons Maschine überhaupt arbeitete.
So wenig erbaulich dieser Streit war, Dewars Unternehmungsgeist
scheint er nicht gedämpft zu haben. Ein Jahr nach der Wasserstoff-
verflüssigung feierte er seinen nächsten und letzten Triumph auf dem Weg
zum absoluten Nullpunkt: das Gefrieren des Wasserstoffs. Seine ersten
Versuche, die feste Phase durch Abpumpen des Dampfes über der
Flüssigkeit zu erreichen, waren mißlungen, und er sah sofort ein, daß der
Wärmezustrom in seinen Kryostaten zu groß war, um durch die Kälte
ausgeglichen zu werden, die beim Verdampfen der Flüssigkeit entstand.
Die schlimmsten Befürchtungen, daß die Bedingungen für weitere
Abkühlung bei Annäherung an den absoluten Nullpunkt zunehmend
ungünstiger sein würden, wurden nicht nur bestätigt, sondern noch
übertroffen. Wie schon erwähnt, war nach Troutons Regel zu erwarten, daß
die zum Verdampfen des flüssigen Wässerstoffs nötige Wärmemenge nur
¹/4 oder ¹/5 derjenigen bei der Verdampfung flüssigen Sauerstoffs sein
würde. Das würde es vier- bis fünfmal schwieriger machen, Wasserstoff
flüssig zu halten, und einen viel besseren thermischen Schutz für den
Kryostaten erfordern. Es erwies sich, daß die Verdampfungswärme des
Wasserstoffs noch viel kleiner ist, als Troutons Regel angibt. Der Grund
für diese zusätzliche und unerwartete Schwierigkeit liegt in derselben
Abweichung von den normalen physikalischen Gesetzen, die die Anzeige
der elektrischen Thermometer Dewars verfälscht hatte.
Dewar überwand schließlich die Schwierigkeit der geringen
Verdampfungswärme, indem er sein Vakuumgefäß mit dem einzufrie-
renden flüssigen Wasserstoff in ein zweites Vakuumgefäß mit flüssiger
Luft hineinsetzte. Das äußere Gefäß diente dabei als Abschirmung, die den
Wärmezustrom in das Innere des Kryostaten auf ein Minimum verringerte.
Als der Druck des abgepumpten Dampfes auf fünf Zentimeter Queck-
silbersäule gesunken war, erschien Schaum in der Flüssigkeit, die sich
gleich darauf in eine klare, durchsichtige Masse zu verwandeln begann:
Wasserstoff war gefroren. Wie schon die Durchsichtigkeit des flüssigen
Wasserstoffs erwarten ließ, erwies sich der feste Wasserstoff nicht als

70
Metall, wie es einige Chemiker kühn vorausgesagt hatten.
Wieder stand man vor der Schwierigkeit, die Temperatur des
Tripelpunkts zu bestimmen. Dewar berechnete sie aus der Anzeige seines
Gasthermometers auf etwa 16° K, aber später zeigte sich, daß er unnötig
vorsichtig geschätzt hatte. In Wirklichkeit hatte er sich dem absoluten
Nullpunkt bis auf 14° K genähert. Etwas weiter kommt man noch, wenn
man den Dampf über der festen Substanz abpumpt. Eine große
Temperaturabnahme ist davon nicht zu erwarten, da sich der Dampfdruck
sehr rasch verringert. Auch hier unterschätzte Dewar seine Leistung, indem
er 13° K für die tiefste mit Wasserstoff erreichbare Temperatur hielt. Wie
weit er wirklich kam, läßt sich jetzt schwer sagen, da alles von
Einzelheiten der experimentellen Anordnung abhängt. Wahrscheinlich
erreichte er 12° oder eine noch etwas tiefere Temperatur.
Als Dewar seine erste erfolgreiche Wasserstoffverflüssigung
durchführte, glaubte er, das sei der letzte Schritt zum absoluten Nullpunkt.
Seinen eigenen Arbeiten ist es zuzuschreiben, daß sich das als falsch
erwies. Es zeigte sich, daß Wasserstoff nicht das Gas mit dem tiefsten
Siedepunkt ist. Die nächste Etappe auf dem Weg zum absoluten Nullpunkt
hieß Helium.
Dewars erste Mitteilung über die Wasserstoffverflüssigung trug
tatsächlich den Titel »Liquefaction of hydrogen and helium«, aber bald
stellte sich heraus, daß er Spuren von Verunreinigungen für kondensiertes
Helium gehalten hatte. Helium war ein ganz neuer Name in der Geschichte
der Gasverflüssigung, was nicht überrascht, da es eine so seltene Substanz
ist, daß sie lange der Entdeckung entgangen war. Helium ist nicht nur
selten, sondern auch chemisch völlig inaktiv, d. h., es bildet keine
Verbindung mit anderen Substanzen, über die man für gewöhnlich ein
seltenes Element entdeckte. Tatsächlich merkt man von seiner
Anwesenheit auf der Erde so wenig, daß es zuerst auf der Sonne
nachgewiesen wurde.
Um die Mitte des 19. Jahrhunderts brachten Kirchhoff und Bunsen die
Erforschung der Materie einen gewaltigen Schritt voran, indem sie das
Licht glühender Dämpfe analysierten. Dazu benutzten sie ein Spektroskop,

71
mit dem sich die einzelnen Wellenlängen von Lichtquellen messen lassen.
Bei der totalen Sonnenfinsternis am 18. August 1869 wurde das
Spektroskop zum erstenmal auf die Sonnenkorona – eine gewaltige Hülle
aus heißen Gasen – gerichtet, die nur sichtbar ist, wenn die Sonnenscheibe
selbst vom Mond verdunkelt wird. Die totale Sonnenfinsternis wanderte
über Indien und Malakka hinweg, und alle sie beobachtenden
Wissenschaftler registrierten eine helle, gelbe Spektrallinie, die von den
meisten zuerst dem Wasserstoff oder dem Natrium zugeschrieben wurde.
Einer von ihnen, Janssen, fragte sich, ob das Spektroskop die gelbe Linie
nicht auch unter normalen Bedingungen, d. h., wenn die Korona unsichtbar
ist, zeigen würde. Am nächsten Tag machte er einen Versuch, der positiv
verlief. Er teilte seine Beobachtung der Französischen Akademie mit, bei
der sein Brief am 24. Oktober eintraf, am selben Tag wie der von Lockyer
in England, der unabhängig von Janssen zum selben Ergebnis gekommen
war. Janssen und Lockyer bezweifelten beide von Anfang an, daß die
starke gelbe Linie, die sie in der Sonne gesehen hatten, mit der
wohlbekannten Natriumlinie identisch sei, aber Wasserstoff konnte nicht
so leicht ausgeschlossen werden. Schließlich ließ der Vergleich mit
Beobachtungen im Laboratorium, die hauptsächlich von Frankland und
Lockyer durchgeführt wurden, wenig Zweifel daran, daß es die Linie eines
unbekannten chemischen Elements war, und Lord Kelvin faßte 1871 in
seiner Präsidentenrede vor der British Association die Forschungsarbeiten
der beiden mit den Worten zusammen: »Sie scheinen eine neue Substanz
anzudeuten, für die die Autoren den Namen Helium vorschlagen.«
Fast ein Vierteljahrhundert lang blieb Helium ein Gas, das nur in der
Sonne beobachtet worden war. 1895 untersuchte Sir William Ramsay dann
im Anschluß an seine Entdeckung des neuen Edelgases Argon Gase, die
aus Pechblende durch Erhitzen ausgetrieben werden können. Er unterwarf
sie einer Spektralanalyse und entdeckte zu seiner großen Überraschung
jene helle gelbe Linie, die Janssen und Lockyer in der Sonnenatmosphäre
beobachtet hatten. Helium war auf der Erde nachgewiesen, und nun begann
die Suche nach anderen irdischen Fundorten für die neue Substanz.
Mineralbrunnen wie in Wildbad oder Bath sowie Erdgasquellen lieferten

72
kleine Mengen Helium. Man fand es auch in der Erdatmosphäre, aber nur
in einer Konzentration von weniger als 1 : 100 000.
Dewar erkannte bald, daß seine Behauptung, er hätte Helium
gleichzeitig mit Wasserstoff verflüssigt, ein Irrtum war und daß die neue
Substanz tatsächlich auch bei den tiefsten Temperaturen, die er mit festem
Wasserstoff erreichen konnte, noch gasförmig blieb. Auf der Höhe seines
Triumphs befand er sich in einer eigenartigen Lage. Schließlich hatte er
mit der Wasserstoffverflüssigung doch nicht den letzten Schritt auf dem
Wege zum absoluten Nullpunkt getan. Seine Großtat hatte eine weitere
mögliche Etappe enthüllt, und aus allen ihm vorliegenden Andeutungen
mußte er schließen, daß die Verflüssigung des Heliums ein noch
schwierigeres Unterfangen sein würde als jene des Wasserstoffs. Überdies
arbeiteten seine Konkurrenten Olszewski in Krakau und Onnes in Leiden
an demselben Problem. Das Rennen war im Gange, aber falls Helium nicht
einen ziemlich hohen kritischen Punkt hatte, würde es ein langer und
schwieriger Weg werden. Ein kritischer Punkt oberhalb 10° K konnte noch
durch Expansion in einer Cailletet-Apparatur erreicht werden, und dazu
wäre nur eine beschränkte Heliummenge nötig. Für tiefer liegende
Temperaturen müßte ja ein Joule-Thomson-Kühlkreis herangezogen
werden, der viel größere Mengen Heliumgas erfordern würde, als damals
zur Verfügung gestanden hätten.
Dewar ging nicht mit jenem Vorsprung ins Rennen, den er so leicht
hätte haben können: Ramsay, die größte Kapazität auf dem Gebiet der
seltenen Gase, hatte sein Laboratorium unweit der Royal Institution, aber
leider war Dewar mit Ramsay verfeindet.
Es begann im Dezember 1895 auf einer Sitzung der Royal Society, auf
der Dewar einen Artikel, über seine Tieftemperaturarbeit verlas und seine
Zuversicht artikulierte, er stünde auf der Schwelle zur
Wasserstoffverflüssigung. Als er geendet hatte, stand Ramsay auf, um zu
verkünden, er habe gerade aus Krakau die Nachricht erhalten, daß
Olszewski erfolgreich Wasserstoff verflüssigt und nicht nur einen Nebel,
sondern eine beträchtliche Menge Flüssigkeit erzeugt hätte. Ramsays
Bemerkung muß ein betrüblicher Epilog zu Dewars Vortrag gewesen sein.

73
Dewar wartete vergeblich auf Olszewskis Veröffentlichung, bis er selbst
im Mai 1898 die erste Wasserstoff Verflüssigung der Royal Society
mitteilen konnte. Zu Dewars Verblüffung wiederholte Ramsay nach
seinem Vortrag Olszewskis Prioritätsanspruch. Dewar forderte Ramsay
jetzt auf, einen Beweis für seine Behauptung beizubringen, und auf der
nächsten Sitzung mußte Ramsay zugeben, daß Olszewski in einem Brief,
den er (Ramsay) in diesen Tagen erhalten hatte, abstritt, flüssigen
Wasserstoff jemals in stationärer Form erzeugt zu haben. Zweifellos hatte
Ramsay ohne irgendeine Berechtigung Dewar grob provoziert. Dewar war
verständlicherweise verärgert, und da Ramsay es unterließ, seinen
Widerruf zu veröffentlichen, stellte Dewar die Angelegenheit richtig,
indem er die Kontroverse und seine Rechtfertigung in den Proceedings of
the Royal Institution veröffentlichte. Er hatte zwar das Recht dazu, aber
seine Beziehungen zu Ramsay verbesserten sich dadurch keineswegs.
Dewar kümmerte sich offenbar wenig darum. Tatsächlich hatte Ramsay
den größeren Schaden, da er flüssigen Wasserstoff brauchte, um Helium
von Neon trennen zu können, und er Dewar unter diesen Umständen kaum
um die Unterstützung der Royal Institution bitten konnte. Glücklicherweise
stand ihm jedoch an der Universität ein sehr begabter junger Mann, Morris
Travers, zur Verfügung, der in nur zwei Jahren einen Wasserstoff-
verflüssiger gebaut, in Betrieb gesetzt und dessen Konstruktion mit allen
Einzelheiten veröffentlicht hatte. Travers wies besonders darauf hin, daß
der Verflüssiger nur für Experimente mit seltenen Gasen gebaut worden
sei, dankte jedoch gleichzeitig Hampson ostentativ für seine Hilfe und hob
besonders die Einfachheit der Konstruktion und die geringen Kosten
hervor, die sich in seinem Fall auf 35 Pfund beliefen.
Das war ein Seitenhieb auf Dewar, der immer betont hatte, wie
kostspielig die Tieftemperaturforschung sei.

74
75
76
12 doppelseitiges Photo: Sir James Dewar demonstriert die Eigenschaften flüssigen
Wasserstoffs in der Royal Institution. Personenschlüssel s. unten: 1 und 2 Herr und Frau
Siemens; 3 Lady Dewar; 4 Sir William Crookes; 5 Rt. Hon. Lord Rayleigh; 6 Dr. Ludwig
Mond; 7 Sir Oliver Lodge; 8 Sir James Dewar; 9 J. W. Heath; 10 R.N.Lennox; 11 Dr.
Rudolph Messel; 12 Prof Sir Francis Galton; 13 Robert Mond; 14 Commendatore G.
Marconi.

Es war klar, daß Travers und Ramsay, jetzt im Besitz flüssigen


Wasserstoffs, sich ebenfalls an der Heliumverflüssigung versuchen
würden, und daher sah sich Dewar 1901 nicht mehr zwei, sondern drei
Konkurrenten gegenüber. Wie er selbst, versuchten zuerst alle, den Weg
abzukürzen. Tatsächlich hatte Olszewski bereits 1896, d. h. noch vor der
Wasserstoffverflüssigung, Helium durch die Cailletet-Expansion zu
verflüssigen versucht. Er begann bei Temperaturen der flüssigen Luft und
bei einem Druck von 140 Atmosphären. Wahrscheinlich war er sehr

77
optimistisch, als er die bei der Expansion erreichte Temperatur auf 9° K
schätzte; aber es zeigte sich keinerlei Verflüssigung. 1901 begann Dewar
am Tripelpunkt des Wasserstoffs (14° K) und bei 80 at und hatte
genausowenig Erfolg. Auch er schätzte seine Endternperatur auf 9° K, war
aber wohl zu pessimistisch und hätte tatsächlich noch zwei oder drei Grad
niedriger schätzen können. Zwei Jahre später unternahm Travers seinen
Versuch und begann mit festem Wasserstoff bei einer Temperatur, die
wahrscheinlich zwischen 11° und 12° K lag und durch starkes Abpumpen
bei 60 at erreicht worden war, aber auch er hatte kein Glück. 1905 war
wieder Olszewski an der Reihe, dem dann Kamerlingh Onnes folgte.
So hatte sich nun eindeutig gezeigt, daß die einfache Cailletet-Apparatur
mit ihrer relativ großen Wärmekapazität sowie die darin benutzte kleine
Menge Helium keine Heliumverflüssigung ermöglichten und daß kein Weg
an der mühevollen Aufgabe vorbeiführte, einen Joule-Thomson-
Verflüssiger zu bauen. Aber auch das würde nichts nützen, wenn Helium
noch bei den tiefsten mit Wasserstoff erreichbaren Temperaturen beim
Durchgang durch den porösen Pfropfen oder das Expansionsventil eine
Erwärmung zeigen sollte. Bevor man sich also auf das mühevolle und
kostspielige Projekt eines Kühlkreises mit Helium im großen Maßstab
einließ, mußte man zuvor bessere Schätzungen des kritischen Punkts
beschaffen. 1904 machte Dewar den ersten Versuch mit einem sinnreichen
Experiment, indem er die Adsorption von Helium auf Holzkohle bei den
Temperaturen flüssigen und festen Wasserstoffs untersuchte. Das ergab
den Wert 6° K, der viel versprach. Ein Jahr später jedoch kam Olszewski
zu dem Schluß, daß der kritische Punkt des Heliums nur ein Grad über dem
absoluten Nullpunkt liege, und das schien hoffnungslos.
Dieses deprimierende Ergebnis wurde im folgenden Jahr von Kamer-
lingh Onnes aufgrund einer Untersuchung von Helium-Wasserstoff-
Mischungen bestätigt. Zum Glück verließ er sich jedoch nicht ganz und gar
auf diese Folgerung, da er das Gefühl hatte, daß sich eine zuverlässige
Schätzung eigentlich erst aus der Messung der Isothermen ergeben könnte.
Daran arbeitete man in seinem Laboratorium gerade, und als nach einem
weiteren Jahr, also 1907, die Ergebnisse vorlagen, änderten sie das Bild

78
ganz und gar. Sie zeigten, daß der kritische Punkt zwischen 5° und 6° K
liegen müßte; Dewars Schätzung war richtig gewesen.
Unterdessen arbeitete Dewar eifrig an dem Verflüssigungskreislauf.
Lennox wollte den Verflüssiger ganz aus Metall bauen, aber Dewar
verwarf diesen Gedanken in der Meinung, er müsse die Vorgänge direkt
sehen können; das war wahrscheinlich ein Fehler. Die größte Schwierigkeit
aber bestand darin, eine ausreichende Menge reinen Heliumgases zu
bekommen. Im Rückblick erscheint es, als wäre das Unternehmen bei einer
Verbindung von Dewars Geschick in der Tieftemperaturarbeit mit
Ramsays Erfahrung im Umgang mit seltenen Gasen völlig anders
verlaufen. Statt dessen bauten Dewar und Lennox eine gewaltige
Apparatur zur Trennung von Helium und Neon, die nie richtig
funktionierte. Anschließend wurden alle ihre Verflüssigungsversuche
durch unreines Helium vereitelt, da gefrorenes Neon die Röhren und das
Ventil ihres Verflüssigers verstopfte. Dann geschah ein weiteres Unglück.
Ein junger Werkstattmechaniker drehte am falschen Hahn, und der ganze
kostbare Heliumvorrat ging über Nacht verloren.
1908 erörterte Dewar in einer Arbeit mit dem Titel »The Nadir of
Temperature« seine Schwierigkeiten und Rückschläge beim Versuch,
Helium zu verflüssigen, war aber noch voller Hoffnung auf Erfolg; nur 100
oder 200 Liter reinen Heliums fehlten ihm, meinte er. An dieser Stelle steht
dann eine bei der Korrektur des Artikels hinzugefügte traurige Fußnote, die
lautet: »Helium wurde am 9. Juli 1908 von Professor Dr. Kamerlingh
Onnes an der Universität Leiden verflüssigt.« Das Rennen war vorbei, und
Dewar hatte verloren.
Dewar kam über seine Niederlage nie hinweg. Gleich nach diesem
Schlag geriet er mit Lennox in Streit, und dieser verließ ihn. Jetzt verlor
Dewar sehr schnell das Interesse an der Tieftemperaturforschung. In einem
gewissen Ausmaß wurde sie zwar an der Royal Institution noch weiter
betrieben, aber Dewars eigentliches Interesse wandte sich anderen
Problemen, insbesondere Untersuchungen der dünnen Flüssigkeitshäutchen
von Seifenblasen zu, woran er bis zu seinem Tod arbeitete. Er wurde noch
autokratischer und streitsüchtiger als zuvor und überwarf sich schließlich

79
mit dem einzigen ihm verbliebenen wissenschaftlichen Freund, Sir
William Crookes. Am Ende stand ihm nur noch die Gefährtin seiner
kinderlosen Ehe, Lady Rose Dewar, zur Seite. Ihre Verehrung für ihn ließ
nie nach, und er war ihr ergeben. Sie war es auch, die nach seinem Tode
dafür sorgte, daß seine gesammelten Arbeiten in Buchform erschienen. Er
besaß zwar viele Fehler, war aber oft unerwartet großzügig und ein
Musikliebhaber, der junge Künstler nicht nur unmittelbar förderte, sondern
es auch fertigbrachte, heimlich einen Teil der Karten zu ihren Konzerten
aufzukaufen und zu verteilen, damit sie ein Publikum bekamen.
Nach Dewars Tod ging die Tieftemperaturforschung in England zu
Ende; er hinterließ keine Schule. Nachdem er die Royal Institution
Cambridge vorgezogen hatte, verwandelte er sie in ein, wie man allerdings
zugeben muß, brillantes Einmannunternehmen. Seinen wissenschaftlichen
Assistenten Lennox, Heath und Green pflegte er gelegentlich in einer
kurzen Bemerkung am Ende einer Veröffentlichung Dank zu sagen, aber
im Titel erschienen ihre Namen nie. Lennox und Heath verloren jeder ein
Auge bei der Arbeit für Dewar, der seine Erfolge gewiß zu einem großen
Teil der Ergebenheit verdankte, die sie ihm selbst oder der von ihm
inspirierten Arbeit entgegenbrachten. Dewars Herrschaft in seinem
Laboratorium war absolut wie die eines Pharao, und er schuldete
niemandem Rechenschaft außer dem Geist Faradays, dem er gelegentlich
nachts in der Galerie hinter dem Vorlesungssaal begegnete.

80
4 | Leiden 1908

Von Paris, Krakau und London verlagerte sich das Geschehen nun nach
Leiden. In den Niederlanden, mit ihrer jahrhundertealten Tradition
naturwissenschaftlicher Forschung, war die erste Pionierarbeit auf dem
Gebiet der Gasverflüssigung im 18. Jahrhundert von Martinus van Marum,
dem Direktor der Teyler Stichting in Haarlem, geleistet worden. Seine
Ammoniakuntersuchungen haben wir bereits erwähnt, wie auch die Arbeit
von van der Waals, der Andrews' Experimente zum kritischen Punkt
theoretisch erläutert hatte. Es war van der Waals' Forschungsarbeit, die zur
Gründung jenes Instituts anregte, das in der Geschichte der Tieftempe-
raturforschung die größte Bedeutung erlangen sollte: das Leidener
Kältetechnische Laboratorium.
Im Jahre 1882 berief die Universität Leiden auf den Lehrstuhl für
Physik einen jungen Mann von 29 Jahren, dessen erste Arbeiten bereits zu
großen Hoffnungen berechtigten. Er entstammte einer alten Familie aus
Groningen im Norden Hollands und hieß Heike Kamerlingh Onnes. Zwei
Jahre vorher hatte ihn eine Arbeit von van der Waals sehr beeindruckt, der
sich mit der Idee der korrespondierenden Zustände beschäftigte. In diesem
Artikel wurde behauptet, daß sich alle Substanzen hinsichtlich der drei
Aggregatzustände im wesentlichen ähnlich verhielten. Besonders die
Voraussage der kritischen Punkte bis dahin noch nicht verflüssigter Gase
erregte Onnes' Interesse, eine Voraussage, die man aufgrund der Van-der-
Waals-Gleichung machen konnte. Der Schlüssel zu diesem Problem war
die Messung der Isothermen (siehe Abb. 6 auf S. 38), aus der sich die
Konstanten a und b ergaben. Um brauchbar zu sein, mußten diese
Messungen jedoch mit größter Sorgfalt durchgeführt werden. Es ist
bezeichnend, daß Onnes für seine Habilitationsschrift das Thema wählte:
Die Bedeutung quantitativer Untersuchungen in der physikalischen
81
Wissenschaft. In dieser Arbeit forderte er, das Motto door meten tot weten
(durch Messung zum Wissen) sollte über die Tür jedes Physiklabors
geschrieben werden. Physikalische Beobachtungen, die damals häufig
beschreibender und qualitativer Natur waren, sollten mit derselben Sorgfalt
und Genauigkeit wie jene der Astronomie gemacht werden.
Obgleich Onnes der großen Revolution physikalischer Vorstellungen
und Theorien, die sich seinerzeit anbahnte, großes Interesse
entgegenbrachte, beschäftigte er sich in erster Linie mit den Messungen,
auf die die neuen Ideen sich gründen mußten. Im Grunde war er ein
Experimentator mit einem feinen Sinn für die Probleme, die mit den
Fragen der Vervollkommnung und technischen Eignung wissenschaftlicher
Instrumente verbunden waren. Ohne je ein Perfektionist zu werden, war er
sich genauestens bewußt, wie wichtig sorgfältige Planung und
Organisation für den Erfolg eines Experiments sind, und er wandte diese
Ideen in einem Ausmaß an, wie es nie zuvor in einem physikalischen
Laboratorium versucht worden war. Ganz abgesehen davon, daß sein
Laboratorium eine entscheidende Rolle in der Entwicklung der
Tieftemperaturforschung spielte, diente es als Modell für die
Forschungseinrichtungen des 20. Jahrhunderts. Kamerlingh Onnes war
nicht nur ein hervorragendes Organisationstalent, sondern auch ein guter
und geduldiger Diplomat und ein sehr weiser Mann. Seine Stärke war, daß
er nicht für morgen, sondern auch für übermorgen plante. Das Geheimnis
des stetigen Ertrags an glänzenden Arbeiten, den sein Institut erbrachte, lag
darin, daß jedes Experiment, lange bevor es begonnen wurde, gründlich
durchdacht und vorbereitet worden war.
Onnes erkannte wahrscheinlich als erster, daß die Vielfalt moderner
Forschungsmethoden einen zuverlässigen Stab geschickter und besonders
ausgebildeter Assistenten erfordert. Er spürte, daß die Zeit des
Liebhaberprofessors vorbei war, der in sein Laboratorium gehen und die
Geheimnisse der Natur an einem Nachmittag mit Hilfe eines Bindfadens
und etwas Siegellack entdecken konnte. 1901 gründete er an seinem
Laboratorium eine Schule für Instrumentenbauer und Glasbläser als
eingetragene Gesellschaft. Das war ein sehr wichtiger Schritt, der von

82
seinem Weitblick zeugte und nicht nur jene Art der Forschung ermöglichte,
die er für sein eigenes Laboratorium vorsah, sondern auch weitreichende
Folgen haben sollte. Ein Vierteljahrhundert später hatten
Physiklaboratorien in aller Welt ihre in Leiden ausgebildeten Glasbläser,
ohne deren Geschick und Tüchtigkeit sie verloren gewesen wären. Am
meisten profitierten natürlich die holländischen Laboratorien davon, und
später hatte die junge elektrische Industrie Hollands Grund genug, der
Voraussicht, die Kamerlingh Onnes um die Jahrhundertwende bewiesen
hatte, sehr dankbar zu sein.
Ein anderes Beispiel für Onnes' Planung auf weite Sicht war die
Gründung einer wissenschaftlichen Zeitschrift, die ausschließlich der
Arbeit seines Laboratoriums gewidmet war. So stellte er sicher, daß die
kältetechnische Arbeit, die er plante und die, wie sich zeigen sollte, in der
ganzen Welt nicht ihresgleichen hatte, in geschlossener Form der
wissenschaftlichen Öffentlichkeit leicht zugänglich wurde. Auch damit
hatte er großen Erfolg, und für mehrere Jahrzehnte wurden die
Communications from tbe Physical Laboratory of the University of Leiden
zur Bibel der Tieftemperaturforschung.
Die erste größere Einrichtung, die Kamerlingh Onnes in Leiden
aufbaute, war bereits geprägt von seiner Strategie des konzentrierten
Angriffs auf den absoluten Nullpunkt. Es handelte sich um die große
Verflüssigungskaskade für Sauerstoff, Stickstoff und Luft, die wir in einem
früheren Kapitel erwähnt haben. Sie wurde in den Jahren 1892–1894
errichtet, und zwar gleich in so großen Dimensionen, daß sie den rasch
wachsenden Erfordernissen des Leidener Laboratoriums über 30 Jahre
genügte. Typisch für Onnes ist auch, daß diese große Anlage von Anfang
an hervorragend funktionierte; ein Ergebnis zehnjähriger sorgfältiger
Planung.
In den fünfzehn Jahren zwischen dieser ersten großartigen Leistung und
der Heliumverflüssigung wurden immer mehr sehr sorgfältige Messungen
durchgeführt, hauptsächlich im Zusammenhang mit der Zustandsgleichung
und auf den Spuren von van der Waals. Allmählich wurde Leiden zum
Mekka naturwissenschaftlicher Pilger. Der Geist von Leiden stand im

83
Gegensatz zu dem argwöhnisch bewachten Heiligtum, das sich Dewar an
der Royal Institution geschaffen hatte und zu dem nur er selbst und seine
engsten Mitarbeiter Zugang hatten. Onnes hielt die Türen des Leidener
Laboratoriums für Wissenschaftler aus aller Welt, die auf dem
Tieftemperaturgebiet arbeiten wollten, weit offen. Diese liberale Haltung,
die Einrichtungen des Leidener Laboratoriums in ihrem ganzen
eindrucksvollen Ausmaß allen zur Verfügung zu stellen, erklärt es, daß sie
über ein Vierteljahrhundert einzigartig blieben.
Man stelle sich nicht etwa vor, Onnes habe seine Erfolge allein durch
sorgfältige Planung errungen. Es brauchte das ganze Geschick eines
tüchtigen Diplomaten, die Geldquellen aufzuspüren, die er zum Ankauf der
Ausrüstung, zur Bezahlung der Assistenten und der Bauvorhaben und
schließlich zur Veröffentlichung der Arbeiten aus seinem Laboratorium
benötigte. Zusätzlich hatte er unvorhergesehene Schwierigkeiten. Ende der
neunziger Jahre, als sich Onnes auf die Wasserstoffverflüssigung
vorzubereiten begann, sah er das für sein Laboratorium geplante Werk
ernstlich bedroht. Jemand, der ein tiefes Verantwortungsgefühl gegenüber
der Gemeinschaft und eine nicht minder tiefe Unwissenheit in technischen
Dingen besaß – eine Kombination, der man nicht selten begegnet –,
richtete eine Petition an den Innenminister und verlangte die Einstellung
der Arbeit des Laboratoriums. Es sei bekanntgeworden, so führte er aus,
daß der Professor mit komprimierten Gasen experimentiere, und das
könnte Personen und Gebäude gefährden. Die Experimente sollten
verboten werden. So kam die Arbeit in Leiden notgedrungen zum
Stillstand, bis eine Regierungskommission ernannt war und das Problem
untersucht und beurteilt hatte. Die Kommission, der unter anderen van der
Waals angehörte, wies klugerweise darauf hin, »daß die bei der Explosion
eines Zylinders mit komprimiertem Gas freiwerdende Energie viel kleiner
ist als jene, die bei der Verbrennung von 3 kg Schießpulver freigesetzt
wird, einer Menge, die man ohne weiteres besitzen und transportieren
darf«. Alle Kommissionsmitglieder waren von den Sicherheitsvorkeh-
rungen im Laboratorium voll befriedigt. Onnes hatte inzwischen
ausländische Experten um Gutachten zu seinen Gunsten gebeten, und

84
Dewar schrieb, daß es »ein furchtbares Unglück für die Naturwissenschaft
in Ihrem Lande (und der ganzen Welt)« bedeuten würde, »wenn Ihrem
hervorragenden Tieftemperaturlaboratorium und Ihrer schönen Arbeit
Beschränkungen auferlegt werden sollten«. So trug Onnes in dieser Sache
den Sieg davon und konnte seine Forschungsarbeiten nach zwei Jahren
fortsetzen.
Schritt für Schritt bereitete Kamerlingh Onnes den Angriff auf das
Heliumproblem vor. Bis 1906, acht Jahre nach Dewars erster
Verflüssigung, war Wasserstoff in Leiden nur in geringen Mengen
verflüssigt worden. Die Leidener Anlage war jedoch so entworfen, daß sie
nun mit industriemäßiger Zuverlässigkeit arbeitete und bis zu vier Liter
Flüssigkeit pro Stunde erzeugte. Ausgerüstet mit einer Maschine, die ohne
Störung große Mengen flüssiger Luft und flüssigen Wasserstoffs erzeugen
konnte, war Kamerlingh Onnes jetzt Dewar oder Olszewski weit
überlegen, deren Apparaturen, verglichen mit der Leidener Anlage, nur
Spielzeug waren.
Die Versorgung mit einer ausreichenden Menge Heliumgas von
entsprechender Reinheit war ebenfalls durch sorgfältige Planung und durch
die diplomatische Ausnützung hilfreicher Beziehungen sichergestellt. Das
Gas wurde aus Monazitsand gewonnen, und Kamerlingh Onnes berichtet,
er habe große Mengen zu günstigen Bedingungen durch »das Büro für
Handelsinformation in Amsterdam unter der Leitung meines Bruders«
beziehen können. Er fährt fort mit der Bemerkung, daß danach »die Prä-
paration von reinem Helium in großen Mengen im wesentlichen zu einer
Frage von Geduld und Sorgfalt wurde«. Zur selben Zeit wurde der Entwurf
des Heliumverflüssigers, der sich auf die Erfahrungen mit der Wasserstoff-
maschine stützte, fertiggestellt und den fähigen Händen der Herren Flim
und Kesselring, den Leitern von Mechaniker- und Glasbläserwerkstätten,
übergeben. Anfang Juni 1908 war schließlich alles fertig.
Einen Bericht über diesen denkwürdigen Tag enthält die berühmte
Leidener Mitteilung Nr. 108, die sich ausgesprochen spannend liest. In der
Einleitung gibt Onnes einen kurzen historischen Abriß bis zu jenem Tage
und erinnert an Dewars erste Schätzung von 5°–6° K für den kritischen

85
Punkt von Helium, auf die Olszewskis deprimierende Voraussage von 2° K
gefolgt war, ein Wert, der durch Onnes' erste eigene Arbeiten in Leiden
bestätigt wurde. Er wußte jedoch damals, daß es das einzig Vernünftige
war, auf die Ergebnisse sorgfältiger Messungen der Heliumisothermen zu
warten. Diese waren endlich im Jahr zuvor erschienen und hatten wieder
Hoffnung gegeben. Die Voraussage, die sich aus den neuen Leidener
Messungen ergab, stimmte mit der Dewars überein. Jetzt schien der Weg
klar genug vorgezeichnet, um den Entwurf des Heliumverflüssigers zu
vollenden und den Kühlkreislauf bauen zu können, in dem das kostbare
Gas vom Vorratsgefäß zum Verflüssiger und wieder zurück zum
Vorratsgefäß verlustlos zirkulieren würde. Eine Beschreibung des
Verflüssigers und der übrigen Anlage gibt Onnes in seinem nächsten
Kapitel.
Dann folgt die Beschreibung des Experiments selbst. Zur Vorbereitung
der letzten Attacke waren am 9. Juli nicht weniger als 75 Liter flüssiger
Luft hergestellt worden; am frühen Morgen des 10. Juli, um 5.45 Uhr,
begann das Experiment mit der Verflüssigung von Wasserstoff, von dem
man 20 Liter benötigte. Um 13.30 Uhr standen sie zur Verwendung im
Heliumverflüssiger bereit. Äußerste Vorsicht war jetzt bei der Vorkühlung
dieser Apparatur mit flüssigem Wasserstoff geboten. Schon die winzigste
Menge atmosphärischer Luft, die bei einem der vielen Arbeitsgänge aus
Versehen eindringen könnte, würde den Enderfolg von vornherein aufs
Spiel setzen. Sie würde in dem flüssigen Wasserstoff gefrieren, die
Glaswand des Heliumbehälters mit Reif bedecken und dadurch eine
Beobachtung unmöglich machen. Die schwierige Folge von
Arbeitsvorgängen war von Flim geplant und ausprobiert worden, der auch
jetzt ihre Durchführung leitete und sie ohne einen ernsthaften Zwischenfall
erfolgreich abschloß. Die Heliumzirkulation begann um 16.20 Uhr, und
von diesem Augenblick an drang der innere Kryostat des Verflüssigers in
neue unerforschte Gebiete tiefer Temperaturen vor. Er enthielt ein
Heliumgasthermometer, das den Fortgang des Experiments anzeigen sollte
und jetzt der einzige Wegweiser war.
Lange Zeit bewegte sich der Zeiger kaum vom Fleck, und es schien

86
keine bemerkenswerte Abkühlung stattzufinden. Verschiedene Stellungen
des Expansionsventils und Änderungen des Gasdrucks wurden ausprobiert,
bis schließlich ein allmählicher Abfall des Thermometers einsetzte. Die
Temperatur des inneren Gefäßes schien langsam zu sinken, bis die
Abnahme wiederum völlig aufhörte. Inzwischen war man bei dem letzten
verfügbaren flüssigen Wasserstoff angelangt, und noch immer war von
einer Verflüssigung des Heliums nichts zu sehen. Um 19.30 Uhr schien es,
als sei der Versuch mißlungen.
Im Laufe des Tages hatte sich in der Universität herumgesprochen, das
große Experiment sei im Gange, und einige Kollegen von Onnes fanden
sich ein, um zu sehen, wie die Sache stand. In diesem kritischen
Augenblick, als man nur noch wenig Hoffnung auf Erfolg hatte, äußerte
einer dieser Besucher, Professor Schreinemakers, daß die beständige
Weigerung des Thermometers weiterzufallen, darauf zurückzuführen sein
könnte, daß es tatsächlich schon in eine siedende Flüssigkeit eingetaucht
sei. Vielleicht sei doch flüssiges Helium erzeugt worden und nur schwer zu
sehen. Warum sollte man das Gefäß nicht einmal von unten beleuchten?
Man tat es, und plötzlich erschien der Flüssigkeitsspiegel, jetzt gut sichtbar
durch die Reflexion des von unten kommenden Lichts. Das innere Gefäß
war fast ganz mit flüssigem Helium gefüllt. Kamerlingh Onnes hatte
Lavoisiers Prophezeiung erfüllt. Das letzte natürliche Gas war verflüssigt
worden.
Die erste Erregung hatte sich kaum gelegt, als ein weiterer Besucher
hereinkam, um die neue Flüssigkeit zu sehen. Es war Professor Kuenen,
der darauf aufmerksam machte, daß das flüssige Helium ganz anders
aussähe als flüssige Luft oder flüssiger Wasserstoff. Besonders überraschte
ihn die Tatsache, daß der Flüssigkeitsspiegel dort, wo er die Glaswand
berührte, kaum zu sehen war. Er verglich diese Erscheinung mit jener des
Kohlendioxids in der Nähe des kritischen Punkts. Der wahre Grund jedoch,
den man erst viel später verstand, ist mit jenen völlig neuen Eigenschaften
der Materie eng verbunden, die erst bei Annäherung an den absoluten
Nullpunkt in Erscheinung treten.
Auf diese neuen Eigenschaften wurde noch einmal im letzten Teil des in

87
der Mitteilung Nr. 108 beschriebenen Experiments hingewiesen, aber ihre
Bedeutung blieb noch immer verborgen, und man überging sie. Über 60
Kubikzentimeter flüssigen Heliums waren bei diesem ersten Versuch
erzeugt worden, und in der letzten Phase des Experiments versuchte
Onnes, festes Helium zu bekommen, indem er die Flüssigkeit unter
vermindertem Druck sieden ließ. Um die tiefstmögliche Temperatur zu
erreichen, ließ er die ganze Flüssigkeit bis auf ungefähr 10
Kubikzentimeter verdampfen. Dann schloß er an den Heliumkryostaten
eine starke Pumpe an, die den Druck über dieser Flüssigkeit bis auf eine
Hundertstelatmosphäre verminderte, doch zeigte sich kein festes Helium.
Er schloß daraus, daß der Tripelpunkt des Heliums noch unterhalb der
Grenze seines Experiments liegen müßte, erkannte aber damals nicht, daß
er sich dem absoluten Nullpunkt fast bis auf ein Grad genähert hatte. Noch
zweimal in seiner späteren Forschungsarbeit bereitete ihm das Mißlingen
dieses Versuches, flüssiges Helium einzufrieren, Kopfzerbrechen. Die
endgültige Lösung des Rätsels erlebte er nicht mehr.
Als die Mitteilung Nr. 108 erschien, bestand der große Triumph in der
Verflüssigung des Heliums selbst, dem letzten Schritt auf den absoluten
Nullpunkt zu, der damals möglich schien. Der Autor wußte noch nicht, daß
er nicht nur eine neue tiefe Temperatur erreicht, sondern auch eine neue
Welt seltsamer Erscheinungen erschlossen hatte, die eine tiefgreifende
Wirkung auf die physikalischen Vorstellungen ausüben sollten. Das große
Experiment war erfolgreich verlaufen. Etwa um 22 Uhr war die Arbeit
beendet, und Onnes schrieb: »Nicht nur die Apparatur war während dieses
Experiments und seiner Vorbereitung aufs äußerste strapaziert; auch
meinen Assistenten war das Äußerste abverlangt worden.«
Die Veröffentlichung schließt mit einer Zusammenfassung der neu
beobachteten Eigenschaften flüssigen Heliums. Kamerlingh Onnes stellte
ihnen eine ritterliche Äußerung über seinen besiegten Konkurrenten Dewar
voran, indem er betonte, wie richtig viele seiner Voraussagen waren. Es
wurden jedoch andere Phänomene beobachtet, die völlig unerwartet waren.
Zu der sehr geringen Oberflächenspannung, die zuerst die Beobachtung
des Meniskus verhinderte, kam der Fehlschlag des Versuchs, die

88
Flüssigkeit einzufrieren. Eine weitere Eigenschaft, die ihn überraschte und
die später von großer Bedeutung werden sollte, war die geringe Dichte der
Flüssigkeit; flüssiges Helium erwies sich als etwa achtmal leichter als
Wasser, bedeutend leichter, als man erwartet hatte.
Onnes unternahm dann im folgenden und noch einmal ein Jahr später
(1910) weitere Attacken auf die tiefsten Temperaturen. 1909 konnte er den
Dampfdruck über der Flüssigkeit auf 2 mm Quecksilbersäule vermindern,
was 1,38° K entspricht. Noch stärkere Pumpen senkten beim nächsten
Versuch den Druck auf 0,2 mm, was 1,04° K ergab. Aber Helium blieb
auch noch bei diesen tiefen Temperaturen flüssig. Die Grenze, bis zu der
die besten damals verfügbaren Pumpen den Druck reduzieren konnten, war
erreicht, doch auf einen bedeutenden Fortschritt über diese letzte Leistung
hinaus mußte Onnes noch länger als zehn Jahre warten. Dann waren
Pumpen einer neuen Bauart entwickelt worden; man hatte sie zur
Herstellung höher evakuierter Glühbirnen und Radioröhren benötigt.
Das allgemeine Interesse Onnes' und seiner Mitarbeiter wurde jedoch
von der Erzeugung sehr tiefer Temperaturen durch ein Ereignis abgelenkt,
das 1911 die Forschungsrichtung in Leiden änderte. Nun, da er den neuen
Temperaturbereich flüssigen Heliums zur Verfügung hatte, wandte Onnes
sich Untersuchungen über die Eigenschaften der Materie bei wenigen Grad
über dem absoluten Nullpunkt zu. Teilweise hing die Auswahl der
durchzuführenden Experimente von den dabei auftretenden technischen
Schwierigkeiten ab. Eine Messung, die bei jeder Temperatur mit relativ
geringer Mühe gemacht werden kann, ist die des Widerstands eines
Drahtes. Außerdem hatte die Frage des elektrischen Widerstands reiner
Metalle damals beträchtliche Bedeutung erlangt. Die Arbeit von Nernst in
Berlin, die wir in einem späteren Kapitel im einzelnen erörtern werden,
ließ vermuten, daß der Widerstand eines reinen Metalls mit abnehmender
Temperatur allmählich kleiner werden und beim absoluten Nullpunkt
schließlich völlig verschwinden würde. Derselben Frage war Dewar bei der
Temperatur des flüssigen Wasserstoffs nachgegangen, aber seine Ergeb-
nisse verbesserten keineswegs das Verständnis des Problems, sondern
machten es im Gegenteil noch undurchsichtiger. Dewar hatte festgestellt,

89
daß der Widerstand von Platin bei Temperaturabnahme weniger sank, als
erwartet. Das schien für eine andere Theorie zu sprechen, nach der die
Elektronen, die den Strom bilden, am absoluten Nullpunkt an die Atome
festgebunden sein sollten. Das bedeutet natürlich, daß der elektrische
Widerstand bei tiefsten Temperaturen unendlich groß werden würde.
Dewars Beobachtungen an Platin deutete man daher als erstes Zeichen für
diese Erscheinung, wobei man annahm, daß der Widerstand irgendwo
unterhalb des Bereichs des flüssigen Wasserstoffs ein Minimum durch-
laufen würde.
Kamerlingh Onnes nahm die Forschungsarbeit auf, wo Dewar sie
niederlegen mußte, und untersuchte den Widerstand von Platin bei
Heliumtemperaturen. Die Ergebnisse enttäuschten insofern, als sie keine
der beiden Theorien bestätigten oder widerlegten. Weder fiel der
Widerstand, noch stieg er, wenn die Temperatur gesenkt wurde, sondern er
blieb konstant. Dennoch fand Onnes den passenden Schlüssel und die
richtige Deutung. Er bemerkte, daß der Absolutwert des temperatur-
abhängigen Widerstands von Probe zu Probe schwankte und um so
geringer wurde, je reiner das Metall war (Abb. 13). Daraus schloß er, daß
Nernst wahrscheinlich recht hatte; der Widerstand sollte bei Annäherung
an den absoluten Nullpunkt verschwindend klein werden, und sollte das
nicht geschehen, wäre es Verunreinigungen zuzuschreiben.
Die nächste Aufgabe bestand also darin, diesen »Restwiderstand« durch
Verwendung noch reinerer Metallproben möglichst weit zu reduzieren. Da
Onnes wußte, daß Gold viel besser als Platin raffiniert werden kann, ging
er zur Untersuchung der reinsten Golddrähte über, die er bekommen
konnte. Dieser Schritt war insofern erfolgreich, als sich viel geringere
Widerstandswerte ergaben als bei Platin. Der Befund war jedoch derselbe;
bei wiederholten Versuchen sank der Widerstand mit steigender Reinheit.
Onnes fühlte sich jetzt auf dem richtigen Weg. Er hatte seine eigenen
Vorstellungen vom Verhalten des elektrischen Widerstands bei den tiefsten
Temperaturen, die sich allerdings als völlig falsch erwiesen. Daher gelang
es ihm zuerst nicht, die Größe der Entdeckung, vor der er stand, zu
erkennen.

90
13 Während in einem normalen Metall der elektrische Widerstand bei tiefen Temperaturen
konstant wird, verschwindet der eines Supraleiters plötzlich, und zwar am Sprungpunkt.

Dewars und Onnes' Messungen bei höheren Temperaturen hatten für


alle Metalle einen Widerstandsabfall ergeben, der bei Extrapolation zu sehr
tiefen Temperaturen andeutete, daß der Widerstand wenige Grad über dem
absoluten Nullpunkt völlig verschwinden würde. Er hatte die Abflachung

91
der Widerstandskurve bei Platin richtig als Einfluß von Verunreinigungen
gedeutet und hielt nun nach einem Metall Ausschau, das er in hinreichend
reinem Zustand bekommen könnte, um zu zeigen, daß dessen Widerstand
tatsächlich bei Temperaturen verschwand, die er mit flüssigem Helium
erreichen konnte. Diese Annahme unterschied sich sehr von den
Voraussagen Nernsts und seiner Schule, die einen verschwindenden
Widerstand erst beim absoluten Nullpunkt erwarteten. Aber aufgrund
seiner Ergebnisse bei höheren Temperaturen und einer Theorie, die sich als
völlig falsch erwies, schlug Onnes eine Formel vor, nach der der
Widerstand reiner Metalle allmählich bis auf Null bei Heliumtemperaturen
abfallen sollte.
Es gab ein weiteres Metall, das sich unter Umständen in einem noch
reineren Zustand als Gold gewinnen ließ: Quecksilber. Da es bei
Zimmertemperatur flüssig ist, kann es vielfach destilliert und dadurch in
einem extremen Reinheitszustand erhalten werden. Die damit erzielten
Ergebnisse wurden der Niederländischen Königlichen Akademie am 28.
April 1911 mitgeteilt. Onnes berichtete, daß Quecksilber und auch eine
Probe sehr reinen Goldes bei Heliumtemperaturen so geringe
Widerstandswerte gezeigt hätten, daß seine Instrumente versagt hätten.
Sein besonderes Interesse erregte das Verhalten der Quecksilberprobe, das
noch bei der Temperatur des flüssigen Wasserstoffs einen ziemlich hohen
Widerstand besaß, der sogar noch am Siedepunkt flüssigen Heliums
nachgewiesen werden konnte, aber dann bei tieferen Temperaturen
verschwand. Kamerlingh Onnes triumphierte, obwohl vorsichtig, als er
darauf hinwies, er habe dieses Ergebnis aufgrund seiner Formel erwartet.
Gleichwohl schließt er, seinem Brauch getreu, mit dem einschränkenden
Hinweis, es handele sich hier nur um vorläufige Ergebnisse und genauere
Messungen seien erforderlich.
Der nächste Bericht erschien schon einen Monat später, am 27. Mai. Die
Meßgenauigkeit war jetzt erhöht worden, aber das Ergebnis überraschte
etwas. Der Widerstand des Quecksilbers verschwand keineswegs
allmählich, sondern schien kurz unterhalb des Siedepunkts von Helium auf
einen unmeßbar kleinen Wert herabzusinken (s. Abb. 13 auf S. 91). Onnes

92
bemerkte, daß dies nicht mit seiner Formel übereinstimmte. Während diese
Mitteilung überschrieben war: »Das Verschwinden des Widerstands von
Quecksilber«, trug sieben Monate später die nächste bezeichnenderweise
den Titel: »Über die plötzliche Änderung der Schnelligkeit, mit der der
Widerstand von Quecksilber verschwindet«. Wie die beiden vorangegan-
genen Aufsätze ist auch dieser sehr kurz. Er bestätigt das frühere Ergebnis
des plötzlichen Verschwindens des Widerstands, das jetzt auf einen
Bereich von nur zwei Hundertstelgrad eingeengt war.
Dann verging über ein Jahr, ohne weitere Erwähnung dieser Arbeit.
Eine Flut von Artikeln, die 1913 veröffentlicht wurden, zeigt jedoch, daß
dies nicht auf Inaktivität zurückzuführen war. Im Gegenteil: Die Arbeit
über das besondere Verhalten des Quecksilbers scheint das ganze Jahr
1912 hindurch mit Hochdruck weitergegangen zu sein. Eine vage
Andeutung der Schwierigkeiten, denen er sich jetzt gegenübersah, machte
Onnes im Schlußsatz der letzten Mitteilung vom Jahr 1911. Er berichtete
von Versuchen, starke Ströme durch seine Quecksilberprobe hindurch-
zuleiten, fügte aber hinzu, daß dabei ungewöhnliche Erscheinungen
aufgetreten seien. Aus den vier zwischen Februar und Mai 1913 veröffent-
lichten Arbeiten können wir den Gang der Ereignisse in der
dazwischenliegenden Zeit etwa rekonstruieren. Jedes neue Experiment
bestätigte nicht nur das Ergebnis, daß der Widerstand des Quecksilbers
gleich unterhalb des Siedepunkts von Helium völlig verschwindet, sondern
zeigte auch, daß dies nicht die Erscheinung war, die Onnes vorausgesagt
hatte. Überdies wird Gold in keiner der Veröffentlichungen mehr erwähnt,
und wir müssen annehmen, daß entweder die Arbeit daran ausgesetzt
worden war oder Onnes erkannt hatte, daß Gold sich, im Gegensatz zu
seiner ersten Mitteilung, ganz anders verhält als Quecksilber. Das war
vielleicht einer der Gründe, weshalb er gezögert hatte, über seine Arbeiten
früher zu berichten, da es nun gut möglich war, daß das Verhalten von
Quecksilber für dieses Metall charakteristisch war. Auf jeden Fall
veröffentlichte Onnes seine vier Arbeiten nach der Entdeckung vom
Dezember 1912, daß auch Zinn und Blei ihren Widerstand verlieren.
In der zweiten Veröffentlichung von 1913, die im März erschien, tritt

93
zum erstenmal das Wort Supraleitung auf, der Begriff, unter dem Onnes'
große Entdeckung bekanntwerden sollte. Onnes scheint ihn nur als einen
platzsparenden Ausdruck eingeführt zu haben, und die Art, wie er ihn
zuerst gebrauchte, scheint noch kein volles Verständnis des neuen Effekts
anzudeuten. Tatsächlich sagte er, als er im September in einem Vortrag auf
einer Washingtoner Tagung über seine Arbeit mit Quecksilber berichtete,
er habe »den supraleitenden Zustand« verwirklicht, »dessen Existenz nur
die Experimente mit Gold und Platin wahrscheinlich gemacht hätten«. In
diesem Stadium muß die Supraleitung Onnes zwar als etwas
Bemerkenswertes, aber nicht völlig Unerwartetes erschienen sein. Offenbar
betrachtete er sie als einen Extremfall des gewöhnlichen elektrischen
Leitungsmechanismus in einem Metall.
Wir können hier noch nicht auf die eigentlichen Erscheinungen
eingehen, die Kamerlingh Onnes bei seinen ersten Experimenten mit
supraleitendem Quecksilber beobachtete und die ihn mit der
Veröffentlichung seiner Beobachtungen zögern ließen. Das Bild, das sich
langsam aus seinen eigenen Beobachtungen und denen anderer ergab,
offenbarte, daß die Supraleitung keineswegs ein Extremfall der normalen
elektrischen Leitung ist, sondern eine Erscheinung, die kaum etwas mit
irgendeiner bekannten Eigenschaft der Materie zu tun hat. Sie forderte über
ein Vierteljahrhundert lang die Theoretiker heraus, und selbst heute
verstehen wir sie noch keineswegs völlig. Wir werden darauf in einem
späteren Kapitel zurückkommen.
Die Supraleitung ist ein anschauliches Beispiel dafür, wie schwierig es
sein kann, eine große Entdeckung zu machen, selbst wenn der Effekt sehr
auffällig ist und nicht mehr als ein ziemlich einfaches Experiment
erfordert. Der Wissenschaftler, der die Vorgänge, die er beobachtet, als
Zeugnisse eines organischen Gefüges ansieht, versucht immer, das von
ihm Gefundene mit dem bereits vorhandenen Wissen zu verknüpfen. Das
erschwert es ihm, auf den ersten Blick eine neue Erscheinung zu erfassen,
die keinen Zusammenhang mit bereits Bekanntem hat. Selbstverständlich
versuchte deshalb Kamerlingh Onnes für die Supraleitung einen Platz im
Rahmen der normalen Leitung zu finden. In seinem speziellen Fall

94
vergrößerte die Verwirrung seine eigene – völlig irrige – Voraussage, daß
die normale Leitfähigkeit bei einer gewissen tiefen Temperatur unendlich
werden sollte. Erst allmählich, als immer mehr seiner Experimente ihm
zeigten, wie grundlegend die Supraleitung von dem bekannten Schema der
normalen Leitung abweicht, erkannte Kamerlingh Onnes die Größe seiner
Entdeckung.
Mehr als 20 Jahre später, am Ende seines Lebens, waren einige sehr
wesentliche Merkmale der Supraleitung noch immer unentdeckt. Dennoch
hatte Onnes die Genugtuung zu wissen, daß er in der Supraleitung einen
völlig neuen Aspekt der Materie entdeckt hatte, der bis dahin in der Welt
der sehr tiefen Temperaturen verborgen gewesen war. Eine andere, ebenso
seltsame Erscheinung hatte er flüchtig wahrgenommen, ohne jedoch ihre
fundamentale Bedeutung zu erfassen. Es war wie bei der Supraleitung;
wiederum verhinderte die Größe der bevorstehenden Entdeckung, daß sie
gemacht wurde.
Hier war die Substanz, an der die Entdeckung gemacht werden mußte,
noch leichter verfügbar; es war flüssiges Helium selbst. Wir erinnern uns,
daß Onnes am Tag der ersten Verflüssigung die Dichte grob geschätzt und
überraschend klein gefunden hatte. Er beschloß zu untersuchen, ob sie sich
mit der Temperatur änderte, und bemerkte zu seinem Erstaunen, daß die
Dichte flüssigen Heliums, abgesehen davon, daß sie allgemein sehr gering
ist, bei etwa 2,2° K ein Maximum durchläuft. Er veröffentlichte dieses
Ergebnis Anfang 1911, aber die Entdeckung der Supraleitung beanspruchte
in den folgenden Monaten seine ganze Aufmerksamkeit. Ende 1913
berichtete er in seinem Vortrag anläßlich der Nobelpreisverleihung von
dieser seltsamen Erscheinung, wobei er zu verstehen gab, sie könnte – wie
die neuen elektrischen Effekte – mit der von Planck um die Jahrhundert-
wende entdeckten Quantelung der Energie zusammenhängen. 1924 kam
Kamerlingh Onnes schließlich auf das Problem zurück, als er eine Reihe
sorgfältiger Messungen veröffentlichte, die er zusammen mit Boks
gemacht hatte und die sich bis kurz über 1° K erstreckten. Die von ihnen
erhaltene Dichtekurve (s. Abb. 45 auf S. 242) zeigt einen Anstieg vom
Siedepunkt bis 2,2° K, dem eine allmähliche Abnahme unterhalb dieser

95
Temperatur folgt. Es konnte daher kein Zweifel bestehen, daß sich
flüssiges Helium bei Temperaturerniedrigung zunächst, wie erwartet,
zusammenzieht, sich aber dann wieder auszudehnen beginnt. Zugegeben,
daß Wasser bei 4° C ein ähnliches Verhalten zeigt, aber das
Wassermolekül hat eine kompliziertere Struktur, für die das anomale
Verhalten nicht sehr erstaunlich ist. Das Heliumatom jedoch hat die größte
Symmetrie aller in der Natur vorkommenden Atome, und das machte das
Dichtemaximum zunächst äußerst rätselhaft.
Onnes erfaßte die Bedeutung seiner Beobachtung völlig und bereitete
einen Großangriff vor. Dabei half ihm der Amerikaner Leo Dana, der bei
ihm als Gast arbeitete. Sie versuchten als erste, die latente
Verdampfungswärme zu messen, die zur Umwandlung der Flüssigkeit in
Dampf nötig ist. Indem sie diese Größe vom Siedepunkt ab zu tieferen
Temperaturen hin verfolgten, fanden sie tatsächlich ein Minimum in der
Kurve, aber es war schwach und lag gerade außerhalb ihrer Meßgenauig-
keit. Gleichzeitig hatten sie eine Untersuchung der spezifischen Wärme
begonnen, und hier begegneten sie einem Effekt von solcher Dimension,
daß sie ihm nicht trauten. Ihre veröffentlichten Ergebnisse reichen nur bis
2,5° K hinab und enthalten nichts Außergewöhnliches, lediglich eine
Kurve, die allmählich zu tiefen Temperaturen hin abfällt. Ein solches
Verhalten war zu erwarten. In Wirklichkeit hatten sie aber bis zu den
Temperaturen hinab gemessen, bei denen das Dichtemaximum auftritt.
Hier waren die Ergebnisse ganz außergewöhnlich gewesen; es hatten sich
variierende und sehr hohe Werte ergeben. Onnes und Dana hatten das
Gefühl, diese seltsamen Ergebnisse könnten nicht richtig sein, sondern
seien wahrscheinlich durch einen Defekt in ihrer Apparatur verursacht
worden. Daher nahmen sie sie nicht in ihren Artikel auf, der 1926
veröffentlicht wurde. Als dieser erschien, war Dana nach Amerika
zurückgekehrt und Onnes gestorben. Die Arbeit über das seltsame
Verhalten des flüssigen Heliums, auf die wir später zurückkommen
werden, mußte von seinem Nachfolger und von Forschern in Oxford,
Cambridge und Moskau fortgesetzt werden; denn das Leidener
Laboratorium hatte nun seine Monopolstellung verloren.

96
Mit Onnes' Tod fand eine Ära der Tieftemperaturforschung ihr Ende.
Das große Laboratorium in Leiden, das jetzt seinen Namen trägt, hat seine
Arbeit in großartiger Weise bis heute fortgeführt. Aber in die
Untersuchungen im Bereich des absoluten Nullpunkts hat sich in den
letzten 40 Jahren eine zunehmende Anzahl anderer Forschungsinstitute
geteilt. Sie alle verdanken Kamerlingh Onnes sehr viel, dessen
Pionierarbeit nicht nur das neue Gebiet der Temperaturen flüssigen
Heliums erschloß, sondern auch eine neue Norm für die
Forschungsplanung und die Leitung eines Laboratoriums setzte. Er war ein
hervorragender Wissenschaftler, dem die Entdeckung neuer Erscheinungen
den Nobelpreis und eine Fülle weiterer Ehrungen einbrachte. Seine größte
Leistung ist jedoch die Originalität, mit der er ein Laboratorium schuf, das
der Forschung im 20. Jahrhundert zum Vorbild werden sollte. Anders als
Dewar war er ein guter Diplomat, der wußte, wie man mit Leuten
auskommt, obwohl er zuweilen von ihnen erwartete, daß sie mit äußerster
Kraft arbeiteten. Bei all seinen Leistungen wußte er jenen Dank, deren
Arbeit seinen Erfolg ermöglicht hatte und die ihm immer ergeben waren.
Eine bezeichnende Anekdote wird über sein Begräbnis erzählt. Der
Leichenzug bewegte sich gerade von der Kirche durch die Stadt zum
Friedhof hinaus, mit den Meesters Flim, dem Leiter der Werkstatt, und
Kesselring, dem Leiter der Glasbläserei, hinter dem Leichenwagen.
Offenbar hatte der Gottesdienst etwas länger als vorgesehen gedauert, und
der Leichenwagen mußte sich beeilen, um den Friedhof rechtzeitig zu
erreichen. Da sagte Flim zu Kesselring: »Das sieht dem alten Herrn
ähnlich! Auch jetzt läßt er uns noch rennen.«
Als die Onnes-Ära des flüssigen Heliums sich ihrem Ende zuneigte,
dämmerte ein neues Zeitalter. 1922 hatte Onnes bei seinem letzten
Versuch, eine sehr tiefe Temperatur zu erreichen, ein System von zwölf
jener neuen Diffusionspumpen benutzt, die Langmuir entwickelt hatte, um
den Dampf über flüssigem Helium in einem sorgfältig isolierten
Kryostaten abzupumpen. Mit dieser aufwendigen Ausrüstung erreichte er
0,83°. Die Mitteilung darüber bestand in einem Vortrag vor der Faraday-
Society und ist bezeichnenderweise überschrieben: »Über die tiefste bis

97
jetzt erreichte Temperatur.« Am Ende wirft er die Frage auf, ob dies als der
letzte Schritt auf den absoluten Nullpunkt zu betrachtet werden müsse. Er
betont, daß die äußerste Grenze bei tiefen Temperaturen erreicht wäre, falls
nicht eine andere, noch flüchtigere Substanz als Helium entdeckt werden
könnte. Einschränkend fügt er jedoch hinzu: »Wir können eine solche
Grenze nur als eine vorläufige betrachten«, und schließt mit den Worten:
»Wir können als sicher annehmen, daß auch die Schwierigkeit, die jetzt auf
unserem Weg aufgetaucht ist, überwunden werden und daß die erste
Aufgabe in einer langen und geduldigen Untersuchung der Eigenschaften
der Materie bei den tiefsten erreichbaren Temperaturen bestehen wird.«
Diese Prophezeiung bewahrheitete sich, als noch nicht ein Jahr seit ihrer
Äußerung vergangen war. Die Arbeit, die die Beobachtungen enthielt, die
den neuen Temperaturbereich unterhalb 1° erschließen sollten, wurde von
ihm selbst und H. R. Woltjer als Mitteilung Nr. 167c veröffentlicht. Er
hielt den Schlüssel zu Temperaturen in der Hand, die zehn- und
hundertmal niedriger als die gerade von ihm erreichten waren, aber er
erkannte seine Bedeutung nicht. Wenige Jahre später taten es andere, die in
einer andersartigen Denkweise aufgewachsen waren.
Die neuen Ideen, die den Fortschritt zu tieferen Temperaturen
ermöglichen sollten, waren entwickelt worden, als Kamerlingh Onnes in
den Fünfzigern stand. Sie waren ihm zwar bekannt, blieben ihm jedoch
fremd, da er in dem festgefügten und autoritativen Lehrgebäude der
klassischen Physik erzogen worden war. Es sind beunruhigend revolutio-
näre Ideen, die unsere überkommenen Vorstellungen geändert haben und
noch ändern. Zur selben Zeit hatte die Zerstörung des wohlgegründeten
Gebäudes der physikalischen Gesetze neue und erregende Ausblicke
eröffnet. Mit Kamerlingh Onnes müssen wir die alte Physik mit ihrer
Sicherheit und ihren Grenzen verlassen, jene alte Physik, die solide und
eng war wie das Viktorianische Zeitalter. Bevor wir jedoch unsere Reise
zum absoluten Nullpunkt fortsetzen können, müssen wir einen
ausgedehnten Abstecher in die Entwicklung der modernen Physik machen.

98
5 | Der dritte Hauptsatz

Die ersten Andeutungen der neuen und unerwarteten physikalischen


Gesetze wurden bei Dewars Wasserstoffverflüssigung sichtbar. Die zur
Verdampfung der Flüssigkeit nötige Wärmemenge war noch kleiner, als
nach Troutons Regel zu erwarten gewesen war. Das Thermoelement hatte
bei der Temperaturanzeige versagt, und das elektrische Widerstands-
thermometer hatte viel zu hohe Werte ergeben. Außerdem waren da die
seltsam kleinen Werte der spezifischen Wärmen, die bald zum wichtigsten
Anhaltspunkt bei der Suche nach neuen Ideen werden sollten. Mit jedem
neuen Experiment wurde es klarer, daß die überkommenen Begriffe in der
Nähe des absoluten Nullpunkts nutzlos wurden. Als das neue Gebiet sehr
tiefer Temperaturen erforscht und vermessen wurde, verwandelte sich die
vertraute Landschaft physikalischer Vorstellungen. Es war noch zu früh,
Ursache und Bedeutung dieser Verwandlung zu verstehen, an ihrer
Existenz jedoch konnte man nun nicht mehr länger zweifeln.
Wenn wir auf die Entdeckungen und Vorstellungen zurückblicken, die
bald das stolze Gebäude der »klassischen« Physik erschüttern sollten, so
sehen wir sie völlig zusammenhanglos und in einer Form auftauchen, die
keine Beziehung zwischen ihnen vermuten ließ. Zur selben Zeit, als Dewar
die in der Materie gespeicherte Energie verringerte, indem er diese Materie
auf 20° über dem absoluten Nullpunkt abkühlte, kam Max Planck in
Berlin, sehr gegen seinen Willen, zu dem Schluß, daß die Energie nicht
jenes homogene Fluidum ist, als welches sie immer angesehen worden
war, sondern daß sie eine Struktur besitzt. Walther Nernst in Göttingen
versuchte die Prozesse aufzuklären, mittels derer eine neue chemische
Industrie ihre Erzeugnisse herstellte, und Einstein, ein junger Mann, der am
Patentamt in Bern arbeitete, begann die Ideen zu entwickeln, die eine
Verbindung zwischen diesen neuen isolierten Tendenzen schaffen sollten.
Auf der Pionierarbeit der Experimentatoren in Frankreich, Polen,
England und Holland sollten die deutschen Theoretiker das Gebäude neuer

99
Vorstellungen der Quantenphysik errichten, das zur Erklärung der bei
tiefen Temperaturen entdeckten Erscheinungen nötig war. Nernst, Planck
und Einstein waren die leitenden Architekten. Jede Meinungsumfrage nach
der Bedeutung dieser drei Männer würde die umgekehrte Reihenfolge
ergeben, aber was das Verständnis der Welt nahe dem absoluten Nullpunkt
angeht, müssen wir bei unserer Reihenfolge bleiben.
Walther Nernst wurde 1864 als Sohn eines preußischen Landrichters in
Briesen geboren, einer kleinen Stadt an der Grenze zum zaristischen
Rußland. Er war klein von Wuchs und wurde früh kahlköpfig; ursprünglich
wollte er Dichter werden, und er liebte das Theater. Er spielte sein Leben
lang die Rolle eines kleinen unschuldigen und oft leicht verwunderten
Mannes von schlichter Aufrichtigkeit, aber dahinter lagen ein äußerst
vielseitiger durchdringender Verstand und ein sarkastischer Humor
verborgen. Sein berühmtes Buch Theoretische Chemie leitete eine neue
Forschungsära ein und wurde zum Vorbild für die Denkweise einer ganzen
Generation. Das war jene Generation, die ihre Einstellung zur Chemie
nicht auf dem Schauplatz des Laboratoriums, sondern auf dem der großen
Industrie suchte, und die sich bei ihrer Arbeit auf genaue Voraussagen
stützte. Im Titel des Buchs ist Nernsts Lebenswerk zusammengefaßt.
Als Bismarck 1871 das Hohenzollernimperium schuf, trat das neue
Reich verspätet in den Kreis der Großmächte. Kolonien, wie sie das Reich
nun besaß, brachten außer Prestige und Schwierigkeiten wenig ein, und das
Vaterland selbst war ungewöhnlich arm an Bodenschätzen, Kohle
ausgenommen. Insbesondere fehlten Nitrate, da Stickstoff in Form
chemischer Verbindungen ein wichtiger Grundstoff für Düngemittel im
Frieden und für Sprengstoffe im Krieg ist. Das neue Reich hatte ihn für
beide Zwecke nötig. Andererseits ist Stickstoff als Element überall im
Überfluß vorhanden, da er 80°/o der atmosphärischen Luft bildet.
Wasserstoff steht gleichermaßen im Überfluß zur Verfügung; beide
Elemente verbinden sich zu Ammoniak. Hat man erst einmal Ammoniak,
dann ist das übrige leicht. Daher sahen sich die deutschen Chemiker vor
dem Problem, einen Weg zur Verbindung der Gase Stickstoff und
Wasserstoff zu finden. Aber das alte alchimistische Aufs-Geratewohl-

100
Verfahren war nicht geeignet, dieses Problem zu lösen. Auf jeden Fall war
es erfolglos angewandt worden.
Nernst beschäftigte dieses Problem in seiner allgemeinsten Form. Als er
nach Göttingen gekommen war, hatte die Universität für ihn das erste
Laboratorium für physikalische Chemie gebaut. Das war eine neue
Forschungsrichtung, die in den vorangegangenen Jahrzehnten aus der
Anwendung physikalischer Methoden – experimenteller wie theoretischer
– bei chemischen Problemen entstanden war. Ihr Hauptansatzpunkt war die
Verwendung der Thermodynamik, deren begrifflicher Rahmen ursprüng-
lich im Zusammenhang mit Wärmekraftmaschinen entwickelt worden war.
Die Thermodynamik war bald über diese etwas engen Grenzen
hinausgewachsen und hatte sich als sehr nützliches Werkzeug zur Lösung
jedes Problems erwiesen, bei dem Temperaturänderungen auftreten.
Bevor wir unsere Geschichte der Tieftemperaturphysik fortsetzen,
müssen wir innehalten, um einen weiteren Blick auf die Grundgesetze der
Thermodynamik und ihre Anwendung zu werfen. Sie bilden den ersten
Schritt zum Verständnis der neuen Methoden, die entwickelt worden sind,
um noch viel tiefere Temperaturen als jene des flüssigen Heliums zu
erreichen, und außerdem zum Verständnis der seltsamen Erscheinungen,
die bei Annäherung an den absoluten Nullpunkt auftreten.
Sehr viel verdankt die Thermodynamik den Arbeiten eines Benjamin
Thomson, eines Mannes von lebhaftem und unternehmungslustigem Sinn,
der 1753 in Woburn, Massachusetts, geboren wurde und später als Graf
Rumford einer der Gründer der Royal Institution in London war. Nachdem
Lavoisier 1794 während der Französischen Revolution hingerichtet worden
war, trieb der Ehrgeiz Rumford zu dem unklugen Schritt, die Witwe des
großen Wissenschaftlers zu heiraten. Leider aber war er kein Lavoisier, der
sie dazu hätte bringen können, während der Experimente gehorsam neben
ihm zu sitzen und Aufzeichnungen zu machen. Sie machte dem armen
Grafen das Leben zur Hölle.
Als er für den Kurfürsten von Bayern Kanonenrohre bohrte, bemerkte
Rumford, daß das Metall heiß wurde, und zwar desto heißer, je stumpfer
das Bohrwerkzeug war. Außerdem war das Kanonenrohr die heißeste

101
Stelle bei seinem »Experiment«, und nirgends fand eine Verbrennung statt,
die die Wärme hätte erzeugen können. Rumford folgerte richtig, daß
Reibung die Wärme erzeuge und daß bei diesem Vorgang mechanische
Arbeit, die Drehbewegung des Bohrers, verbraucht würde. Mechanische
Arbeit wurde in Wärme umgewandelt. Das ist der entgegengesetzte
Vorgang zu dem, der in einer Dampfmaschine stattfindet, wo die durch
Verbrennung im Kessel erzeugte Wärme in Arbeit, die Drehbewegung der
Antriebswelle, verwandelt wird.
Nach diesen und anderen Beobachtungen ähnlicher Art verstand man
allmählich, daß es eine physikalische Größe gibt, die in verschiedenen
Erscheinungsformen auftreten kann. Aber da sie sich von der einen in die
andere umwandeln läßt, muß sie immer dasselbe sein. Diese Größe ist die
Energie. Es war nur ein Schritt weiter zu dem Schluß, daß ihre
Umwandlung immer ohne Verlust geschieht. Die Behauptung, daß Energie
nicht erzeugt oder vernichtet werden kann, wurde als Gesetz der Erhaltung
der Energie oder, wie es manchmal heißt, als erster Hauptsatz der
Thermodynamik bekannt.
Der Begriff Energie war natürlich seit Newtons Zeiten wohlbekannt, da
sie sich für die Bewegung eines Körpers der Masse m und der
Geschwindigkeit v zu ½ m • v2 berechnen läßt. In der Newtonschen
Mechanik ist sie jedoch nicht von so offenbarer Bedeutung wie eine andere
Kombination von Masse und Geschwindigkeit, nämlich m mal v, der
sogenannte Impuls, dessen Erhaltung bereits Newton postuliert hatte. So
wie wir hier Energie und Impuls beschrieben haben, beziehen sie sich
ausdrücklich auf die Bewegung eines Körpers und eignen sich nicht zu
Interpretation anderer Erscheinungen, etwa eines elektrischen Stroms, oder
solcher, die beim Bohren eines Kanonenrohrs auftreten. Zwar wird der
Satz von der Impulserhaltung heute als eins der Grundprinzipien der
Mechanik und Teilchenphysik anerkannt, aber seine Anwendbarkeit ist auf
dieses Gebiet beschränkt geblieben. Die Energie andererseits kann, wie
Rumford zeigte, in Form von Wärme oder, wie man später entdeckte, in
Form eines elektrischen Stroms oder einer chemischen Reaktion
erscheinen. Ein Gesetz, das das Verhalten der Energie beschreibt, ist daher

102
zwangsläufig von großer allgemeiner Bedeutung. Die Entdeckung, daß die
Energie immer erhalten bleibt, unterwirft die Vorgänge, die in der Natur
vorkommen können, sofort einer einschneidenden Beschränkung; nur
solche sind erlaubt, bei denen die Energie unverändert bleibt.
Solche einschränkenden Gesetze, von denen der erste Hauptsatz der
Thermodynamik wahrscheinlich das bedeutendste ist, sind die Grundlage
aller Naturwissenschaft. Die Elektrizitätswerke verkaufen uns Energie in
Form von elektrischem Strom, und dank des Satzes von der Energie-
erhaltung können sie garantieren, daß genau dieselbe Energiemenge, die
sie in Rechnung stellen, bei uns zu Hause in Form von Wärme oder Licht
in Erscheinung tritt. Von allen nur denkbaren Wärmemengen, welche von
der von uns verbrauchten Strommenge erzeugt worden sein könnten, hat
das Gesetz der Energieerhaltung die Menge ausgewählt, die derselben
Energie entspricht. Die Garantie der Elektrizitätswerke ist nur ein Beispiel
für die genaue Voraussage über den Ablauf von Naturvorgängen, die
dieses Gesetz uns erlaubt.
Das genaue Verständnis der Energieerhaltung wurde durch die
Untersuchung der Wärmekraftmaschinen kompliziert, mit der, wie wir in
Kapitel 1 erwähnten, Carnot begann. An dieser Komplikation ist die
Tatsache schuld, daß die Energieumwandlungen eine gewisse
Unsymmetrie enthalten. Während z. B. bei Experimenten ähnlich dem
Bohren von Kanonenrohren die gesamte mechanische Energie restlos in
Wärme umgewandelt werden kann, ist das Gegenteil nie der Fall. Wenn
einer Dampfmaschine Wärme zugeführt wird, so kann nur ein Teil dieser
Energie zum Antrieb der Welle ausgenutzt werden, und unvermeidlich
wird ein Rest in Form unbrauchbarer Wärme im Kondensator der
Maschine vergeudet. "Wir haben absichtlich das Wort »unvermeidlich«
gewählt, weil es die Existenz eines weiteren einschränkenden Gesetzes
andeutet, des zweiten Hauptsatzes der Thermodynamik.
Während der erste Hauptsatz auch in den elementarsten Physik-
lehrbüchern immer mit großer Klarheit dargelegt wird, läßt man
bezeichnenderweise den zweiten entweder fort oder verhüllt ihn mit so
unverständlichem Gerede, daß er dem Leser noch unklarer bleibt, als er

103
dem Autor war. Kurz, man hält ihn für »schwierig«, und das ist schade, da
es sich um einen wirklich schönen und befriedigenden Lehrsatz handelt.
Freilich vermittelt seine thermodynamische Formulierung (obwohl voll-
kommen klar und unzweideutig) keine Vorstellung, die aufgrund der
alltäglichen Erfahrung begriffen werden kann, wie es bei Temperatur oder
Druck der Fall ist. Das kinetische Bild beseitigt jedoch, wie wir sehen
werden, diese Schwierigkeit.
Nach Carnot wurde der nächste Schritt zum Verständnis der
Umwandlung von Wärme in andere Energieformen von einem Deutschen,
Rudolf Emanuel Clausius, getan. Er unterschied zwischen dem Bruchteil
der Wärme, der in einem solchen Vorgang als mechanische Energie
auftreten kann, und jenem, der als unbrauchbare Wärme vergeudet werden
muß. Den ersten nannte er »freie« Energie und den zweiten umschrieb er
mit einem neuen Begriff, den er Entropie nannte. Diesen Entropiebegriff
benötigt man für die Aufstellung des zweiten Hauptsatzes der Thermo-
dynamik, der die einfache Aussage macht, daß nur solche Vorgänge
stattfinden können, bei denen die Entropie wächst oder zumindest konstant
bleibt. Mit anderen Worten: Der zweite Hauptsatz der Thermodynamik
schließt alle Vorgänge aus, bei denen die Entropie abnimmt.
Jedes echte Verständnis dieses wichtigen Gesetzes erfordert natürlich,
daß man sich eine konkrete Vorstellung vom Begriff der Entropie machen
kann. Die Thermodynamik bietet hier keine große Hilfe. Sie sagt uns nur,
daß die Entropie eine durch die absolute Temperatur dividierte
Wärmemenge ist. Das ist ein sehr nützlicher und einfacher Ausdruck, wenn
man ihn in eine Gleichung einsetzt, aber man vermag von ihm nicht
abzulesen, was er bedeutet. Diese Schwierigkeit bestand bis zum Ende des
19. Jahrhunderts, als der Formalismus der Thermodynamik mit den aus der
kinetischen Wärmetheorie abgeleiteten Vorstellungen zu einer
außerordentlich nützlichen Methode der theoretischen Interpretation
verbunden wurde, die man statistische Thermodynamik nennt. Die
Einführung statistischer Methoden, die hauptsächlich auf den Wiener
Ludwig Boltzmann zurückgeht, enthüllte die wahre Natur der Entropie.
Die Entropie entpuppte sich als der Grad der Unordnung in einem System.

104
14 Roter und weißer Sand vermischen sich, wenn man im Uhrzeigersinn umrührt,
entmischen sich aber nicht wieder,, wenn man gegen den Uhrzeigersinn rührt.

Plötzlich wurde nicht nur die Bedeutung der Entropie klar, sondern
darüber hinaus erwies sich der rätselhafte zweite Hauptsatz der
Thermodynamik als ein wohlbekanntes Prinzip der alltäglichen Erfahrung.
Dinge, die sich, wenn wir mit der Arbeit beginnen, in einem geordneten
Zustand befinden, z. B. die Bücher in den Regalen einer Bibliothek,
geraten in Unordnung, wenn wir mit ihnen arbeiten. Als ein konkretes
Beispiel können wir ein kleines Glasgefäß nehmen, das wir halb mit
weißem und halb mit rotem Sand füllen (Abb. 14). Nun rühren wir den
Inhalt des Gefäßes mit einem Löffel hundertmal im Uhrzeigersinn um, und
das Ergebnis ist blaßroter Sand. Der geordnete Zustand, in dem weißer
vom roten Sand getrennt war, ist zerstört. Das Umrühren hat die Entropie
erhöht. Man könnte dieser Folgerung entgegenhalten, daß wir das Gesetz
105
insofern noch nicht bewiesen hätten, als es besagt, die Entropie müsse bei
jedem Vorgang zunehmen, weil wir einfach ein spezielles Beispiel
herausgesucht hätten, in dem sie es tut. Also kehren wir jetzt unseren
Prozeß um, indem wir den Sand hundertmal entgegen dem Uhrzeigersinn
umrühren. Natürlich ergibt sich nicht wieder die ursprüngliche Trennung in
weißen und roten Sand, sondern unser Sand wird noch gründlicher
durchmischt und höchstens noch gleichmäßiger rosa. Anders ausgedrückt:
Die Entropie hat weiter zugenommen, genau wie es der zweite Hauptsatz
verlangt. Eigentlich hätte es dieses kleinen Experiments gar nicht mehr
bedurft, da wir von seinem Ausgang bereits von vornherein völlig über-
zeugt waren. Diese Überzeugung stammt aus der alltäglichen Erfahrung,
und wir sind angenehm überrascht, daß die eigentliche Bedeutung dieses
»schwierigen« zweiten Hauptsatzes der Thermodynamik in Wirklichkeit so
tief in unserer allgemeinen Lebenserfahrung verwurzelt ist, daß wir hier
nicht weiter zu verweilen und tiefer nachzudenken brauchen.

15 Beim Bremsen verwandelt sich die geordnete Bewegung der Atome des Eisenbahnrads
in ungeordnete Bewegung.

106
Wir können jetzt auch jenen seltsamen Mangel an Symmetrie bei der
Umwandlung zwischen mechanischer Energie und Wärme verstehen. Ein
fahrender Zug wird durch die Reibung der Bremsklötze an den Rädern zum
Stehen gebracht. Bei diesem Vorgang werden Klötze und Räder heiß; die
Bewegungsenergie des Zugs wird in Wärme verwandelt. Wenn wir
andererseits die Räder eines stehenden Zuges erhitzen, setzen wir ihn
dadurch nicht in Bewegung. Auch hier bringt das kinetische Bild Klarheit.
Ein Rad und alle die Eisenatome, aus denen es besteht, bewegen sich in
derselben Richtung. Machen wir in Gedanken von irgendeinem Teil des
Rades mikroskopische Aufnahmen, auf denen wir die einzelnen Atome
sehen können, dann läßt sich die Bewegungsrichtung der Atome durch
kleine Pfeile andeuten (Abb. 15). Da sie alle an der Bewegung des Rades
in derselben Weise teilnehmen, haben die kleinen Pfeile gleiche Länge und
Richtung. Diese Pfeile bezeichnen jetzt die Geschwindigkeiten jedes
einzelnen Atoms und stellen zusammen die kinetische Energie des Rades
dar. Wenn der Zug durch Reibung an den Bremsen angehalten wird,
verwandelt sich diese Energie in Wärme. Im atomaren Bereich bedeutet
das einfach eine erhöhte unregelmäßige Bewegung der Atome. In unserem
Bild zeigt sich das durch eine andere Verteilung der Länge und Richtung
der Pfeile. Die Gesamtzahl aller Pfeile ist noch dieselbe, aber ihre Längen
und Richtungen sind jetzt unregelmäßig verteilt. Das geordnete Muster der
mechanischen Energie ist in das ungeordnete der Wärmebewegung
übergegangen. Wie im Fall des sandgefüllten Glasgefäßes begreifen wir
leicht, daß der Vorgang nicht umgekehrt werden kann, zumindest nicht
vollständig und nicht einfach durch Erwärmung des Rades. Der Wärme,
die wir dem Rad gerade zuführen wollten, kann noch ein kleiner Betrag an
Regelmäßigkeit entnommen werden; aber das ist nur ein kleiner Bruchteil
der Energie, die ursprünglich bei der Bremsung in Wärme verwandelt
worden war. Wenn wir Wärme aufwenden wollen, um den Zug wieder in
Gang zu bringen, müssen wir uns des komplizierten Mechanismus einer
Dampfmaschine bedienen. Aber selbst dabei muß, wie schon erwähnt, die
dieser Maschine zuzuführende Wärmeenergie viel größer sein als die
mechanische Energie, die wir aus ihr gewinnen können. Indem wir die
Wärmeenergie von der hohen Temperatur des Kessels zu der tieferen des
107
Kondensators durch den Mechanismus der Maschine hindurchströmen
lassen, können wir ihr einen kleinen Bruchteil als mechanische Energie
zum Antrieb des Zugs entnehmen. Das ist möglich, weil einer
Wärmemenge bei hoher Temperatur eine etwas geringere Unordnung
entspricht als einer bei tieferer Temperatur. Die Gesamtentropie ist
natürlich während des ganzen Vorgangs gestiegen, wie es der zweite
Hauptsatz der Thermodynamik verlangt.
Unser Beispiel zeigt, daß Wärmeenergie, da sie in unregelmäßiger
Bewegung der Atome besteht, nicht restlos in mechanische Energie
umgewandelt werden kann. In einem abgeschlossenen System kann
nämlich kein Vorgang stattfinden, der eine Abnahme der gesamten
Unordnung zuließe. Am Beispiel des Gefäßes mit weißem und rotem Sand
oder dem der Rotation eines Rades, die sich in unregelmäßige Bewegung
der Eisenatome verwandelt, sehen wir das Anwachsen der Unordnung
ziemlich deutlich. Bei der Dampfmaschine tritt es nicht annähernd so klar
in Erscheinung, und in vielen Fällen kann man das aufschlußreiche
statistische Modell überhaupt nicht wiedererkennen. Was ist dann zu tun?
Wie können wir das Gesetz der Entropiezunahme anwenden, wenn wir
keine Änderung des Ordnungszustandes feststellen können? Hier rettet uns
die Rückkehr zur Thermodynamik. Ihre Definition der Entropie als
Wärmemenge, dividiert durch die absolute Temperatur, bei der diese
Wärmemenge entsteht, sagt uns zwar nichts über die Bedeutung der
Entropie, aber erlaubt uns, sie zu messen. Kann eine physikalische Größe
erst einmal durch Messung genau bestimmt werden, so können wir sie mit
Vertrauen verwenden.
Unsere notwendige Abschweifung zu den Grundsätzen der
Thermodynamik ist beendet, und wir können uns wieder jenem Problem
zuwenden, dem sich die Physikochemiker um die Jahrhundertwende
gegenübersahen und das von Nernst gelöst worden ist. Das Problem,
erinnern wir uns, war die Voraussage chemischer Reaktionen. Der große
französische Chemiker Berthelot glaubte um die Mitte des 19.
Jahrhunderts, die Lösung gefunden zu haben. Er behauptete, daß jede
Reaktion immer in der Richtung maximaler Wärmeerzeugung ablaufen

108
würde. Das erwies sich zwar als falsch, aber nicht als sehr falsch. Die
meisten spontan ablaufenden Prozesse erzeugen tatsächlich Wärme, wie
etwa die Verbrennung von Kohle oder die Freisetzung von Atomenergie.
Es gibt jedoch einige Prozesse, die spontan Kälte erzeugen, wie das
Schmelzen von Eis, wenn Salz darauf gestreut wird. Dieses Verfahren
dient etwa der Entfrostung von Straßenbahnweichen und wird durch das
Schmelzen des Eises zwar erreicht, aber die Lösung des Salzes im Wasser,
die dabei entsteht, ist tatsächlich kälter, als das Eis ursprünglich war.
Jetzt ist leicht einzusehen, wo Berthelot irrte. Nicht die Wärme tendiert
zu einem Maximum, sondern die Entropie, d. h. der Unordnungsgrad.
Zwar ist eine gewisse Unordnung bei der Reaktion des Eises mit dem Salz
dadurch beseitigt worden, daß Wärme verlorenging. Das wird jedoch mehr
als ausgeglichen durch jene Zunahme der Unordnung, die von der
Vermischung des Wassers mit Salz herrührt, und daher ist, wie der zweite
Hauptsatz der Thermodynamik fordert, die Unordnung insgesamt
gewachsen. Genau wie im Fall des verschiedenfarbigen Sands erfolgt bei
Wasser und Salz zwar die Vermischung, nicht aber die Entmischung
spontan.
Nicht die Gesamtenergie, wie Berthelot dachte, bestimmt die Richtung
des Vorgangs, sondern die freie Energie, da die Entropie den Unterschied
zwischen beiden angibt. Diese bedeutende Tatsache erkannte 1883 der
Holländer Jacobus Hendricus van't Hoff, der auf diese Weise eine klare
Definition des alten alchimistischen Begriffs der »Affinität« zwischen
Substanzen gab. Eine Gleichung, die die Gesamtenergie und die freie
Energie mit der absoluten Temperatur verknüpft, war wenige Jahre vorher
aus einer Verbindung des ersten mit dem zweiten Hauptsatz der
Thermodynamik abgeleitet worden, und zwar von dem großen
amerikanischen Physikochemiker Josiah Willard Gibbs und dem
Deutschen Hermann von Helmholtz. Wenn für die Partner einer
chemischen Reaktion, sagen wir Wasserstoff, Stickstoff und Ammoniak,
die freien Energien als Funktion der Temperatur bekannt sind, läßt sich das
chemische Gleichgewicht voraussagen.
Die Gesamtenergie einer Substanz erhält man durch Messung ihrer

109
spezifischen Wärme. Aber leider erlaubt es die mathematische Formel der
Gibbs-Helmholtz-Gleichung nicht, die freie Energie aus der Gesamtenergie
ohne eine weitere Annahme zu berechnen. Diese Annahme machte Nernst,
der seine geniale Vermutung auf die Tatsache stützte, daß Berthelot fast
recht hatte. Das muß bedeuten, daß Gesamtenergie und freie Energie bei
normalen Temperaturen nicht allzu verschieden sein können. Nernst
postulierte daher, daß sie bei Annäherung an den absoluten Nullpunkt
allmählich gleich werden.
Mehr als ein halbes Jahrhundert ist vergangen, seit Nernst 1906 sein
Postulat aufstellte. Inzwischen ist die Richtigkeit seiner Vermutung durch
eine große Zahl experimenteller Ergebnisse umfassend bestätigt worden.
Schon ein Jahrzehnt nach Nernsts erster Veröffentlichung seines Theorems
war es als dritter Hauptsatz der Thermodynamik anerkannt. Der dritte
Hauptsatz erwies sich bald als wertvoll für die Voraussage chemischer
Gleichgewichte. Als acht Jahre später der Krieg ausbrach, begannen bald
synthetische Nitrate aus den großen Leunawerken der deutschen
Rüstungsindustrie zuzufließen. Schon vorher war jedoch die praktische
Bedeutung des dritten Hauptsatzes von der Tatsache überschattet, daß er
die Aufmerksamkeit auf die Annäherung an den absoluten Nullpunkt
lenkte. Seine Bedeutung für die Tieftemperaturphysik zeigen die beiden
anderen Formulierungen, in denen das Theorem von Nernst ausgedrückt
werden kann. Die eine lautet: Man kann dem absoluten Nullpunkt zwar
beliebig nahe kommen, ihn aber nie erreichen. Die andere: Am absoluten
Nullpunkt verschwindet die Entropie.
Die erste dieser beiden Behauptungen klingt zwar interessanter, ist
jedoch von geringerer Bedeutung als die zweite. Seit Cailletets Zeiten, als
die Erzielung tiefer Temperaturen experimentell möglich wurde, hat
niemand, der an diesen Experimenten beteiligt war, von der Möglichkeit
gesprochen, den absoluten Nullpunkt tatsächlich zu erreichen. In
Verbindung mit der Verflüssigung des Wasserstoffs und später des
Heliums wird die Annäherung an den absoluten Nullpunkt häufig
hervorgehoben, aber man nahm es als gegeben hin, daß auch diese
Substanzen schließlich bei genügend tiefen Temperaturen gefrieren und

110
damit für weitere Abkühlung unbrauchbar werden würden. Offenbar hatten
auch vor Nernst die Experimentatoren angenommen, daß ihre
Kühlverfahren vor Erreichen des absoluten Nullpunkts versagen würden,
ohne daß sie jedoch einen strengen Beweis dafür für nötig hielten. In der
wissenschaftlichen Literatur vor 1906 gibt es keine Andeutung dafür, daß
irgend jemand ernsthaft über die Erreichung des absoluten Nullpunkts
nachgedacht und die theoretischen Möglichkeiten diskutiert hätte. Wäre
das getan worden, so wäre das Ergebnis von dem Nernstschen nicht sehr
verschieden gewesen. Im Rückblick müssen wir annehmen, daß jemand,
der, sagen wir um 1900, ernsthaft das Problem untersucht hätte, zu dem
Schluß gekommen wäre, der absolute Nullpunkt könnte nicht durch eine
endliche Zahl von Abkühlungsstufen erreicht werden. Der Grund für dieses
notwendige Mißlingen ist jedoch von dem durch den dritten Hauptsatz
gegebenen Grund völlig verschieden. Vor Nernst mag das Problem etwa
fünf Jahre lang im wissenschaftlichen Zwielicht gestanden haben, als
nämlich die »klassischen« Prinzipien zwar allmählich zweifelhaft
erschienen, die Quanteneffekte aber noch nicht eigentlich anerkannt
wurden. Damals hätten Hoffnungen, den absoluten Nullpunkt zu erreichen,
aufrechterhalten werden können. Da aber wiederum niemand solche
Hoffnungen gehegt zu haben scheint, hatte diese Phase keine Wirkung auf
die anschließende Entwicklung der Ideen.
Während die Formulierung des Theorems von Nernst als Gesetz von der
Unerreichbarkeit des absoluten Nullpunkts in Lehrbüchern geläufig wurde,
da sie klar und leicht zu behalten ist, kann sie für die Versuche von Leuten
wie Dewar oder Kamerlingh Onnes nicht von wesentlichem Interesse
gewesen sein. Sie hat jedoch einen gewissen Einfluß auf die Bedeutung des
absoluten Nullpunkts als Fußpunkt unserer Temperaturskala. Diese Skala
hat keine obere Grenze, da wir stillschweigend annehmen, daß immer,
wenn wir eine sehr hohe Temperatur messen, eine noch höhere existiert
und erreicht werden kann. Mit dem absoluten Nullpunkt ist das anders, da
keine tiefere Temperatur vorstellbar ist. In diesem Zusammenhang muß die
Behauptung des dritten Hauptsatzes unbefriedigend erscheinen, daß es
unterhalb jeder tiefen Temperatur, die wir herstellen, eine noch tiefere gibt,

111
die wir erreichen können, ohne damit den absoluten Nullpunkt zu
erreichen. Überdies sinkt mit jeder weiteren Annäherung an den absoluten
Nullpunkt der uns von diesem unerreichbaren Punkt trennende Abstand
und muß sich schließlich als ein verschwindend kleiner Bruchteil eines
Grads erweisen.
Man hat gute Gründe dafür, die additive Gradskala durch eine Skala der
Temperaturverhältnisse zu ersetzen. Tatsächlich definiert der zweite
Hauptsatz der Thermodynamik die Temperatur in solchen Verhältnissen.
Das bedeutet einfach, daß wir, statt die Anzahl der Grade, sagen wir
zwischen 1° K und 10° K, also neun, oder zwischen 10° K und 100° K,
also neunzig, zu zählen, 10° K als zehnmal wärmer als 1° K und l00° K als
zehnmal wärmer als 10° K betrachten. Indem wir diese Verhältnisse
benutzen, messen wir also dem Intervall zwischen 1° K und 10° K dieselbe
Bedeutung zu wie dem zwischen 10° K und 100° K oder dem zwischen
100° K und 1000° K usf. In dieser logarithmischen Skala haben wir es mit
Potenzen von 10 zu tun und schreiben 100° K als 102° K, 1000° K als 103°
K und 1 000 000° K als 106° K. Entsprechend wird 1° K jetzt zu 100° K,
0,1° K zu 10-1° K und 0,000001° K zu 10-6° K. Der absolute Nullpunkt
rückt dadurch auf minus unendlich (10-∞° K), und das scheint für eine
Temperatur, die niemals erreicht werden kann, sehr angemessen.
Abgesehen von der neuen Zählweise und der passenderen Betrachtung des
absoluten Nullpunkts als unendlich entfernt, ist an der logarithmischen
Temperaturskala nichts Umwälzendes. Die physikalische Bedeutung des
Temperaturbegriffs bleibt völlig unverändert.
Während also die Unerreichbarkeit des absoluten Nullpunkts nicht sehr
bedeutsam für unser Verständnis der physikalischen Welt ist, stellt die
andere Formulierung des dritten Hauptsatzes, die uns sagt, daß die
Entropie Null werden muß, einen Satz von fundamentaler Bedeutung dar.
Die sich aus ihm ergebenden Folgerungen, die man erst allmählich erfaßte,
führten zu einem vollständigen Bruch mit den physikalischen
Vorstellungen des 19. Jahrhunderts. Überdies erwies sich das
Verschwinden aller Unordnung bei Annäherung an den absoluten
Nullpunkt als Schlüssel zur Erklärung der ungewöhnlichen Erscheinungen,

112
die Dewar und Kamerlingh Onnes zuerst beobachtet hatten.
Die erste Reaktion auf Nernsts Theorem war die Überraschung darüber,
daß die Entropie und nicht die Energie allmählich gegen Null geht. Bis
dahin war die zuerst von Amontons formulierte Vorstellung des absoluten
Nullpunkts als eines Zustands vollkommener Ruhe hingenommen worden.
Besonders seitdem die kinetische Theorie die Temperatur als Maß für die
mittlere Energie der Molekularbewegung erklärte, erschien es
unausweichlich, daß diese Bewegung bei der Temperatur Null völlig
verschwinden müßte. Jetzt zeigte es sich, daß nach dem dritten Hauptsatz
der Thermodynamik ein Teil der Energie auch am absoluten Nullpunkt
zurückbehalten wird. Das Wesen dieser Nullpunktsenergie blieb lange
rätselhaft und unbegreiflich. Schließlich erwies sie sich als eine
unmittelbare Manifestation des Grundprinzips der Quantenmechanik.
Abgesehen von einigen neuen und ungewöhnlichen Erscheinungen, die
sich bei tiefen Temperaturen aus der Zunahme der statistischen Ordnung
erklären lassen, ließ die Abnahme der Entropie auch die schon lange
bekannten physikalischen Vorgänge in neuem Licht erscheinen. Ein
Beispiel ist die bekannte Aufeinanderfolge der drei Aggregatzustände, die
eine Substanz bei Abkühlung durchläuft. Wenn ein Gas abgekühlt wird,
kondensiert es zunächst zum flüssigen Zustand und wird bei weiterer
Abkühlung ein fester Kristall. Bis dahin hatte man diese Änderungen als
unmittelbare Folge der Tatsache angesehen, daß die Temperatur ein Maß
für die kinetische Energie der Atome oder Moleküle ist. Wenn diese
Energie sich verringert, wird sie von den Anziehungskräften der Atome
aufgewogen, und diese Atome bleiben dann, anstatt nach jedem
Zusammenstoß wieder auseinanderzufliegen, aneinander hängen, zunächst
lose im flüssigen und schließlich fest im festen Zustand. Das ist natürlich
dieselbe Folge von Zuständen, die wir weiter oben bei der Diskussion der
Van-der-Waals-Gleichung erwähnt haben. Diese Aufeinanderfolge kann
jedoch noch von einer anderen Seite betrachtet werden, die wir bis jetzt
vernachlässigt haben. Im gasförmigen Zustand erfüllen die Atome oder
Moleküle den ganzen zur Verfügung stehenden Raum mit ungeordneter
Bewegung (Abb. 16). Im flüssigen Zustand sind sie auch noch in

113
Bewegung, aber jetzt ist die Substanz auf ihr eigenes Volumen beschränkt,
das nur einen Teil des zur Verfügung stehenden darstellt. In festem Kristall
schließlich sind die Atome an bestimmte Punkte in einer regelmäßigen
Anordnung, dem sogenannten Kristallgitter, gebunden.

16 Wenn man ein Gas verflüssigt und eine Flüssigkeit einfriert, wird die Anordnung
der Atome jeweils regelmäßiger.

Das heißt, es geschieht bei der Abkühlung einer Substanz mehr, als daß
nur die kinetische Energie abnimmt. Verbunden damit wird die Struktur
zunehmend geordnet. Die Entropie nimmt ab, und in gewisser Hinsicht
können wir die wohlbekannte Folge von Gas, Flüssigkeit und Festkörper,
wie auch die vertrauten Vorgänge der Kondensation und des Gefrierens,
als eine Manifestation des dritten Hauptsatzes der Thermodynamik
betrachten.
Auf diese Weise erlangen die Aggregatzustände eine neue Bedeutung,
wenn wir sie als Repräsentanten von Ordnungszuständen ansehen. Es gibt
aber auch noch andere auf den dritten Hauptsatz zurückgehende
Erscheinungen, die nicht sofort durchschaubar und daher erstaunlicher
sind. Da die Wellenlängen der Röntgenstrahlen von derselben
Größenordnung sind wie die Atomabstände im Kristallgitter, wurden die
Röntgenstrahlen zu einem sehr brauchbaren Werkzeug für die genaue
Erforschung dieser Gitter. Anfang der zwanziger Jahre wurden einige
Kupfer-Zink-Legierungen auf diese Weise untersucht. Die Ergebnisse

114
zeigten, daß in den Kristallproben die Kupfer- und Zinkatome ganz
unregelmäßig verteilt waren (Abb. 17). Ein Jahr später wurden dieselben
Proben einem Studenten zur Erprobung seiner Röntgenausrüstung
übergeben. Zu jedermanns Überraschung erhielt er ein ganz anderes
Ergebnis, das jetzt die Zink- und Kupferatome abwechselnd regelmäßig
angeordnet zeigte. Tatsächlich hatten sich die Kristalle entmischt, die
unregelmäßige Verteilung der beiden Atomarten war in eine regelmäßige
Anordnung übergegangen. Die Kristalle waren durch Zusammenschmelzen
von Kupfer und Zink, also bei sehr hohen Temperaturen, bei denen die
Entropie groß ist, hergestellt worden und hatten sich daher in statistischer
Unordnung befunden. Bei Zimmertemperatur, d. h. näher am absoluten
Nullpunkt, war die Entropie geringer, also die Ordnung größer, und die
unregelmäßige Anordnung mußte einer regelmäßigen weichen. Die
Umordnung von Atomen in einem Kristall erfolgt jedoch langsam. Deshalb
wurde die Veränderung erst ein Jahr später bemerkt.

17 In einem Messingstück sind die Kupfer- und Zinkatome bei hohen Temperaturen
unregelmäßig verteilt (links), bei Abkühlung aber ordnen sie sich regelmäßig an (rechts).

115
Solche Übergänge von einer ungeordneten zu einer geordneten
Atomanordnung stellen die auffälligste und unmittelbarste Manifestation
des Theorems von Nernst dar, aber leider sind sie oft schwierig zu
beobachten, weil die für die Änderung erforderliche Zeit bei tiefen
Temperaturen sehr lang wird. Sehr schön und eindrucksvoll wurde die
Wirkung des dritten Hauptsatzes jedoch vor einigen Jahren in Moskau von
Peschkow und Zinowjewa demonstriert. Sie untersuchten die
Eigenschaften einer Mischung der Heliumisotope mit den Atomgewichten
vier und drei. Das erstere ist das natürliche Helium aus Mineralien oder
Gasquellen. Bei Kernreaktionen können jedoch stabile Heliumatome
hergestellt werden, die ein Neutron weniger und daher das Gewicht drei
haben. Dieses Isotopengemisch bleibt bis zu den tiefsten Temperaturen
hinab flüssig und hat auch noch bei 1° K dank der Tatsache, daß beide
Atomarten unregelmäßig gemischt sind, eine beträchtliche Entropie. Nach
dem dritten Hauptsatz muß diese Entropie bei Annäherung an den
absoluten Nullpunkt verschwinden. Während man bei 1° K noch kein
Anzeichen einer solchen spontanen Entmischung bemerkt hatte, änderte
sich die Lage, als die Temperatur auf 0,8° K verringert wurde. Die
Flüssigkeit begann sich in zwei Phasen aufzuteilen, von denen die eine
reicher an dem leichten und die andere reicher an dem schweren Isotop
war. Bei 0,5° K ist diese Entmischung so weit fortgeschritten, daß die
beiden Flüssigkeiten durch einen Meniskus zwischen ihnen scharf getrennt
sind, den man auf der von den russischen Wissenschaftlern gemachten
Aufnahme deutlich sehen kann (Abb. 18). Die Erscheinung ist so
außergewöhnlich, als würde sich der in unserem Glasgefäß gemischte rote
und weiße Sand vor unseren Augen wieder entmischen.

116
18 In Einklang mit dem Theorem von Nernst teilt sich eine Mischung aus Heliumisotopen
nahe dem absoluten Nullpunkt in zwei flüssige Phasen auf. A Meniskus zwischen
Flüssigkeit und Dampf; B Meniskus zwischen den beiden Flüssigkeiten.

117
Um die Bedeutung des dritten Hauptsatzes zu erklären, haben wir über
Mischkristalle und flüssiges Helium unter 1° K gesprochen und dabei in
unserer Schilderung vieles übersprungen. Das Recht dazu gibt uns eine
eigenartige Beschränkung des menschlichen Gehirns. Während wir ohne
weiteres einen Zustand der Ordnung in der gegenseitigen Lage von
Gegenständen erkennen und definieren können, gelingt uns das nicht bei
ihrer Bewegung. Tatsächlich sind schon die Begriffe »Ordnung« und
»Unordnung« in unserem Gehirn mit den Positionen verknüpft, die
Gegenstände im Raum einnehmen, wie z. B. Bücher auf einem Regal oder
Stühle in einem Hörsaal. Deshalb wählten wir die Ordnung der Atome in
einem Kristallgitter und die Trennung der Heliumisotope in zwei flüssige
Phasen, um die Wirkung des dritten Hauptsatzes zu demonstrieren. In der
Natur kommen jedoch noch andere und gleich wichtige Ordnungsarten vor,
bei denen Regelmäßigkeit nicht hinsichtlich der Position, sondern
hinsichtlich der Bewegung herrscht.
Die Beschränkung, an der unser Gehirn leidet, liegt darin, daß wir uns
nicht mit derselben Leichtigkeit ein Bild von »vorher und nachher«
machen können wie von »nebeneinander«. Irgendwie ist es für uns
schwierig, die Zeit in gleicher Weise zu betrachten wie die Dimensionen
des Raums. Ob diese eigenartige Beschränkung angeboren oder eine Sache
der Erziehung durch Erfahrung ist, läßt sich schwer sagen. Wie wir sehen
werden, kann man sie durch Übung weitgehend überwinden. Gewöhnlich
umgehen wir unsere Unfähigkeit, die Zeit den Darstellungen der
physikalischen Welt einzuverleiben, indem wir eine Reihe von Bildern
aufeinanderfolgender Ereignisse machen. Man kann sogar ein Gefühl für
Kontinuität erzeugen, indem man den zu untersuchenden Verlauf so weit
vereinfacht, daß die Bilderfolge kontinuierlich wird. Z. B. kann die
Flugbahn einer Granate als Kurve in einem sonst »ruhigen« Bild
dargestellt werden (Abb. 19). Wir können sogar noch einen Schritt weiter
gehen, wenn wir die gleichzeitige Bewegung des Ziels zeigen, das
wegläuft, sobald es den Abschuß der Kanone gesehen hat. Aber die nächste
Korrelation, nämlich die zwischen den Positionen des Geschosses und des
Ziels zu verschiedenen Zeiten, ist im Bild schwer darzustellen.

118
19 »Vorher und nachher« läßt sich schwerer verdeutlichen als »nebeneinander«.

Wir haben bereits von dieser Art der Darstellung Gebrauch gemacht, als
wir das Bremsen des Zuges erörterten. Wir deuteten die Bewegungen der
Atome durch Linien an, deren jede aus einer unendlichen Anzahl
aufeinanderfolgender Positionen bestand. Dieses Bild wurde durch
Umwandlung der Linien in kleine Pfeile weiter vervollständigt, eine
Übereinkunft, durch die wir andeuteten, daß wir es mit Bewegung zu tun
hatten, und die außerdem zwischen den zwei möglichen
Bewegungsrichtungen entlang einer Linie unterschied. Da sich alle unsere

119
Linien auf dasselbe Zeitintervall beziehen sollten, stellten schließlich die
kurzen Pfeile die langsame, die langen die schnelle Bewegung des
entsprechenden Atoms dar. Diese Methode, den Zustand gleichzeitiger
Bewegung einer Anzahl Teilchen sichtbar zu machen, läßt sich weiter
vereinfachen, wenn man alle Pfeile von einem Punkt ausgehen läßt. Eine
solche Darstellung von Vorgängen unterscheidet sich jetzt völlig von einer
»Nebeneinander «-Anordnung, da die relativen Positionen der Teilchen aus
ihr verschwunden sind. Statt dessen denken wir jetzt in einem
dreidimensionalen Geschwindigkeitsraum. Auf diesen Begriff werden wir
später zurückkommen und bemerken, daß er sehr nützlich ist bei dem
Versuch, eine Ordnung im Bewegungszustand zu erkennen.
Obwohl man schließlich das Postulat von der am absoluten Nullpunkt
verschwindenden Entropie als wichtigsten Aspekt des dritten Hauptsatzes
erkannte, konzentrierte sich anfangs die Aufmerksamkeit auf die freie
Energie. Wie wir sahen, erhält man diese mit Hilfe des Theorems von
Nernst aus der Gesamtenergie einer Substanz. Läßt man einmal die
seltsame Nullpunktsenergie, die immer in der Substanz zurückbleibt,
beiseite, dann kann ihre Energie ziemlich direkt bestimmt werden. Die
Gesamtenergie in einem Stück Eisen oder einem Glas Wasser bei
Zimmertemperatur ist einfach die Wärmemenge, die der Substanz
zugeführt werden muß, um sie vom absoluten Nullpunkt aus zu erwärmen.
Wir sind dieser Art Messung bereits früher begegnet, als wir uns mit
Energie in Form einer »Wärmemenge« beschäftigten und diejenige
Wärmemenge als Einheit, genannt eine Kalorie, definierten, die zur
Steigerung der Temperatur von einem Gramm Wasser um ein Grad
benötigt wird.
Wir stellen fest, daß viel weniger Wärme, d. h. nur etwa ¹/10 Kalorie, zur
Erwärmung von einem Gramm Eisen um ein Grad erforderlich ist und
wieder eine andere Menge, etwa ¹/5 Kalorie, für ein Gramm Aluminium.
Da diese Wärmemengen für die betreffenden Substanzen offenbar
spezifisch sind, nennt man sie ihre spezifischen Wärmen. Ein interessanter
Zusammenhang zwischen den spezifischen Wärmen verschiedener
Substanzen wurde 1820 von den französischen Naturwissenschaftlern

120
Pierre Louis Dulong und Alexis Thérèse Petit entdeckt. Diese
Gesetzmäßigkeit machte sich bemerkbar, als man statt Massen von einem
Gramm jeweils dieselbe Anzahl von Atomen betrachtete.
Die Chemiker des 18. Jahrhunderts hatten festgestellt, daß in
Verbindungen die beteiligten Elemente immer in festen Verhältnissen
zueinander stehen. Z. B. beobachtete man, daß stets zwei Teile
Wasserstoffgas mit einem Teil Sauerstoffgas zur Bildung von Wasser
reagieren, eine Tatsache, die sich in der chemischen Formel H2O für
Wasser ausdrückt. Wenn mehr Wasserstoff bei der Reaktion benutzt
wurde, blieb er als Gas übrig. Dasselbe geschah mit einem Überschuß an
Sauerstoff. Die Gewichte der beiden Wasserstoff- und Sauerstoffmengen
stehen zueinander im Verhältnis 2:16, d. h. 2 g Wasserstoff reagieren
immer mit 16 g Sauerstoff, um 18 g Wasser zu bilden. Da jedes
Wassermolekül, wie die Formel zeigt, durch Verbindung von zwei
Wasserstoffatomen mit einem Sauerstoffatom gebildet wird, folgt, daß ein
Sauerstoffatom 16mal schwerer sein muß als ein Wasserstoffatom.
Außerdem ergibt sich, daß 1 g Wasserstoffgas dieselbe Anzahl Atome
enthält wie 16 g Sauerstoffgas. Diese Tatsache gibt uns ein Mittel an die
Hand, durch Auswiegen Substanzmengen zu bekommen, die jeweils
dieselbe Zahl von Atomen enthalten.
Gewöhnlich fängt man beim leichtesten Atom, dem des Wasserstoffs,
zu zählen an, und daher hat Wasserstoff das Atomgewicht 1 und Sauerstoff
16. Durch Abwiegen der Partner in chemischen Reaktionen kann diese
Bestimmung des Atomgewichts auf alle Elemente ausgedehnt werden. So
erhalten wir z. B. die Zahl 56 für Eisen, 27 für Aluminium, 64 für Kupfer,
197 für Gold und 238 für Uran.
Dulong und Petit entdeckten, daß man zur Erwärmung um ein Grad für
56 g Eisen dieselbe Wärmemenge benötigt wie für 27 g Aluminium oder
64 g Kupfer oder 197 g Gold usf. Mit anderen Worten: Ihr Gesetz sagt aus,
daß die spezifischen Wärmen der Elemente, multipliziert mit ihrem
Atomgewicht (d. h. jeweils für dieselbe Anzahl von Atomen), dieselben
sind. Sie benutzten den Begriff des Grammatoms, der das Atomgewicht in
Gramm ausdrückt, und stellten fest, daß die darauf als Einheit bezogene

121
spezifische Wärme ungefähr 6 Kalorien pro Grad beträgt.
Nun, da wir das Gesetz von Dulong und Petit zur Verfügung haben,
muß die Berechnung der Energien für den dritten Hauptsatz der
Thermodynamik einfach erscheinen. Nehmen wir an, wir möchten die
Gesamtenergie eines Grammatoms Eisen bei 0° C (273° K) wissen. Wir
haben dann nichts weiter zu tun, als die Anzahl der Grade (273), um die
das Eisen vom absoluten Nullpunkt aus erwärmt worden ist, mit der Zahl
der für jeden Grad erforderlichen Kalorien (6) zu multiplizieren, und
erhalten als Ergebnis 1638 cal. Auf ähnliche Weise könnten wir die
Gesamtenergie bei jeder Temperatur unter und über 0° C berechnen.
Aber als Nernst 1906 sein Theorem verkündete, wußte er bereits, daß
solch einfache Rechnungen ein falsches Ergebnis liefern müssen. Dewar
hatte gezeigt, daß die spezifischen Wärmen bei tiefen Temperaturen viel
kleiner als 6 cal pro Grammatom und Grad sind und daß das Gesetz von
Dulong und Petit bei Annäherung an den absoluten Nullpunkt nicht mehr
gilt. Im folgenden Jahr wurde das Rätsel von Einstein gelöst. Das war der
erste bedeutende Bruch mit dem System der klassischen Physik.

122
6 | Quantelung

Das Versagen des Gesetzes von Dulong und Petit wurde zum
Ausgangspunkt für das Verständnis der besonderen Stellung, die das
Gebiet der tiefen Temperaturen im begrifflichen Rahmen der gesamten
Physik einnimmt. Bevor man jedoch die Bedeutung dieses Versagens
einzuschätzen vermag, mußte eine Erklärung für das Gesetz selbst
gefunden werden. Auch hier liefert die kinetische Theorie ein
leichtverständliches Bild. Der kristalline Körper ist, wie wir sehen werden,
eine etwas komplizierte Anordnung von Atomen, die aufeinander starke
Kräfte ausüben. Deshalb beginnen wir mit unseren Betrachtungen der
Einfachheit wegen bei einem Gas, wo diese Kräfte vernachlässigt werden
können. Nehmen wir also ein einfaches Gas unter einfachen Bedingungen,
wie etwa Helium bei Zimmertemperatur. Als wir über die Van-der-Waals-
Gleichung sprachen, sahen wir, daß die Anziehungskräfte zwischen den
Atomen erst beim kritischen Punkt und darunter wichtig werden. Da die
Zimmertemperatur 50mal höher als der kritische Punkt von Helium liegt,
können wir das Gas getrost als »ideal« ansehen. Das bedeutet, daß wir uns
nicht um Anziehungseffekte zu kümmern brauchen. Es kommt allein auf
die Bewegungsenergie an. Überdies stellt Helium insofern einen einfachen
Fall dar, als das Gas aus Einzelatomen und nicht aus Molekülen besteht
wie in den komplizierteren Fällen von Wasserstoff und Sauerstoff.
Im kinetischen Bild wird der thermodynamische Begriff der Temperatur
des Gases durch die mittlere kinetische Energie (½ m • v2) der Helium-
atome beschrieben (m ist die Masse eines Atoms und v seine mittlere
Geschwindigkeit). Diese Beziehung muß natürlich für jedes ideale Gas
gelten, welche Masse seine Atome auch immer besitzen, und sie ist daher
von fundamentaler Bedeutung. Unsere Maßeinheit (ein Grad) für die Tem-
peratur war völlig willkürlich als der hundertste Teil des Temperaturinter-
valls zwischen dem Schmelzpunkt des Eises und dem Siedepunkt des
Wassers gewählt worden. Der Proportionalitätsfaktor, der den Bewegungs-
zustand der Gasatome mit dem Grad verknüpft, muß daher eine Natur-
123
konstante sein. Man hat sie Boltzmann zu Ehren Boltzmann-Konstante
genannt und das Symbol k für sie gewählt. Jedes unserer Heliumatome
besitzt also die mittlere kinetische Energie ½ k • T. Im Gas können sich die
Atome frei in alle Raumrichtungen bewegen, und da der Raum dreidimen-
sional ist, drückt man die Bewegung jedes Atoms am günstigsten durch die
drei Raumkoordinaten aus, die man gewöhnlich mit x, y und z bezeichnet.
Mit anderen Worten: Ein Atom, das sich in irgendeiner Richtung durch den
Raum bewegt, tut das zu einem gewissen Teil in die x-Richtung, zu einem
anderen Teil in die y-Rich-tung und schließlich auch noch in die z-
Richtung. Durch Aufzählung dieser drei Bewegungskomponenten ist sein
Bewegungszustand vollständig beschrieben. Das vereinfacht die Dinge,
und daher wurde ½ k • T als die mittlere kinetische Energie eines Helium-
atoms bei der Temperatur T in der x-Richtung definiert. Natürlich hat es
eine gleich große mittlere kinetische Energie jeweils auch in der y- und in
der z-Richtung, so daß seine gesamte kinetische Energie 3/2 k • T beträgt.
In der für die Bewegung eines Teilchens gewählten Sprache sagen wir,
daß unsere Heliumatome im gasförmigen Zustand drei »Freiheitsgrade«
besitzen und daß auf jeden die kinetische Energie ½ k • T entfällt. Diese
Bezeichnungsweise ist in komplizierten Fällen von großem Nutzen, wenn
man etwa aus mehreren Atomen bestehende Moleküle oder Materie im
festen Aggregatzustand betrachtet. Ein anderer Aspekt dieses Bilds, der
später große Bedeutung erlangen wird, ist das sogenannte
»Äquipartitionsprinzip«. Es besagt, daß die Energie auf alle Freiheitsgrade
gleich verteilt ist, eine Behauptung, die zwar in unserem Fall des idealen
Gases trivial erscheint, die aber eingeschränkt werden muß, sobald man die
Energie als gequantelt betrachtet.
Die Boltzmann-Konstante k bezieht sich auf die Energie eines einzelnen
Atoms im Gas und ist daher sehr klein, wenn man sie in den Einheiten
unserer makroskopischen Messungen ausdrückt, die sich auf menschliche
Erfahrung stützen. Sie hat den Wert 3,28 • 10-24 cal pro Grad. Für
Meßzwecke betrachtet man besser nicht einzelne Atome, sondern
Atommengen, die makroskopisch vorkommen. Offenbar wählt man als
Substanzmenge am günstigsten das Grammatom, das wir bei der

124
Interpretation des Gesetzes von Dulong und Petit benutzten. Per
definitionem ist die Anzahl von Atomen in einem Grammatom einer
Substanz immer dieselbe, unabhängig davon, ob wir es mit Helium, Eisen
oder Uran zu tun haben. Sie ist nach dem Italiener Amadeo Avogadro
benannt und wird mit dem Symbol N bezeichnet. Ihr Wert ist 6,06 • 1023.
Wenn wir k mit N multiplizieren, bekommen wir (3,28 • 10-24 • 6,06 • 1023)
1,9858 cal pro Grammatom und Grad. Diese gewöhnlich durch das Symbol
R bezeichnete Zahl heißt die universelle Gaskonstante, weil sie als
Konstante in dem Gesetz von Gay-Lussac (p • V = R • T) auftaucht, wenn
man es auf ein Grammatom eines Gases bezieht.
Damit kann der Energieinhalt von Heliumgas jetzt als 3/2 R • T
geschrieben werden. Das liefert uns sofort 3/2 R als spezifische Wärme
eines idealen Gases, denn das ist die zur Temperatursteigerung um einen
Grad (T ändert sich um 1) benötigte Energie. R ist, wie wir gerade gesehen
haben, etwa gleich 2, so daß sich die spezifische Wärme von Helium zu
rund 3 Kalorien pro Grammatom und Grad berechnet. Tatsächlich ergeben
die Experimente denselben Wert.
Nach dieser Übung an einem einfachen Beispiel können wir uns jetzt
dem komplizierteren eines festen Zustands zuwenden. Hier sind die Atome
in einem Kristallgitter regelmäßig angeordnet. Daher wird jedes Atom
durch die von seinen Nachbarn ausgehenden Anziehungskräfte auf seinem
Platz festgehalten. An diesem Platz kann es sich bis zu einem gewissen
Grad hin und her bewegen, wenn auch nicht so frei wie in einem Gas oder
einer Flüssigkeit. Wir können uns die Atome in einem Kristall gleichsam
als eine regelmäßige Anordnung von Billardkugeln vorstellen, die durch
Gummibänder oder kleine Federn miteinander verbunden sind (Abb. 20).
Das sind die Kräfte, die die Atome an ihren Plätzen halten. Wenn wir in
diesem Modell ein Atom ein wenig aus seiner Gleichgewichtslage
herausziehen und es dann loslassen, beginnt es unter der Wirkung der
Federn zu schwingen. Im wirklichen Kristall schwingen alle Atome
ununterbrochen und ungeordnet um ihre Gleichgewichtslagen. Diese
Bewegung stellt die Temperatur des festen Körpers dar, genau wie die freie
Bewegung der Atome in einem Gas ein Maß für dessen Temperatur ist.

125
20 Wie elastische Federn halten die Anziehungskräfte die Atome im Kristallgitter fest.

126
Der Unterschied zwischen einem Gas und einem Kristall besteht
natürlich darin, daß im Kristall die Atome immer an ihre Plätze
zurückkehren müssen, d. h., daß sie außer ihrer kinetischen Energie auch
noch potentielle Energie besitzen. Daß das so sein muß, kann man an dem
einfachen Beispiel eines Pendels einsehen. Auch das Pendel muß immer
wieder in seine Ruhelage zurückkehren, während es, gehalten durch seine
Schnur und durch die Erdanziehung, hin- und herschwingt. Wenn es den
tiefsten Punkt seines Weges passiert, besitzt es die höchste
Geschwindigkeit, d. h. maximale kinetische Energie. An jedem der beiden
Endpunkte seiner Schwingung, an denen es für einen Augenblick zur Ruhe
kommt, ist es dem Erdmittelpunkt ein bißchen weiter entrückt und hat
daher potentielle Energie gewonnen. Ebenso hat das Atom, wenn es bei
seiner Schwingung die Gleichgewichtslage passiert, kinetische Energie und
am Umkehrpunkt potentielle Energie.
Das Erwärmen eines festen Körpers bedeutet daher eine Verstärkung
der Atomschwingungen. Wir können diesen Fall jetzt ähnlich behandeln
wie den des Gases. Wieder haben wir drei Freiheitsgrade für die kinetische
Energie, da die Atome in alle Richtungen des dreidimensionalen Raums
schwingen können. Hinzu kommen aber noch drei weitere Freiheitsgrade,
in denen die Atome potentielle Energie gewinnen können, so daß sich
insgesamt sechs ergeben. Um einen festen Körper zu erwärmen, muß man
ihm also die Energie von 6 mal ½ R zuführen, das heißt ungefähr (6 • ½ •
2) 6 Kalorien pro Grammatom und Grad. Dies ist natürlich die
geheimnisvolle Zahl, die Dulong und Petit entdeckten. Wir haben sie jetzt
mittels der Atomschwingungen erklärt.
Nun können wir uns jenem Problem zuwenden, daß den Schlüssel zum
Verständnis des Verhaltens der Materie nahe dem absoluten Nullpunkt
lieferte, nämlich dem Versagen des Gesetzes von Dulong und Petit.
Dewars grobe Messungen hatten gezeigt, daß die spezifische Wärme fester
Körper bei tiefen Temperaturen viel kleiner als 6 cal pro Grammatom und
Grad ist, aber das war nicht die erste Abweichung vom Gesetz von Dulong
und Petit, die man entdeckt hatte. Bereits 1876 untersuchte Wilhelm
Friedrich Weber die spezifische Wärme des Kohlenstoffs in den beiden

127
Erscheinungsformen Diamant und Graphit. Er stellte fest, daß in beiden
Fällen die bei Zimmertemperatur gemessenen Werte unter dem des
Gesetzes von Dulong und Petit liegen, wobei die Abweichung beim
Diamant ausgeprägter ist. Als er seine Untersuchungen zu höheren
Temperaturen hin ausdehnte, entdeckte er, daß zuerst Graphit und dann
auch Diamant eine spezifische Wärme von 6 cal pro Grammatom und Grad
zeigen, wenn sie nur genügend erhitzt worden sind.
Als Weber ein Vierteljahrhundert später diese Ergebnisse in seinen
Züricher Vorlesungen erwähnte, erregten sie das Interesse eines jungen
Studenten namens Albert Einstein. Einstein erkannte, daß das Versagen
des Gesetzes von Dulong und Petit bei tieferen Temperaturen, wie es von
Weber an Kohlenstoff und später allgemeiner von Dewar gefunden worden
war, an die Grundfesten der Physik rührte, konnte aber damals noch nicht
sehen, was an den überkommenen Vorstellungen nicht stimmte. Etwa zur
selben Zeit lieferte jedoch Max Planck in Berlin den Schlüssel zu diesem
Geheimnis.
Plancks Veröffentlichung, die die tiefstgreifende Revolution in der
modernen Physik auslösen sollte, wurde im Dezember 1900 vor der
Berliner Physikalischen Gesellschaft verlesen. Sie löste eins der
Grundprobleme, dem die Physiker jener Tage gegenüberstanden, und
obgleich Planck in der Einleitung keinen Zweifel daran ließ, daß er sich der
weitreichenden Bedeutung seines Ergebnisses voll bewußt war, empfand er
persönlich Abneigung dagegen. Max Planck war der Sproß einer alten und
bedeutenden Familie von Gesetzgebern, deren Geist er geerbt hatte. Die
strengen und allgemeinen Gesetze der Thermodynamik bargen für ihn eine
besondere Faszination, die sich auf das Gefühl stützte, sie besäßen jenen
»absoluten« Charakter, den jedes Naturgesetz seiner Meinung nach
aufweisen sollte. Er hegte tiefes Mißtrauen gegenüber Boltzmanns
statistischer Deutung, weil sie sich auf Wahrscheinlichkeit gründet und
deshalb von der Darlegung der Wahrheit in ihrer absoluten Form
abzulenken schien. Während Planck selbst Boltzmann nie direkt angriff,
ermutigte er wahrscheinlich Zermelo, einen seiner Schüler, zur Veröffent-
lichung einer Arbeit, die die von Boltzmann auf die Thermodynamik

128
angewandten statistischen Methoden scharf kritisierte. Natürlich hatte
Boltzmann recht. Zermelo und Planck hatten die Bedeutung von
Boltzmanns Vorgehen völlig verkannt. In seiner Antwort, in der er seine
statistische Methode verteidigte, sagte Boltzmann einfach, daß Zermelo
womöglich die Würfel für gefälscht halten würde, wenn er nach 1000
Würfen noch keine Sechs bekommen hätte, da die Wahrscheinlichkeit für
ein solches Ereignis nicht Null ist. Plancks äußere Erscheinung unterstrich
seine strenge Geisteshaltung. Sein schwarzer Anzug, das gestärkte Hemd
und die schwarze Fliege hätten ihm das Aussehen eines typischen
preußischen Staatsdieners gegeben, wären nicht die durchdringenden
Augen unter der mächtigen Kuppel seines Schädels gewesen.
Das Problem, dem Planck sich zuwandte, hatte bereits eine Anzahl
ausgezeichneter Physiker zur Resignation gezwungen, die sich alle wegen
seiner grundlegenden Natur damit beschäftigt hatten. Jeder erwärmte
Gegenstand strahlt elektromagnetische Energie aus. Die Strahlung erstreckt
sich über ein Spektrum von Wellenlängen, deren einige wir als sichtbares
Licht oder als Wärmeempfindung bemerken, während andere von unseren
Instrumenten als Röntgenstrahlen, ultraviolette Strahlen oder Radiowellen
registriert werden. Bei all diesen Strahlungen handelt es sich im Grunde
um dieselbe Erscheinung; sie unterscheiden sich nur in der Wellenlänge
oder, was auf dasselbe hinausläuft, in der Frequenz. Da sich alle diese
Wellen mit Lichtgeschwindigkeit ausbreiten, ist die Frequenz einfach die
Zahl der Wellen einer bestimmten Wellenlänge, die pro Sekunde
ausgesandt werden. Dementsprechend ist die Frequenz, oft auch
Wellenzahl genannt, für eine lange Welle klein und für eine kurze groß, da
weniger lange Wellen auf die vom Licht in einer Sekunde zurückgelegte
Strecke passen als kurze.

129
21 Die Untersuchung der Strahlungskurven führte zu Plancks Quantentheorie.

130
Erstaunlicherweise hängt diese Strahlung, die von den
Experimentatoren des 19. Jahrhunderts entdeckt wurde, überhaupt nicht
von der Art des strahlenden Gegenstands ab. Ob es ein Kupferblock, ein
Stück Kohle oder auch eine Gaswolke ist, die Gesamtmenge der
ausgesandten Straten, wie auch die Verteilung der Energie auf die
verschiedenen Frequenzen, hängt nur von der Temperatur und von nichts
anderem ab. Das läßt keinen Zweifel daran, daß hier ein ganz
fundamentales Prinzip am Werk sein muß, und man sollte vermuten, daß
es sich aus der Art ablesen läßt, in der die entsprechenden physikalischen
Größen miteinander verknüpft sind. Diese Größen sind die absolute
Temperatur, die Energie und die Frequenz. Sorgfältige Messungen hatten
eine Reihe von Glockenkurven ergeben, die die ausgesandte Energie als
eine Funktion der Frequenz bei verschiedenen Temperaturen darstellen.
Alle diese Kurven haben eine ähnliche, wenn auch nicht dieselbe Gestalt
(Abb. 21), und die Fläche unter jeder Kurve gibt die bei der
entsprechenden Temperatur ausgestrahlte Gesamtenergie an. Ein weiterer
wichtiger Punkt, der für uns von besonderem Interesse sein wird, ist der,
daß bei Temperaturerniedrigung nicht nur die Gesamtenergie abnimmt,
sondern zusätzlich die Energie mehr und mehr in den niedrigen
Frequenzen ausgestrahlt wird. Diese Erscheinung ist uns in der Tat ganz
vertraut; wir alle wissen, daß die Farbe eines sich abkühlenden
Feuerhakens sich allmählich von Orange in Rot verwandelt, d. h. von
höheren zu niederen Frequenzen.
Gegen Ende des 19. Jahrhunderts hatte man einige Teillösungen des
Problems gefunden, aber eine Gleichung, die alle drei Größen, Temperatur,
Energie und Frequenz, miteinander verknüpfte und zu den experimentellen
Ergebnissen passende Lösungen besaß, stand noch aus. Als immer mehr
experimentelle Ergebnisse anfielen, verschlechterte sich die Überein-
stimmung mit den existierenden Formeln, anstatt sich zu verbessern; und
besonders beunruhigend war eine Abweichung vom Äquipartitionsprinzip.
Während andere ihre Theorien auf Betrachtungen der Energie stützten,
versuchte Planck, der sich dem Problem vom Standpunkt der
Thermodynamik her näherte, die Strahlung mit der Entropie in

131
Zusammenhang zu bringen. Er kam sofort zu ermutigenden Ergebnissen,
aber seine Kurve paßte immer noch nicht sehr gut. Das wurde schlimmer,
als den Experimentatoren Rubens und Hagen in Berlin Messungen im
Infrarotbereich niedriger Frequenzen glückten, die bis dahin nicht hatten
untersucht werden können. In diesem Stadium erkannte Planck die
Bedeutung der statistischen Methode Boltzmanns, die sich als Schlüssel
zur Lösung erwies. Als er diesen Schritt getan hatte, konnte er eine
Gleichung anschreiben, deren Lösungen über den ganzen Temperatur- und
Wellenlängenbereich ausgezeichnet zu den Ergebnissen paßten.
Plancks Lösung war zwar so vollkommen, daß an ihrer Richtigkeit kein
Zweifel bestehen konnte, besaß aber, wie es ihm schien, einen seltsamen
Makel. Die Energie war in ihr nicht direkt mit der Frequenz verknüpft,
sondern über einen Zahlenfaktor. Planck betrachtete diese seltsame
Beziehung zunächst als eine mathematische Unschönheit, die durch
geeignete Umschreibung seiner Formel beseitigt werden könnte. Was ihm
selbstverständlich erschien, erwies sich jedoch als völlig unmöglich.
Immer wenn er den Faktor aus seiner Gleichung hinausgeworfen hatte, war
auch die Übereinstimmung mit den experimentellen Ergebnissen
verschwunden. Ihm blieb nur der Schluß, daß dieser Faktor für die
Interpretation der Strahlung wesentlich und von grundlegender Bedeutung
sein mußte. Er mußte die Gleichung in der Form stehen lassen, in der sie
sich zuerst aus seinen Berechnungen ergeben hatte. Sie enthielt die Energie
e in Form der Frequenz, die gewöhnlich mit dem griechischen Buchstaben
v bezeichnet wird, multipliziert mit einer Konstante, für die er das Symbol
h einführte, also als e = h • v.
Der Sinn dieser Beziehung änderte das Aussehen der Physik von Grund
auf. Sie besagt, daß die Energie, die bis dahin als ein strukturloses Fluidum
angesehen worden war, atomistischer Natur ist. Wenn sie von einem
heißen Körper ausgestrahlt wird, erscheint sie nicht als ein
ununterbrochener Strom, der beliebig zerteilt werden kann, sondern als
etwas, das in bestimmten Einheiten abgegeben wird, deren jede die Größe
der mit h multiplizierten Frequenz besitzt. Aus Plancks Strahlungsformel
folgt, daß Energie immer in bestimmten und unteilbaren Paketen, den

132
sogenannten Quanten, abgegeben oder aufgenommen wird. Die Größe
dieser Quanten hängt von der Frequenz der Strahlung ab; sie sind groß für
hohe Frequenzen, d. h. für kurze Wellenlängen, klein für niedere
Frequenzen.
Die gequantelte Struktur der Energie ist deshalb nicht früher erkannt
worden, weil die Konstante h, ausgedrückt in makroskopischen Einheiten,
sehr klein ist. Sie hat die Form einer mit der Zeit multiplizierten Energie.
Ihr Wert ist von der Größenordnung 10-34 Kalorien mal Sekunden. Das
bedeutet, daß eine bei Zimmertemperatur freigesetzte Kalorie aus mehr als
Millionen mal Millionen mal Millionen Quanten besteht. Diese Struktur
der Energie ist so feinkörnig, daß die einzelnen Quanten auch von unseren
empfindlichsten Meßinstrumenten für Wärmemengen nicht registriert
werden. Die einzelnen Quanten sind zwar bei makroskopischen
Beobachtungen unsichtbar und nicht so wichtig, jedoch von größter
Bedeutung, wenn wir die von einem einzelnen Atom aufgenommene oder
abgegebene Energie betrachten.
Bei unserer Erörterung der spezifischen Wärme eines festen Körpers
interpretierten wir das Gesetz von Dulong und Petit mit Hilfe der
Schwingung eines einzelnen Atoms im Kristallgitter. In diesem
Zusammenhang besagt das Äquipartitionsprinzip, daß die Energie auf alle
Freiheitsgrade in der Substanz gleichmäßig verteilt wird. Das ist jedoch
nur richtig unter der Annahme der klassischen Physik, daß die Energie
beliebig fein unterteilt werden kann. Offenbar sieht das ganz anders aus,
wenn Energie nur in Form unteilbarer Quanten verfügbar ist. Hier taucht
nun Einstein in unserer Geschichte auf.
Die Quantentheorie war ein Sieg, den Plancks ungeheure intellektuelle
Aufrichtigkeit über seinen eigenen Glauben erfocht. Die beiden Schritte,
die er zur Aufstellung seiner Strahlungsformel tun mußte, waren ihm
gleichermaßen unangenehm. Zuerst mußte er die Richtigkeit der
statistischen Methode Boltzmanns zugeben und damit die Bedeutung von
Wahrscheinlichkeitsüberlegungen in der Physik hinnehmen, die seinem
Verlangen nach absoluten Naturgesetzen zuwiderliefen. Dann mußte er die
diskontinuierliche und atomistische Natur der Energie entdecken, obwohl

133
er sogar dem atomistischen Aspekt der Materie immer sorgfältig
ausgewichen war, da er ihn als weniger grundlegend angesehen hatte als
die kontinuierlichen Größen der klassischen Thermodynamik. Der
erzkonservative Exponent der Physik des 19. Jahrhunderts war zum
Revolutionär wider Willen geworden, zu einem Erneuerer, der das stolze
Gebäude der klassischen Physik zum Einsturz gebracht hatte. Man versteht
daher, daß er über die wissenschaftliche Revolution, die auszurufen sein
glänzender Intellekt ihn gezwungen hatte, wenig erfreut war. Tatsächlich
geschah während der nächsten fünf Jahre nichts, und dann griff nicht
Planck, sondern Einstein zur Quantentheorie.
In Einsteins Verstand scheinen die Energiequanten zum erstenmal mit
Leben erfüllt worden zu sein. Er betrachtete sie als einzelne »Lichtpfeile«
und benutzte sie für eine schöne und eindrucksvolle Erklärung des
photoelektrischen Effekts. Einstein war damals in Bern, und Planck in
Berlin nahm davon nicht Kenntnis. Zwei Jahre darauf veröffentlichte
Einstein seine glänzende Erklärung der spezifischen Wärmen bei tiefer
Temperatur, die sich auf die Quantentheorie stützte, und etwa zur selben
Zeit seine erste Arbeit zur Relativitätstheorie. Planck begrüßte diese als
einen der hervorragendsten Fortschritte der Physik, schwieg sich aber zu
Einsteins erfolgreicher Demonstration der fundamentalen Bedeutung seiner
eigenen Quantentheorie völlig aus. Man hat gesagt, Plancks Abneigung,
die Quantentheorie zu fördern, sei der Tatsache zuzuschreiben, daß er ihre
volle Bedeutung nicht erkannt habe. Niemand, der Plancks erste Arbeit
gelesen hat, kann das glauben. Die Erklärung für sein seltsames Verhalten
ist vielmehr in der kritischen Schärfe seines Verstands zu suchen, der nicht
nur die Quantentheorie gegen seine eigenen Überzeugungen entwickelte,
sondern sich auch der Unvollkommenheit dieser Theorie schmerzlich
bewußt war. Er wußte besser als jeder andere, daß in der Quantenkonstante
h eine tiefgreifende Bedeutung liegen muß, die zu entdecken ihm nicht
gelungen war. Mehr als ein Vierteljahrhundert mußte vergehen, bis in
jenem glorreichen Jahr 1927 die Wahrheit ans Licht kam. Während seines
langen Lebens, in dem er manch tragischen persönlichen Verlust erlitt,
brach die scheinbar festgefügte Welt der Physik und der menschlichen

134
Werte, in der Planck aufgewachsen war, zusammen. Aber er erlebte dabei
den Triumph seiner Idee.Wir erwähnten bereits das Problem, das Einstein
als erster erkannt hat: die Unvereinbarkeit des Äquipartitionsprinzips mit
der Energiequantelung. Wenn eine Substanz erwärmt wird, kann die
Energie von den Atomen nur in Form bestimmter Quanten aufgenommen
werden. Die Eigenart dieser Quanten liegt in ihrer Abhängigkeit von der
Frequenz v, die ihre Größe bestimmt. Die Temperatur eines Kristallgitters
wird durch die Energie gegeben, mit der die Atome in ihm schwingen, und
eine Temperaturzunahme bedeutet eine Verstärkung der Schwingung.
Wenn wir einem Pendel Energie zuführen, vergrößern wir seine
Schwingungsweite, seine Amplitude. Ungeändert bleibt jedoch, wie Galilei
an einem Kronleuchter im Dom zu Pisa beobachtet hatte, die für jede
Schwingung benötigte Zeit, die Frequenz. Ähnlich ist die Schwingungs-
frequenz der Atome im Gitter immer dieselbe, wie stark sie auch
schwingen. Sie ist für alle Atome im Kristall gleich, variiert aber von
Substanz zu Substanz. Sie ist größer für leichte Atome, besonders dann,
wenn die Anziehungskräfte, die es im Gitter festhalten, stark sind.
Einstein benutzte dieses Modell eines Kristalls als einer großen Anzahl
mit derselben charakteristischen Frequenz schwingender Atome und
bemerkte, daß es eine große Ähnlichkeit mit der von Planck bei der
Ableitung der Strahlungsformel benutzten mathematischen Formulierung
aufweist. Auch dort waren Abweichungen vom Äquipartitionsprinzip
aufgetreten, besonders wenn kleine Frequenzen vorherrschten, d. h. bei
tiefen Temperaturen.
Einstein gründete seine Theorie der spezifischen Wärmen auf die
Annahme, daß die charakteristische Schwingungsfrequenz der Atome,
nennen wir sie v0, die Größe der von der Substanz aufnehmbaren Quanten
bestimmt. Das heißt, jedes Atom kann durch Aufnahme von
Energiepaketen der Größe 1 • hv0, 2 • hv0, 3 • hv0 usf. in stärkere
Schwingung versetzt werden, kann aber nicht, sagen wir 2,5 • hv0 oder, und
das ist von besonderer Bedeutung, kleinere Energiemengen als hv0
aufnehmen.
Bei genügend hohen Temperaturen schwingen alle Atome stark, jedes

135
mit der Energie einiger hv0 und diese läßt sich ohne Schwierigkeit
gleichmäßig auf alle Freiheitsgrade im Kristall verteilen. Das ändert sich
jedoch bei tieferen Temperaturen, wenn die mittlere Energie pro Atom auf
1 • hv0 absinkt. Jetzt kann die Energie, die sich ja nicht weiter unterteilen
läßt, nicht mehr gleichmäßig verteilt werden. Man kann berechnen, daß ein
Kupferatom in seinem Gitter mit einer Frequenz v0 von etwa 6,5 • 1012
Schwingungen pro Sekunde schwingt. Die Größen, die wir miteinander
vergleichen, sind das mit dieser Frequenz verbundene Energiequantum hv0
und die thermische (kinetische und potentielle) Energie kT pro
Freiheitsgrad. Da k wie h eine universelle Konstante ist, hängt diese
Energie nur von der absoluten Temperatur T ab. Solange diese, verglichen
mit hv0, groß ist, läßt sie sich leicht auf alle Freiheitsgrade gleichmäßig
verteilen, und das Gesetz von Dulong und Petit gilt. Obwohl die Energie
gequantelt ist, bemerken wir dies nicht, weil die Struktur der
Energiequantelung, die durch die Größe von hv0 gegeben ist, zu feinkörnig
ist, um in dem großen kT wahrnehmbar zu sein.
Das gilt jedoch nicht mehr, wenn die Temperatur niedrig genug und kT
von derselben Größe wie hv0 geworden ist, da jetzt auf einen Freiheitsgrad
entweder das kleinste Energiequantum oder überhaupt keine Energie
entfällt. Wenn wir diese Bedingung durch die Gleichung h • v0 = k • T
ausdrücken, können wir als Temperatur, bei der dies eintritt, T = hv0/k (T =
hv0 geteilt durch k) berechnen. Setzen wir für h, k und die Frequenz v0 in
Kupfer die entsprechenden Werte ein (6,6 • 10-27 • 6,5 • 1012/ 1,38 • 10-16
erg/grad), dann erhalten wir für T den Wert 300° K. Zunächst scheint das
zu bedeuten, daß der Kupferkristall unterhalb 300° K, also etwa bei
Zimmertemperatur, überhaupt keine Energie mehr aufnehmen kann und
seine spezifische Wärme plötzlich verschwinden muß. Die thermo-
dynamischen Größen sind jedoch, wie Boltzmann aufgezeigt hat, immer
statistischer Natur. Das bedeutet, daß, obwohl die Größe der Energie-
quanten unverändert bleibt und nicht alle Freiheitsgrade eins erhalten
können, doch immer eine endliche Wahrscheinlichkeit dafür besteht, daß
einige Freiheitsgrade eins erhalten. Das ist wie in einer Lotterie mit einem
Auto als Gewinn. Das Auto kann nicht unter die Losbesitzer aufgeteilt

136
werden. Nur einer wird es gewinnen, aber alle haben dieselbe Chance,
dieser eine zu sein. Die Chance eines Freiheitsgrads, ein Energiequantum
hv0 zu bekommen, vermindert sich stetig mit abnehmendem kT, d. h. mit
sinkender Temperatur. Je niedriger die Temperatur des Kupferkristalls ist,
um so weniger Quanten kann es aufnehmen, d. h., um so kleiner ist die
spezifische Wärme.
Diese Abweichung von Dulongs und Petits Gesetz, also das Absinken
der spezifischen Wärme bei tiefen Temperaturen unter den Wert von 6 cal
pro Grammatom und Grad, war von Weber und Dewar beobachtet worden.
Dieses scheinbar unbegreifliche Phänomen wurde jetzt von Einstein
aufgrund der Energiequantelung erklärt. Seine Theorie ging viel weiter, als
nur eine qualitative Erklärung zu geben. Er berechnete mit Hilfe von
Plancks Formel die Wahrscheinlichkeit, mit der ein Freiheitsgrad bei einer
bestimmten Temperatur ein Energiequantum aufnimmt, und konnte eine
Kurve auftragen, die die spezifische Wärme als Funktion der Temperatur
angibt. Wie schon erwähnt, ist der feste Zustand von komplizierter
Struktur, und Einsteins Modell war zwangsläufig vereinfacht. Zusätzlich
zur Schwingung einzelner Atome im Gitter können ganze Atomgruppen
gemeinsam schwingen, die beliebig groß sein können. Daher können statt
nur einer charakteristischen Frequenz noch kleinere Schwingungsfrequen-
zen im Gitter auftreten und kleinere Energiequanten aufnehmen. Eine
etwas bessere Schätzung wurde sieben Jahre später von Debye angegeben,
aber selbst diese ist noch zu einfach, als daß sie für alle Temperaturen
gelten könnte.
Da wir uns nur für das Prinzip der Quantelung der spezifischen Wärme
interessieren, können wir diese Verfeinerungen den Experten auf diesem
Gebiet überlassen. Sie fügen dem grundlegenden Fortschritt der Theorie
Einsteins, die für unsere Zwecke völlig adäquat ist, nichts wesentlich
Neues hinzu. Die Formel T – hv0/k führt von der Frequenz v0, die für eine
bestimmte Substanz charakteristisch ist, zu einer charakteristischen
Temperatur, die eine besondere Bedeutung für diese Substanz hat. Bei
dieser Temperatur nämlich wird die thermische Energie pro Freiheitsgrad
der Größe eines Energiequantums gleich. Unterhalb dieser Temperatur

137
nehmen die Wahrscheinlichkeit, daß die Freiheitsgrade jeweils ein
Quantum aufnehmen, und damit auch die spezifische Wärme rasch ab. Für
Kupfer mit einer Frequenz von 6,5 mal 1012 Schwingungen pro Sekunde
erhalten wir eine charakteristische Temperatur von 300° K. Wie bereits
erwähnt, hängt die Frequenz von der Masse des Atoms und der Stärke der
Anziehungskräfte ab, die es auf seinem Platz festhalten. Das
Kohlenstoffatom ist fünfmal leichter als das des Kupfers und schwingt
daher viel schneller. Die charakteristische Temperatur liegt also viel höher.
Die beiden Kohlenstoffmodifikationen, Graphit und Diamant, unterschei-
den sich in ihrer Gitterstruktur und daher in der Stärke der Anziehungs-
kräfte. Wie die große Härte des Diamants andeutet, sind sie in ihm stärker
als im Graphit. Das bedeutet, daß die Frequenz der Gitterschwingungen im
Diamanten höher ist; und die charakteristischen Temperaturen von
Diamant und Graphit sind 1850° K bzw. 1500° K.
Jetzt können wir die seltsamen Ergebnisse verstehen, die Weber für die
spezifische Wärme dieser beiden Substanzen erhielt. Der Diamant gehorcht
dem Gesetz von Dulong und Petit erst bei sehr hohen Temperaturen,
nämlich bei etwa 2000° K. Bei Zimmertemperatur ist die Wahrschein-
lichkeit für einen Freiheitsgrad, das erforderliche große Energiequantum
aufzunehmen, bereits ziemlich klein, und die spezifische Wärme beträgt
tatsächlich nur ein Viertel des klassischen Werts von Dulong und Petit. Sie
ist schon bei Zimmertemperatur streng gequantelt. Es ist ebenfalls klar,
warum Weber beim Diamanten größere Abweichungen feststellte als beim
Graphit. Andererseits liegen die charakteristischen Temperaturen der
meisten anderen Substanzen unterhalb von Zimmertemperatur, und ihre
spezifischen Wärmen sind bei Zimmertemperatur noch klassisch, eine
Tatsache, die Dulong und Petit zur Formulierung ihres Gesetzes führte. Ein
entgegengesetztes Extrem zum Diamanten ist Blei, das ein sehr schweres
Atom besitzt und in dem, wie seine Weichheit andeutet, die
Anziehungskräfte ziemlich klein sind. Es hat eine charakteristische
Temperatur von nur 95° K.
Während die charakteristischen Temperaturen, bei denen die spezifische
Wärme merklich unter den Wert von Dulong und Petit zu sinken beginnt,

138
für die einzelnen Substanzen sehr verschieden sind, ist nach Einsteins
Theorie zu vermuten, daß die Art, in der dieses Absinken erfolgt, für sie
alle etwa dieselbe ist. Das Theorem von Nernst hatte die Aufmerksamkeit
auf die spezifischen Wärmen bei tiefer Temperatur gelenkt, und Einstein
hatte eine allgemeingültige Formel für ihr Absinken vorausgesagt; jetzt
waren die Experimentatoren an der Reihe. Es ist interessant zu sehen, wie
nahe die entscheidenden Daten beieinanderliegen. Nernst verkündete den
dritten Hauptsatz 1906, 1907 veröffentlichte Einstein seine Theorie der
spezifischen Wärmen, und 1908 verflüssigte Kamerlingh Onnes in seinem
berühmten Leidener Laboratorium Helium.
Nernsts dynamische Persönlichkeit führte den experimentellen Angriff
an. Er war gerade Professor für physikalische Chemie in Berlin geworden
und machte sich sofort daran, spezifische Wärmen bei tiefen Temperaturen
zu bestimmen. Mit großem theoretischem Verständnis, das an Intuition
grenzte, verband er einen ausgeprägten Spürsinn für elegante
Experimentiertechnik. Er war ein Mann mit wenig Geduld, der immer
rasch zum Ziel kommen wollte. Einfache Experimente hatten deshalb
besonderen Reiz für ihn. Für Perfektionismus hatte er keine Zeit und
behauptete, ein Effekt sei der Untersuchung nicht wert, wenn er eine
größere Genauigkeit als zehn Prozent erfordere. Er war sich darüber klar,
daß dies eine Übertreibung war, aber sie kennzeichnet seine Einstellung
sehr gut. Die Methoden, mit denen man spezifische Wärmen bei
Zimmertemperatur bestimmte, waren für die Tieftemperaturarbeit völlig
untauglich, und Nernst löste das Problem durch die Erfindung des
Vakuumkalorimeters, einer einfachen Vorrichtung, die auf sehr geniale
Weise von den bei tiefen Temperaturen herrschenden physikalischen
Bedingungen Gebrauch machte. Wie perfekt seine Konstruktion war, sieht
man am besten an der Tatsache, daß sie noch heute, über ein halbes
Jahrhundert nach ihrer Erfindung, in Laboratorien überall auf der Welt und
im wesentlichen in ihrer ursprünglichen Form benutzt wird.
Nernst reiste nach Leiden, um Kamerlingh Onnes' berühmtes
Laboratorium zu besichtigen. Er war nicht nur von dessen einzigartigen
Möglichkeiten beeindruckt, sondern noch mehr von der komplizierten

139
Ausrüstung, und beschloß sofort, sich nicht auf eine derartig ausgefeilte
Experimentiertechnik einzulassen. Nernst wollte nicht möglichst tiefe
Temperaturen erreichen, sondern spezifische Wärmen messen. Es wäre
ganz schön, auf 1° K zu kommen, aber er war der Ansicht, es sei so wenig
über das Verhalten der Materie bei, sagen wir, 20° K bekannt, daß flüssiger
Wasserstoff für ihn ausreichen würde. Travers hatte bei der Beschreibung
seines Wasserstoffverflüssigers darauf hingewiesen, wie billig und einfach
er war. Diese Bemerkungen waren natürlich nur gemacht worden, um
Dewar zu irritieren, aber sie erweckten das Interesse von Nernst. Das war
genau das, was er suchte, und mit seinem treuen Mechaniker Hönow
begann er den Bau eines Wasserstoffverflüssigers nach seinen eigenen
Plänen. Dieser war wieder in Details genial konstruiert und hätte auch gut
funktioniert, wenn Hilfsgeräten wie dem Kompressor und den
Gasreinigern etwas mehr Aufmerksamkeit geschenkt worden wäre. Aber
Nernst konnte sich nicht damit abgeben, seine Ausrüstung bis ins letzte
auszutüfteln, und die Wasserstoffverflüssigung war in Berlin nicht wie in
Leiden eine Routinesache, sondern eine Kunst, in der es nur der
listenreiche und erfahrene Hönow zu einem gewissen Erfolg brachte.
Selbst zwanzig Jahre später, als ich für meine Arbeit auf ihre Dienste
angewiesen war, hatten Hönow und der Verflüssiger einander noch nicht
gut genug kennengelernt, um die Wasserstoffverflüssigung ganz ohne
Aufregung zu bewerkstelligen.
Nernst versammelte in seinem Laboratorium bald eine Schar
begeisterter Schüler, die er Physik und harte Arbeit lehrte. Sie verfluchten
und bewunderten ihn und erinnerten sich später stolz der Anleitung und
Inspiration, die er ihnen gegeben hatte. Unter ihnen waren zwei junge
Engländer: F. A. Lindemann, der später als Viscount Cherwell ein enger
Freund und Berater Winston Churchills wurde, und sein Bruder Charles.
Besonders F. A. Lindemann übernahm eine führende Rolle bei der
Untersuchung der spezifischen Wärmen und ihrer theoretischen Deutung.
Die Brüder spielten ausgezeichnet Tennis und widmeten diesem Sport
einen gewissen Teil ihrer Zeit, den sie durch Nachtarbeit im Laboratorium
wieder aufholten. Dennoch konnte Nernst sein Mißfallen nicht ganz

140
unterdrücken und offenbarte bemerkenswerte Geringschätzung des
Wettkampfsports, als er sagte: »Zwei erwachsene Männer jagen einem Ball
nach! Sie sind so reich, warum kaufen Sie sich nicht jeder einen?« Nernst
selbst schwärmte für die Natur und die Jagd, und als er das Patent seiner
Lampe für eine beträchtliche Summe glücklich verkauft hatte – es erwies
sich bald als kommerziell unbrauchbar –, kaufte er ein Gut. Seine
Ansichten über die Landwirtschaft sind interessant und ungewöhnlich.
Einmal ging er zu Weihnachten in den Kuhstall und fand ihn überraschend
warm. Er schloß, daß diese Wärme durch den natürlichen Stoffwechsel der
Kühe erzeugt wurde, verkaufte die Kühe und ließ statt dessen Teiche
anlegen, in denen er Karpfen züchtete. Er argumentierte, wenn für sein
Geld Fleisch produziert würde, sollte das ohne eine haarsträubend große
Zunahme der Entropie geschehen.
Nernst war ein Mensch voller Leben, der überraschende Ideen nur so
hervorsprudelte, und seine Persönlichkeit prägte sich allen seinen
Mitarbeitern auf. Die Menge der Arbeiten, die in jenen acht Jahren nach
1906 aus seinem Laboratorium kamen, war verblüffend. Als die Forschung
beim Ausbruch des Ersten Weltkriegs unterbrochen werden mußte, hatte
sich sein Theorem aus einer seltsamen neuen Hypothese in ein allgemein
anerkanntes und gut bestätigtes Gesetz der Thermodynamik verwandelt.
Die Voraussagen, die der dritte Hauptsatz erlaubte, hatten das Aussehen
der chemischen Technologie verändert, und, was für unsere Geschichte
wichtiger ist, die Physik der tiefen Temperaturen hatte ihren wahren Sinn
bekommen. Der Weg zu den neuen Vorstellungen war durch die
Erforschung der spezifischen Wärmen geebnet worden.

141
22 Der Abfall der spezifischen Wärmen bei tiefen Temperaturen wurde von Einstein
aufgrund der Quantentheorie erklärt.

142
Als die Messungen mit dem Vakuumkalorimeter die ersten Ergebnisse
lieferten, wurde offenbar, daß Einstein recht hatte. Es war ein dreifacher
Triumph: für seine Theorie, für Plancks Quantenhypothese und für Nernsts
Theorem. Als eine Substanz nach der anderen untersucht wurde, zeichnete
sich das allgemeine Schema genauso ab, wie es vorausgesagt worden war.
Mit fallender Temperatur sanken die spezifischen Wärmen früher oder
später unter den Wert des Gesetzes von Dulong und Petit und erreichten
bei Annäherung an den absoluten Nullpunkt allmählich verschwindend
kleine Werte. Mehr noch, bei allen Substanzen erfolgte dieses Absinken in
derselben Weise: Die Kurven neigten sich zunächst allmählich, fielen dann
steil ab und gingen schließlich bei den tiefsten Temperaturen wieder in
einen weniger steilen Abfall über. Diese Kurven der spezifischen, von der
Temperatur abhängigen Wärmen besaßen mit erstaunlicher Genauigkeit
die Form, die Einstein und Debye vorausgesagt hatten. Die für die
verschiedenen Substanzen charakteristischen Kurven unterscheiden sich
erheblich in der Temperatur, bei der der Abfall beginnt, da diese von der
charakteristischen Frequenz v0, abhängt, mit der das Atom im Gitter
schwingt.
Eine Reihe solcher Kurven für drei chemische Elemente zeigt die Abb.
22, aus der man ersieht, daß alle dieselbe form haben. Noch besser können
diese Formen verglichen werden, wenn man die spezifischen Wärmen der
verschiedenen Substanzen nicht gegen die absolute Temperatur aufträgt,
sondern gegen die durch die jeweilige charakteristische Frequenz dividierte
Temperatur. Dieselben spezifischen Wärmen wie in Abb. 22 sind in Abb.
23a aufgetragen, nur diesmal gegen T/v0 statt T als Abszisse. Der konstante
Faktor k/h ist nur aus Dimensionsgründen nötig. Jetzt liegen die Werte für
alle drei Elemente auf genau derselben Kurve. Sie verschwinden bei
Annäherung an den absoluten Nullpunkt und erreichen allmählich den
»klassischen« Wert von Dulong und Petit, wenn kT/hv0 größer als 1 wird.
Die Fläche unterhalb der Kurve der spezifischen Wärme in Abb. 23a, d.
h. die spezifische Wärme multipliziert mit der Temperatur, stellt die
thermische Energie dar. Die Fläche zwischen dieser Kurve und der
»klassischen« entspricht der Nullpunktsenergie. Man kann dasselbe

143
Ergebnis auch noch auf eine andere Weise betrachten, die die besondere
Bedeutung des dritten Hauptsatzes für das Tieftemperaturgebiet deutlicher
werden läßt. In Abb. 23b haben wir nicht die spezifische Wärme, sondern
die Energie gegen die Temperatur aufgetragen. Die ausgezogene Kurve
gibt die gesamte Energie der Substanz an. Sie beginnt am absoluten
Nullpunkt nicht bei Null, sondern bei einem endlichen Wert, nämlich der
Nullpunktsenergie. Die Energie nimmt mit steigender Temperatur zunächst
sehr langsam zu, da die spezifische Wärme in diesem Gebiet klein ist.
Dann wird der Anstieg steiler, wenn die spezifische Wärme in der Gegend
von (T/v0) • (k/h) = 1 rasch ansteigt, und schließlich wächst die Energie
proportional zur absoluten Temperatur in einer geraden Linie. Dies ist der
klassische Bereich des Gesetzes von Dulong und Petit, wo die spezifische
Wärme 6 cal pro Grammatom und Grad beträgt und jeder Freiheitsgrad
seinen Anteil ½ kT erhalten kann. Das erwähnte Verhalten der spezifischen
Wärme kann leicht mit dem der Energie verglichen werden, da wir beide in
derselben Weise gegen (T/v0) • (k/h) aufgetragen haben.
Das Verhalten der Energie, wie man es in den Tagen der klassischen
Thermodynamik vor Nernsts Theorem erwartet haben würde, zeigt die
punktierte Linie. Sie ist einfach eine Verlängerung der geraden Linie bis
zum absoluten Nullpunkt hinab und geht, wie Amontons erwartet hatte, am
absoluten Nullpunkt durch Null, d. h. läßt keine Nullpunktsenergie zu.
Durch eine rote Kurve ist die thermische Energie angegeben, also jene
Wärmemenge, die man zur Steigerung der Temperatur einer Substanz
aufwenden muß. Sie ist für uns deshalb wichtig, weil sie jene Größe in
unserem Energiediagramm ist, die man tatsächlich mißt. Die ausgezogene
Kurve der Gesamtenergie erhält man dann, indem man zu der thermischen
Energie die Nullpunktsenergie addiert.
Bis jetzt wurde der Begriff »tiefe Temperaturen« von uns etwas lässig
zur Beschreibung eines Gebietes benutzt, das unterhalb des uns vertrauten
Temperaturgebiets liegt und in dem wir unsere meisten Beobachtungen
durchführen.

144
23 Die Energiequantelung führt zu Abweichungen von den klassischen Begriffen der
spezifischen Wärme (a) und der Energie (b), da sich aus ihr eine Restenergie ergibt, die
von der Substanz auch am absoluten Nullpunkt noch zurückgehalten wird.

Nichts hat angedeutet, daß diesen tiefen Temperaturen irgendeine


besondere Bedeutung zukäme, außer daß eben alles kälter ist, a priori gibt
es keinen Grund zu der Erwartung, daß sich das Aussehen der Materie nur
deswegen grundlegend ändern sollte, weil sie abgekühlt wurde. Hier greift
nun der dritte Hauptsatz der Thermodynamik entscheidend ein. Das
Energiediagramm zeigt, daß bei hohen Temperaturen die Summe aus
thermischer und Nullpunktsenergie die Gesamtenergie der Substanz ist.

145
Natürlich muß die Existenz der Nullpunktsenergie sich im Verhalten der
Materie bemerkbar machen, da sie der Substanz nicht entzogen werden und
daher am Energieaustausch nicht teilnehmen kann. Andererseits ist ihr
Einfluß bei genügend hohen Temperaturen nicht feststellbar, da die
thermische Energie ihren klassischen Wert erreicht hat.
Es muß jedoch eine tiefgreifende Wandlung eintreten, wenn wir in den
Bereich kommen, in dem die thermische Energie auf den Wert der
Nullpunktsenergie oder noch darunter abgesunken ist. Unser
Temperaturdiagramm zeigt deutlich, daß die neuen nichtklassischen
Aspekte im Verhalten der Materie etwa in der Gegend der halben
»charakteristischen« Temperaturen, d. h. bei ½ (T/v0) • (k/h) wichtig
werden. So läßt sich mit Hilfe des Theorems von Nernst der Bereich der
tiefen Temperaturen sehr gut als jener definieren, in dem die
Nullpunktsenergie im Energieinhalt der Substanz überwiegt. Tatsächlich
unterscheidet sich das Verhalten der Materie bei tiefen Temperaturen, wie
Einstein in seiner genialen Deutung der spezifischen Wärmen zeigte,
gründlich von dem bei normalen Temperaturen, da die Energiequantelung
sich bemerkbar macht.
Das Quantenprinzip hatte sich in Plancks Strahlungsformel zu indirekt
gezeigt, als daß es sofort den fundamentalen Bruch mit der klassischen
Physik enthüllt hätte. Planck selbst, der sich der Folgerungen daraus
bewußt war, hatte die neue Vorstellung nicht allzu laut verkündet, teilweise
deshalb, weil er den Bruch ungern sah, hauptsächlich aber, weil er fühlte,
daß seine Arbeit unvollständig geblieben war. Außerdem hatte der kleine
Wert von h, durch den die Energie eine so feinkörnige Struktur erhält,
vermuten lassen, daß die Quantelung sich auf makroskopische
Erscheinungen nicht auswirken würde. Nernst und Einstein hatten die Lage
geändert. Messungen makroskopischer und so konventioneller Größen wie
der spezifischen Wärme hatten sich jetzt als der Quantelung unterworfen
erwiesen. Planck war einer der ersten, die dies bemerkten, und er begrüßte
den dritten Hauptsatz der Thermodynamik als die wichtigste Manifestation
des Quantenprinzips.
Tieftemperaturforschung war jetzt nicht nur dank der experimentellen

146
Pionierarbeit von Cailletet, Dewar und Kamerlingh Onnes zu einem neuen
Fachgebiet der Physik geworden, sondern, in einem viel tieferen Sinn, ein
Fachgebiet von ganz besonderer Eigenart, gekennzeichnet durch
Naturgesetze und Erscheinungen, die sich von jenen bei gewöhnlichen
Temperaturen unterscheiden. Dieser Unterschied ist grundlegend und
besteht im Eindringen des Grundsatzes der Energiequantelung in unsere
makroskopische Welt. Die beiden hervorragenden Merkmale der
Tieftemperaturwelt, das Verschwinden der Entropie und das Überwiegen
der Nullpunktsenergie, sind die unmittelbaren Folgen.

147
7 | Unbestimmtheit

Das Theorem von Nernst hatte der Physik der tiefen Temperaturen eine
besondere Bedeutung gegeben, wobei das Verschwinden der Entropie und
die Nullpunktsenergie die herausragenden Merkmale waren. Während
Leute wie Planck von Anfang an die Bedeutung des Entropiebegriffs völlig
einsahen, zogen es die meisten Physiker damals wie heute vor, mit
Energiebegriffen zu operieren. Ihnen erschien die Existenz einer Energie
am absoluten Nullpunkt, die von der Substanz zurückbehalten würde, die
revolutionärste Abweichung vom klassischen Denken. Ohne Erfolg
versuchten sie sich vorzustellen, in welcher Form diese Energie, die nicht
den thermischen Schwingungen der Atome zugeordnet werden konnte, sich
manifestieren könnte. Lange blieb ihr Ursprung rätselhaft.
Planck, der den dritten Hauptsatz der Thermodynamik die unmittelbare
Folge des Quantenprinzips genannt hatte, wurde zu einer Vermutung
inspiriert, die sich schließlich als richtig erwies. Sie ging aus von dem
Weg, auf dem er die Strahlungsformel als die Energieverteilung eines
Systems von Oszillatoren abgeleitet hatte. Er hatte diesen Oszillatoren
keine festumrissene physikalische Bedeutung gegeben, sondern sie nur als
Quelle jener elektromagnetischen Strahlungen angesehen, auf die er die
Formel anwandte. Die Quantenvorstellung ging dann aus der Tatsache
hervor, daß die Formel erst dann stimmte, wenn man Änderungen der
Energie dieser Oszillatoren nur in Schritten ganzer Vielfacher von hv
gestattete. Das wichtigste daran war, daß es ganze Vielfache und nicht
irgendwelche gebrochene sein mußten. Planck vermutete, daß die
Nullpunktsenergie eines Oszillators den Wert ½ h • v haben sollte. Diese
Energie, die kein ganzes Vielfaches ist, kann vom Oszillator nicht
abgegeben, sondern muß zurückbehalten werden, und deshalb ist auch im
tiefsten Energiezustand noch eine endliche Energie vorhanden.
Plancks Vermutung paßte gut zu Einsteins Theorie der spezifischen
Wärmen und erfuhr eine noch stärkere Unterstützung, als Bohr die

148
Quantentheorie auf sein Atommodell anwandte. Dort sind die Elektronen
nie in Ruhe, auch wenn das Atom in seinem tiefsten Energiezustand, dem
»Grundzustand«, ist. Selbst wenn man Plancks Vermutung als richtig
ansieht, weiß man noch lange nicht, warum sie richtig ist. Eine Antwort
auf diese Frage war nicht zu erwarten, bevor man der Quantenkonstante
selbst eine physikalische Bedeutung geben konnte. Der Erfolg der
Strahlungsformel und der von Einsteins Theorie der spezifischen Wärmen,
wie auch viele Forschungsergebnisse, die sich in den folgenden Jahren
anhäuften, zeigten, daß die Quantenkonstante eine sehr tiefgreifende
Bedeutung in unserer physikalischen Welt haben muß. Im Augenblick war
sie jedoch nicht mehr als ein Zahlenfaktor, den Planck benutzen mußte, um
seine Formel den experimentellen Daten anzupassen.
Der große Erfolg der Quantentheorie, der in Einsteins und Bohrs Arbeit
zum Ausdruck kam, verdeckte zunächst die Leere der Quantenvorstellung
als solcher. Nur Planck selbst blieb zurückhaltend und vorsichtig, da er
sich der Unvollkommenheit seiner großen Theorie von Anfang an bewußt
war. Seiner Ansicht nach führten zwei Wege aus dem Dilemma: Entweder
war die Quantenvorstellung eine mathematische Unschönheit, oder sie
mußte einen tiefen physikalischen Sinn haben. Lange gab er der ersten
Alternative den Vorzug. Seine feste Überzeugung, die Naturgesetze
müßten »absolut« sein, erforderte Beziehungen zwischen physikalischen
Größen, die von jeder Zweideutigkeit frei wären. Daher zog er die
thermodynamische der kinetischen Beschreibung vor, der er wegen der
Einführung atomistischer Begriffe mißtraute. Boltzmanns statistische
Methode gefiel ihm ebenfalls nicht. Seiner Ansicht nach beraubte sie durch
ihre Wahrscheinlichkeitsinterpretation die thermodynamischen Größen
ihrer einfachen Erhabenheit. Auf seiner Suche nach der richtigen
Strahlungsformel war es für ihn ein schwerer Schlag gewesen, zuerst
feststellen zu müssen, daß nur die statistische Methode zur Wahrheit
führen würde, und dann selbst atomistische Begriffe in die
Thermodynamik einführen zu müssen. Noch bevor sein erster Artikel über
die Strahlungsformel veröffentlicht war, hatte Planck, wenn auch
vergeblich, versucht, die Quantenvorstellung aus seiner Arbeit zu

149
beseitigen. Der Hauptgrund dafür, daß er seine Theorie während der auf
diese erste Veröffentlichung folgenden Jahre nicht verteidigen konnte und
Einsteins Werk ignorierte, lag in der Hoffnung, den Weg zur Kontinuität
der klassischen Physik zurückzufinden.
Als die Jahre vergingen und die Quantenvorstellung Erfolg nach Erfolg
erzielte, begann diese Hoffnung zu schwinden. Es blieb jetzt nichts anderes
übrig, als ihre physikalische Realität hinzunehmen. Nun galt es jedoch
noch, ihren tieferen Sinn zu entdecken. Hier tat wieder Einstein den ersten
Schritt, wobei allerdings fraglich ist, ob er die weitreichenden
Konsequenzen in diesem frühen Stadium überblickte. Ein Jahr, bevor er
seine Arbeit über die spezifischen Wärmen schrieb, hatte er eine
Anwendung der Quantentheorie auf den photoelektrischen Effekt
veröffentlicht. Darin erklärte er die Freisetzung der Elektronen aus der
Metalloberfläche, auf die das Licht traf, als Wirkung einzelner Quanten.
Die Vorstellung solcher »Lichtpfeile«, wie er sie zunächst nannte, führte
zu einer Schwierigkeit, mit der die klassische Physik nicht fertig werden
konnte. Wenn solche Pfeile existierten – und Einsteins Theorie lieferte
wiederum eine vollkommene Erklärung aller Beobachtungen –, dann
müßten sie lokalisierbar sein. Eine solche Teilchennatur des Lichts war von
Newton vermutet worden. Aber diese Vermutung hatte man schon lange
zugunsten der Wellentheorie verworfen. Angesichts der wohlbekannten
Interferenzexperimente von Young und Fresnel schien die Interpretation
des Lichts als Wellenbewegung unwiderlegbar.
Es erhob sich die Frage, wie der Wellenaspekt des Lichts mit der aus
Einsteins Theorie folgenden Teilchennatur zu vereinbaren sei. Einstein
hatte mit Hilfe der Quantentheorie den photoelektrischen Effekt glänzend
erklärt, aber gleichzeitig die Aufmerksamkeit auf einen Dualismus von
Welle und Teilchen gelenkt, der über zwanzig Jahre lang die Physik
verwirren sollte. Waren die gequantelten Lichtpfeile, die Photonen, wie sie
bald genannt wurden, Teilchen, oder waren sie Wellen? Für dieses Rätsel
schien es keine Lösung zu geben, und Sir William Bragg charakterisierte
die Situation sehr gut, wenn er sagte, die Wellentheorie des Lichts würde
montags, mittwochs und freitags gelehrt und die Teilchentheorie dienstags,

150
donnerstags und samstags. Diese Lage verschlimmerte sich 1924 noch
weiter, als der junge Franzose Louis de Broglie in seiner Doktorarbeit die
Vermutung äußerte, daß nicht nur Lichtwellen Teilchenaspekte, sondern
ebenso Teilchen wie das Elektron eine Wellennatur besitzen könnten.
Bezeichnenderweise entstammte diese revolutionäre Vorstellung einem
frischen jungen Gehirn, das von klassisch starren Ideen noch unbelastet
war. De Broglie stützte sich auf nichts weiter als den Verdacht, daß die
Natur Symmetrien bevorzuge, und sagte auf dieser Basis die Wellenlänge
eines sich mit bestimmter Geschwindigkeit bewegenden Elektrons voraus.
Tatsächlich wurden diese De-Broglie-Wellen bald darauf von den
Experimentatoren entdeckt, die nachwiesen, daß sie zu ähnlichen
Interferenzerscheinungen führen wie die Lichtwellen.

24 Wegen der Unbestimmtheit ist es unmöglich, ein Teilchen mit größerer als der durch
die Plancksche Konstante gegebenen Genauigkeit zu lokalisieren. Die De-Broglie-Welle
des Teilchens bezeichnet die Wahrscheinlichkeit dafür, daß man es in einem gegebenen
Raumbereich antrifft, über den es gemäß der Unbestimmtheitsrelation »ausgeschmiert«
werden kann.

151
Eine Zeitlang schien es, als sei die Physik verrückt und alles möglich
geworden. Die Geschichte jener Jahre ist eine Geschichte für sich, die wir,
so spannend sie auch ist, hier nicht im einzelnen verfolgen können. Die
Namen derer, die schließlich das Problem lösten, bilden eine Liste von
Nobelpreisträgern. Wir können nicht mehr tun, als einige Höhepunkte
erwähnen. Im Frühsommer 1925 hatte der junge deutsche Theoretiker
Werner Heisenberg Heuschnupfen und fuhr nach Helgoland, um wieder
einen klaren Kopf zu bekommen. Er kam mit einer bemerkenswerten
Folgerung zurück, die den ersten Schritt ermöglichte: »Nur solche Größen,
die prinzipiell beobachtet werden können, dürfen in den Überlegungen
verwandt werden.« Das hatte eine ernüchternde Wirkung auf die Neigung,
Atome oder Elektronen in Analogie zu unseren normalen Billardkugeln zu
betrachten. Wir können den Zusammenstoß zweier Elektronen nicht auf
dieselbe Weise beobachten, wie ein Ereignis auf dem Billardtisch, und
deshalb kann der Verwendung einer analogen Beschreibung keine
physikalische Realität beigemessen werden.
Ein Jahr später transformierte der Österreicher Erwin Schrödinger Bohrs
Atommodell, das ein gequanteltes Sonnensystem en miniature darstellt, in
das natürliche Beugungsspektrum der De-Broglie-Welle des Elektrons um
den Kern herum. Planck begrüßte das, weil der Wellenaspekt eine
Rückkehr zur Kontinuität anzubahnen schien. Vorübergehend schien es so,
als könnte die atomistische Natur von Materie und Energie in fließend
veränderliche Wellen aufgelöst werden. Aber die Uhrzeiger ließen sich
nicht zurückdrehen, und die klassische Physik kehrte nicht mit dem
Quantenprinzip in den Armen triumphierend zurück. Wenige Monate nach
Schrödingers Veröffentlichung entdeckte Max Born in Göttingen die
wahre Natur der Wellen; sie geben die statistische Wahrscheinlichkeit an,
das entsprechende Teilchen anzutreffen. Seitdem haben sich die Physiker
damit zufriedengegeben, jede kleine Störung im Raum ein Teilchen zu
nennen, ganz gleich, ob es nun ein Elektron oder Photon ist, wobei die
Natur des Teilchens durch die Art der hervorgerufenen Störung
beschrieben wird. Masse, elektrische Ladung, Drehimpuls und andere
Merkmale definieren die Störung. Alle Teilchen haben Wellennatur, und

152
diese Wellen zeigen die Chance an, mit der wir das Teilchen in einem
gegebenen Raumbereich finden. Am höchsten Punkt der Welle treffen wir
das Teilchen mit der größten Wahrscheinlichkeit an, und wenn irgendwo
die Wellenhöhe praktisch Null ist, haben wir kaum Hoffnung, an dieser
Stelle auf das Teilchen zu stoßen (Abb. 24).
Derart wurde der Dualismus von Welle und Teilchen mehr als zehn
Jahre, nachdem Einstein ihn enthüllt hatte, von Born geklärt, der aufzeigte,
daß die Naturgesetze in atomaren Dimensionen immer statistisch sind. Ein
weiterer Schritt blieb noch zu tun: Die Quantenkonstante mußte ihren Platz
im Rahmen dieser neuen Ideen finden. Es war Heisenberg, der die Lösung
fand; ihre Ansätze stammten noch aus der Zeit seiner Heufieberkur auf
Helgoland. Er fragte sich, wie scharf man ein Teilchen lokalisieren kann,
wobei er sich erinnerte, daß nur die direkte Beobachtung den Anspruch
erheben kann, auf eine physikalische Realität zu führen. Nehmen wir an,
wir möchten ein Elektron finden. Dann brauchen wir eine Sonde, um es zu
lokalisieren. Ein zweites Elementarteilchen, z. B. ein Photon, kann dazu
benutzt werden; aber jetzt ergibt sich eine Schwierigkeit.
Wenn wir ein Photon von kurzer Wellenlänge, d. h. mit einem hohen
Wert von h • v benutzen, dann ändert seine Energie die Geschwindigkeit
des Elektrons auf eine nicht voraussagbare Weise. Nehmen wir jetzt statt
dessen ein Photon von geringem hv, dann ist die entsprechende Welle so
lang, d. h. seine eigene Position so unbestimmt, daß wir es für die genaue
Feststellung derjenigen des Elektrons nicht brauchen können.
Heisenberg konnte schlüssig zeigen, daß diese Art der Überlegung nicht
davon abhängt, was für ein Experiment man anstellt, sondern daß sie ganz
allgemein gilt. Er bewies, daß prinzipiell für die Beobachtung eine untere
Grenze der Bestimmtheit existiert, und diese Grenze erwies sich also durch
die Quantenkonstante h gegeben. Endlich war die Bedeutung der
geheimnisvollen universellen Konstante enthüllt, die zuerst in Plancks
Strahlungsformel aufgetaucht war: Sie bezeichnet die Grenze der
Bestimmtheit in der Physik.
Heisenbergs Unbestimmtheitsprinzip hat tiefgreifende Konsequenzen
nicht nur in der Physik, sondern ganz allgemein in philosophischen

153
Betrachtungen über Fragen des Determinismus und des freien Willens.
Jede Behauptung über Vorgänge in den Dimensionen von h oder in noch
kleineren ist nichts als eine metaphysische Spekulation und kann keinen
Sinn beanspruchen, wenn es sich um Einzelvorgänge handelt.
Die makroskopischen Gesetze der Physik werden zum Glück durch die
Statistik gerettet, da sie immer Mittelwerte über sehr viele solcher
Einzelvorgänge darstellen. Die Grundlage der statistischen Behandlung
ändert sich jetzt jedoch völlig. Im statistischen Verfahren der klassischen
Physik werden die makroskopischen Größen aus Mittelwerten von
Einzelvorgängen gebildet, deren jeder vollständig determiniert ist. Dort ist
die Statistik nur eine mathematische Vereinfachung, und man nimmt an,
daß wir mit adäquaten Beobachtungsmethoden und entsprechend guten
Rechenmaschinen die Einzelvorgänge besser behandeln können als mit
Hilfe der klassischen Mechanik. In der Quantenmechanik beziehen sich die
physikalischen Gesetze immer auf statistische Mengen von Einzelvor-
gängen, deren jeder undeterminiert ist. Gemäß der Unbestimmtheitsrelation
können wir z. B. prinzipiell nicht voraussagen, ob ein einzelnes Radium-
atom innerhalb der nächsten Sekunde zerfallen oder noch hunderttausend
Jahre bestehen wird. Andererseits erlaubt uns die Statistik, genau
vorauszusagen, daß in jedem Stück Radium, das aus einer großen Anzahl
von Atomen besteht, die Hälfte dieser Atome nach 1600 Jahren zerfallen
sein wird. In der klassischen Physik glaubten wir, uns bei Anwendung der
Statistik um den Einzelvorgang nicht kümmern zu müssen; die
Quantenphysik hat uns gelehrt, daß wir über diesen Einzelvorgang nichts
wissen können.
Für unsere Zwecke ist das Unbestimmtheitsprinzip deshalb wichtig,
weil es direkt auf die geheimnisvolle Nullpunktsenergie führt. Wie
Heisenberg zeigte, machen wir bei dem Versuch, ein Teilchen zu
beobachten, entweder seine Position unbestimmt, wenn wir seine
Geschwindigkeit messen, oder umgekehrt die Geschwindigkeit
unbestimmt, wenn wir seine Position feststellen. Die Unbestimmtheit
ergibt sich als das Produkt dieser beiden Größen. Allerdings müssen wir
statt der Geschwindigkeit v den Impuls m • v einsetzen und dadurch noch

154
die Masse des Teilchens einführen. Die Unbestimmtheitsrelation lautet
dann:
∆ mv • ∆ l >~ h

Dabei hat 1 die Dimension einer Länge, d. h., es repräsentiert unseren


Maßstab zur Messung der Position. Die ∆-Zeichen sollen bedeuten, daß
wir es mit Änderungen von Impuls oder Position zu tun haben. Die
Beziehung besagt also, daß wir nur solche Änderungen beobachten
können, deren Produkt größer als oder von derselben Größenordnung wie
die Quantenkonstante h ist. Die Beobachtungsgrenze ist deshalb durch mv •
l ≈ h gegeben oder, anders ausgedrückt, durch m • v ≈ h/l .
Wenn wir quadrieren und dann durch m dividieren, erhalten wir m • v² ≈
h²/ml². Jetzt steht auf der linken Seite unserer Beziehung eine Masse,
multipliziert mit dem Quadrat einer Geschwindigkeit, und diese Größe ist,
wie wir in früheren Kapiteln sahen, die kinetische Energie des Teilchens
mit der Masse m. Die Unsicherheit der Lokalisierung des Teilchens
innerhalb eines Bereichs der Länge 1 muß dem Teilchen irgendwie die
Energie h2/ml2 verleihen.

25 Die Unbestimmtheit verleiht einem in einem Behälter eingeschlossenen Teilchen eine


Energie.

155
Schauen wir uns einmal an, was geschieht, wenn wir ein einzelnes
Teilchen in einen Raumbereich vom Durchmesser 1 einschließen. Wir
wissen jetzt, daß das Teilchen irgendwo in diesem Behälter ist, aber das
Unbestimmtheitsprinzip erlaubt uns nicht, seinen genauen Aufenthaltsort
zu einer gegebenen Zeit festzustellen (Abb. 25). Überall im Behälter
können wir mit einer endlichen Wahrscheinlichkeit das Teilchen antreffen,
und diese Wahrscheinlichkeit ist durch die De-Broglie-Welle gegeben, die
uns z. B. sagt, daß wir das Teilchen mit größerer Wahrscheinlichkeit in der
Mitte des Behälters finden als an einem bestimmten Ort in Wandnähe.
Genauso könnte man sagen, das Teilchen schwinge irgendwie innerhalb
des Behälters und gelange dabei irgendwann einmal in jeden Teil. Überdies
läßt sich aus unserer Beziehung ablesen, daß das Teilchen, wenn wir es in
einen kleineren Behälter einschließen, d. h. 1 kleiner machen, eine größere
Energie erhält und heftiger schwingen muß; dasselbe geschieht, wenn wir
m kleiner machen, d. h. ein leichteres Teilchen in den Behälter tun.
Die Schwingung des Teilchens aufgrund der Tatsache, daß es sich in
jedem Teil des Behälters aufhalten kann, ist daher eine unmittelbare Folge
der Unbestimmtheit. Diejenige Energie, die das Teilchen haben muß,
lediglich weil ein gewisser Raum für seine Bewegung zur Verfügung steht,
ist seine Nullpunktsenergie. In einem Kristall ist jedes Atom in einen durch
seine Nachbarn gebildeten »Behälter« eingeschlossen, den es nicht
verlassen kann und der ihm allein zukommt. Das Atom besitzt deshalb
auch in seinem »Grundzustand« die Energie h2/ml2, wobei 1 jetzt der
Abstand zwischen seinen Nachbarn ist. Diese Energie kann auch nicht
abgegeben werden, da sie sich allein aus dem Spielraum ergibt, der dem
Atom im Kristallgitter zur Verfügung steht. Das Unbestimmtheitsprinzip
erklärt nicht nur die Existenz der Nullpunktsenergie, sondern auch deren
Natur. Wir haben gesehen, daß die quantenstatistische Wahrscheinlichkeit,
ein Atom irgendwo in dem von seinen Nachbarn begrenzten Raum
anzutreffen, seiner Schwingung in diesem Raum äquivalent ist. Die
Nullpunktsenergie läßt sich daher in ihrer Wirkung nicht von der
thermischen Energie unterscheiden, die auch durch atomare Schwingungen
repräsentiert wird.

156
Die Vorstellung, daß die Nullpunktsenergie eines Kristalls sich als
Schwingung der Atome äußert, fand ihre unmittelbare Bestätigung 1927,
im selben Jahr, da Heisenberg das Unbestimmtheitsprinzip verkündet hatte.
R. W. James und Miss E. M. Firth in Manchester entdeckten sie bei einer
Untersuchung von Steinsalz mittels Röntgenstrahlen. Die Entdeckung, daß
auf einen Kristall auftreffende Röntgenstrahlen durch die regelmäßige
Anordnung des atomaren Gitters gebeugt werden, hatten 1912 Max von
Laue sowie Vater und Sohn Bragg unabhängig voneinander gemacht. Die
neue Untersuchungsmethode öffnete das Tor zur Erforschung der
mikroskopischen Struktur der Materie im Gebiet atomarer Dimensionen.
Ihrer Anwendung begegneten wir bereits bei der Beobachtung des
Ordnungsvorgangs, der in Mischkristallen stattfindet. Die Röntgenbeugung
liefert Informationen über die Lage von Atomen im Kristall zueinander
und offenbart z. B. den Strukturunterschied zwischen Diamant und
Graphit, die beide aus Kohlenstoffatomen bestehen, aber verschiedene
Gittertypen besitzen. Die Atome sind jedoch nicht in Ruhe. Sie schwingen
unter dem Einfluß ihrer thermischen Energie um ihre Gleichgewichtslagen.
Diese thermische Bewegung macht die Röntgenbeugungsmuster etwas
unscharf. Bei tiefer Temperatur sind die thermische Bewegung und die
Unscharfe geringer. In Manchester wurde daher einer der Steinsalzkristalle
bei der Temperatur flüssiger Luft untersucht. Im darauffolgenden Jahr
wurde eine sorgfältige mathematische Analyse der Ergebnisse in
Zusammenarbeit mit Waller und Hartree veröffentlicht, die unzweideutig
zeigte, daß die bei tiefen Temperaturen festgestellte atomare Schwingung
viel stärker war, als durch die thermische Energie des Kristalls erklärt
werden konnte. Die Nullpunktsenergie, die sich in atomaren Schwingun-
gen äußert, war somit experimentell unmittelbar beobachtet worden.
Schon lange vorher hatte man vermutet, daß die Nullpunktsenergie sich
im Verhalten der Materie bei tiefen Temperaturen manifestieren müßte.
1916 hatte Nernst die Aufmerksamkeit auf die starken Abweichungen von
Troutons Regel gelenkt, die man bei flüssigem Wasserstoff und vor allem
bei flüssigem Helium gefunden hatte. Diese Regel, die von den Pionieren
der Tieftemperaturforschung benutzt worden war, um das Verhalten der zu

157
verflüssigenden Gase vorauszusagen, bezieht sich auf die
Verdampfungswärme, d. h. die Energie, die zur Umwandlung von
Flüssigkeit in Dampf erforderlich ist. Diese zusätzliche Energie ist nötig,
um einem Molekül in der Flüssigkeit eine genügend große
Geschwindigkeit zu erteilen, daß es die Anziehungskräfte seiner Nachbarn
überwinden kann. Trouton hatte gezeigt, daß diese Energie zur absoluten
Temperatur proportional ist, d. h., daß die Verdampfungswärme einer
Substanz um so kleiner ist, je tiefer der Siedepunkt liegt. Das ist natürlich
ganz vernünftig; denn eine Substanz hat eben deshalb einen tiefen
Siedepunkt, weil die Anziehungskräfte zwischen den Molekülen klein sind.
Dewar sah diese Schwierigkeit voraus, als er den Kryostaten, in dem er
Wasserstoff verflüssigen wollte, besonders sorgfältig gegen Wärmezu-
strom abschirmte. Gemäß Troutons Regel konnte er erwarten, daß die
Verdampfungswärme von Wasserstoff nur ein Viertel derjenigen von
Sauerstoff betragen und dieser deshalb sehr leicht verdampfen würde. Was
er aber nicht erwarten und nicht erklären konnte, war, daß die
Verdampfungswärme nur halb so groß, wie vermutet, war. Eine noch
größere Abweichung von Troutons Regel fand Kamerlingh Onnes bei
Helium.
Auf Nernsts Vorschlag, diese Abweichungen als Wirkung der
Nullpunktsenergie zu betrachten, gingen seine Schüler Bennewitz und
Simon sieben Jahre später ein, als mehr experimentelle Ergebnisse zu
kondensierten Gasen zur Verfügung standen. Sie zeigten durch eine
Rechnung, daß die unerwartet geringen Werte der Verdampfungswärme
tatsächlich durch den Einfluß der Nullpunktsenergie erklärt werden
können. Troutons Regel gilt bei normalen und hohen Temperaturen und
basiert auf der Tatsache, daß die Gesamtenergie einer Substanz ungefähr
gleich ihrer thermischen Energie ist. Dies ist die Energie, die zur
Verdampfung der Flüssigkeit zur Verfügung steht, und sie ist etwa
proportional zur absoluten Temperatur. Die Lage ändert sich jedoch bei
Annäherung an den absoluten Nullpunkt, weil jetzt ein beträchtlicher Teil
der Gesamtenergie von der Nullpunktsenergie gebildet wird, die in der
Substanz zurückbleibt und nicht mit sinkender Temperatur abnimmt (s.

158
Abb. 23 auf S. 145). Infolgedessen steht verhältnismäßig mehr Schwin-
gungsenergie zur Verfügung, als nach der klassischen Physik zu erwarten
war, und diese zusätzliche Energie erleichtert die Verdampfung. Das
bedeutet, daß die zur Verdampfung der Flüssigkeit zuzuführende Wärme
entsprechend kleiner ist als die klassisch berechnete.
Dasselbe gilt für die Energie, die man zum Schmelzen der Substanz
benötigt.. Einen Extremfall bildet Helium. Kamerlingh Onnes konnte nicht
verstehen, daß Helium auch noch bei der tiefsten von ihm erreichten
Temperatur, nämlich 0,8° über dem absoluten Nullpunkt, nicht fest werden
wollte. Wir wissen jetzt, daß Helium auch noch am absoluten Nullpunkt
flüssig ist und daß noch ein äußerer Druck von 25 Atmosphären nötig ist,
um es in den festen Zustand zu versetzen (s. Abb. 46 auf S. 244). Dieser
Sachverhalt ist in der klassischen Physik völlig unerklärlich, wo man
erwarten würde, daß jede Substanz bei Abkühlung zuerst flüssig wird und
schließlich zu einem festen Körper gefriert. Simon zeigte, daß das seltsame
Verhalten des Heliums eine direkte Folge seiner hohen Nullpunktsenergie
ist. Diese Energie ist groß genug, um die kleinen Anziehungskräfte in
dieser Substanz mehr als aufzuwiegen, so daß die Nullpunktsschwingung
der Heliumatome sie auch am absoluten Nullpunkt davon abhält, einen
Kristall zu bilden. Nur durch Anwendung zusätzlichen Drucks von außen
bringt man sie so nahe zusammen, daß sie sich zu einem festen Gitter
verbinden können. Aber auch ein gutes Stück oberhalb des absoluten
Nullpunkts macht sich die Wirkung der Nullpunktsenergie in der anomal
geringen Dichte flüssigen Heliums bemerkbar, die Kamerlingh Onnes
schon bei der ersten Verflüssigung feststellte.
Es gibt einen Fall noch höherer Nullpunktsenergie als bei Helium, aber
um seine einzigartige Bedeutung einsehen zu können, müssen wir zu den
frühen Tagen der Formulierung des dritten Hauptsatzes zurückgehen.
Der besondere Weg, auf dem Nernst sein Theorem abgeleitet hatte,
nämlich unter Bezugnahme auf chemische Gleichgewichte, hatte es mit
einem unerfreulichen Makel versehen. Er konnte die Gültigkeit des
Theorems nur für Materie im kondensierten Zustand postulieren, d. h. für
Flüssigkeiten oder feste Körper, aber nicht für Gase. Die Schwierigkeit

159
bestand darin, daß die spezifische Wärme eines idealen Gases nach der
klassischen Physik bis hinab zum absoluten Nullpunkt endlich bleiben
muß. Man kann einwenden und tat es auch, daß alle Substanzen bei
Annäherung an den absoluten Nullpunkt in den kondensierten Zustand
übergehen und deshalb der Begriff eines idealen Gases kaum noch Sinn
habe. Aber Nernst war damit nicht einverstanden und betrachtete diese Art
der Überlegung als eine Ausflucht, die seines Theorems unwürdig war. Er
behauptete, dieses sei ein Grundgesetz der Thermodynamik und könne als
solches keiner Beschränkung unterworfen sein. Diese Argumentation war
typisch für ihn und sein unbegrenztes Vertrauen in seine Hypothese. Da, so
überlegte er, sein Theorem allgemeingültig sein muß, bedarf das klassische
Gesetz der spezifischen Wärme für ein ideales Gas einer Einschränkung.
Daher sagte er voraus, daß die spezifische Wärme bei Annäherung an den
absoluten Nullpunkt abnehmen und daß dies durch einen bisher noch
unbekannten Vorgang hervorgebracht werde, den er »Gasentartung«
nannte.
Viele von Nernsts Kollegen und selbst jene, die ihn bewunderten,
standen dieser unverständlichen Erscheinung skeptisch gegenüber, die eher
wie eine Prophezeiung als eine wissenschaftliche Voraussage klang. Nernst
ließ sich nicht beirren, und er hatte Planck auf seiner Seite. Planck war ein
bekannt vorsichtiger Mann, der auf Fragen seiner Schüler stets zu
antworten pflegte: »Ich gebe Ihnen morgen meine Antwort.« Er kannte
jedoch keine Vorsicht, wenn es um die Gesetze der Thermodynamik ging,
da er sie als absolut sicher ansah. Planck war überzeugt, daß die
Gasentartung existieren und eine Begleiterscheinung des Quantenprinzips
sein müßte, sah aber keine Möglichkeit, sie in seine Theorie einzubauen.
Schließlich besteht die gesamte Energie eines idealen Gases insgesamt in
der geradlinigen Bewegung seiner Atome, und es erschien unmöglich, ihr
eine Schwingungsfrequenz zuzuschreiben, die, mit h multipliziert, ein
Quantum bilden könnte. Die Sitzungsberichte der Preußischen Akademie
der Wissenschaften enthalten verzweifelte Versuche von Planck und
anderen, eine Lösung zu finden, ohne daß dies damals gelang.
Wir haben bereits früher gesehen, daß Boyles Gesetz für ein ideales Gas

160
durch Anwendung statistischer Methoden auf die Bewegung der
Gasmoleküle abgeleitet werden kann. Die Methode, die Maxwell und
Boltzmann im 19. Jahrhundert benutzten, stützt sich natürlich auf die
klassische Mechanik. Deshalb war es nicht sehr überraschend, daß sie
keinen Hinweis auf die Gasentartung gab, deren Ursprung in der
Energiequantelung liegt. Bei der statistischen Behandlung eines Gases geht
man so vor, daß man das vom Gas erfüllte Volumen in kleine Teile oder
»Zellen« aufteilt. Dann berechnet man die Wahrscheinlichkeit, ein Teil-
chen in einer bestimmten Zelle anzutreffen. Dasselbe tut man für einen
Raum, der von den drei Dimensionen der Geschwindigkeit gebildet wird.
Aus Gründen der mathematischen Bequemlichkeit werden die Berech-
nungen gleich in einem sechsdimensionalen »Phasenraum« ausgeführt, der
die drei Lage- und die drei Impulskoordinaten umfaßt. Übrigens ist ein
»Raum« von mehr als drei Dimensionen nichts Geheimnisvolles; er wird
einfach deshalb benutzt, weil sich in ihm mehrere Größen, die ein Teilchen
beschreiben, einfacher gemeinsam mathematisch behandeln lassen. Ende
des letzten Jahrhunderts führte Willard Gibbs diesen Raum stillschweigend
ein, ohne daß Philosophen oder Okkultisten davon Notiz nahmen. Die
Größe dieser Zellen ist im klassischen Phasenraum willkürlich, aber aus
Heisenbergs Unbestimmtheitsprinzip geht klar hervor, daß eine solche
willkürliche Unterteilung in der Quantenphysik nicht möglich ist. Da die
Grenze für die Bestimmung eines einzelnen Ereignisses durch die
Quantenkonstante h gegeben wird, kann man für nichts, was unterhalb
dieser Grenze geschieht, physikalische Realität beanspruchen. Deshalb
beträgt die Größe einer Zelle in der Quantenstatistik h3.
So haben wir jetzt in der Quantenstatistik eines idealen Gases getrennte
Zustände, genau wie Einstein (in seiner Theorie der spezifischen Wärme
eines Kristalls) den Schwingungen der Atome gequantelte Energiezustände
zugeschrieben hatte. Das bedeutet, daß die spezifische Wärme eines idea-
len Gases auf ähnliche Weise gequantelt sein und am absoluten Nullpunkt
verschwinden muß. Mit diesem Schritt hatte Nernsts Voraussage der
Gasentartung ihre theoretische Rechtfertigung aufgrund des Quanten-
prinzips gefunden; damit war wieder ein neues Mosaiksteinchen zur

161
Vervollständigung unseres physikalischen Weltbilds gewonnen.
Wir haben die Quantelung der Molekularbewegung als eine notwendige
Folge der Unbestimmtheitsrelation erklärt, weil das die direkteste und
einfachste Art der Überlegung ist. Es sei jedoch erwähnt, daß historisch die
Quantenstatistik der Unbestimmtheit um drei Jahre vorausging. Im
Sommer 1924 erhielt Einstein von einem jungen indischen Physiker aus
Dacca, S. N. Bose, einen kurzen Artikel zur Übersetzung. Bose meinte, daß
Plancks klassische Ableitung der Strahlungsformel durch eine andere
ersetzt werden sollte, die sich lediglich auf die Statistik und das
Quantenprinzip stützte. Dies war ihm durch Einführung von Phasenzellen
der Größe h3 gelungen. In einem Nachwort machte Einstein auf die große
Bedeutung des Aufsatzes von Bose aufmerksam, da er den Weg zu einer
Quantenstatistik von Materieteilchen freigab. Dann entwickelte er selbst
die Idee in zwei Beiträgen zu den Sitzungsberichten zu dem, was als Bose-
Einstein-Statistik bekannt wurde (zum Unterschied von der klassischen
Maxwell-Boltzmann-Statistik).
Eine gewisse Grundlage für das neue statistische Verfahren hatte Planck
bereits in seiner Behandlung von Oszillatoren geliefert, die eine wichtige
Abweichung von der klassischen Statistik aufwies, als sie später auf
Moleküle angewandt wurde. Boltzmann unterscheidet bei seiner
Zählmethode zwischen einzelnen Molekülen, obwohl sie tatsächlich nicht
zu unterscheiden sind. Wenn wir z. B. zwei Zellen A und B haben und zwei
Teilchen a und b auf sie verteilen wollen, dann führt die klassische
Statistik auf vier mögliche Kombinationen:

A B
1. a b
2. b a
3. ab
4. ab

162
Sind jetzt a und b zwei Wasserstoffmoleküle, dann sind sie nicht
unterscheidbar; nennen wir sie beide x. Die Bose-Einstein-Statistik erlaubt
dann nur drei Kombinationen:

A B
1. x x
2. xx
3. xx

In der klassischen Physik bemerken wir den Unterschied in der


Zählweise zwischen den beiden Statistikarten nicht, weil viel mehr
Energiezustände zur Verfügung stehen als zu verteilende Teilchen. So
bleibt uns die zu große Anzahl von Kombinationen der klassischen
Statistik verborgen, da so viele Zellen ohnehin leer bleiben. Das ändert sich
jedoch bei tiefen Temperaturen, wo die thermische Energie gering ist und
die meisten verfügbaren Zellen besetzt sind.
Schon 1924 war so die Gasentartung von einer vagen Hypothese zu
einer sicheren theoretischen Grundlage geworden, aber von einer
experimentellen Bestätigung war man immer noch weit entfernt. Sie war
tatsächlich sogar noch unwahrscheinlicher geworden. Die Quantenstatistik
hatte die Gasentartung als wirklichen Effekt bewiesen, aber gleichzeitig
gezeigt, daß er an einem realen Gas fast mit Sicherheit nicht zu beobachten
wäre. Nach der theoretischen Voraussage muß die Abweichung vom
idealen Gasgesetz von einem »Entartungsparameter« abhängen, der die
Form Nh³/V(2πmkT)3/2 hat, wobei N die Avogadrosche Zahl, V das
Volumen eines Grammatoms und T die absolute Temperatur ist. Um
diesen Parameter einigermaßen groß zu machen, müssen V, m und T klein
sein, d. h., man sollte die Entartung am besten in einem dichten, leichten
Gas bei tiefen Temperaturen beobachten können. Helium eignet sich hier
am besten, und der größte Effekt ist am kritischen Punkt zu erwarten, da
bei noch tieferer Temperatur das Gas nicht sehr verdichtet werden kann,
ohne sich zu verflüssigen. Selbst unter den günstigsten Umständen beträgt

163
die von der Entartung bewirkte Abweichung vom Gasgesetz nur etwa ein
Prozent. Das ist viel kleiner als der Einfluß der Anziehungskräfte zwischen
den Heliumatomen, den man schwer genau schätzen kann und von dem die
Entartung daher völlig verdeckt wird.
Eine Zeitlang schien es, als könnte Nernsts Voraussage der
Gasentartung, obwohl richtig, niemals verifiziert werden. Doch dann
erkannte man plötzlich, daß die Gasentartung für eine der bekanntesten
Erscheinungen der Physik verantwortlich ist, nämlich für das elektrische
Verhalten von Metallen.
Durch die Arbeit Faradays, Maxwells und vieler anderer waren
Elektrizität und Magnetismus im 19. Jahrhundert zu wohlfundierten
Pfeilern im Gebäude der klassischen Physik geworden. Zuerst hatte die
Ähnlichkeit im Verhalten eines Wasserstroms und eines Elektrizitätsstroms
vermuten lassen, daß elektrische Ladung ein homogenes Fluidum sei. Als
J. J. Thomson jedoch 1897 das Elektron entdeckte, erkannte man die
atomistische Natur der Elektrizität und nahm das Elektron als Träger der
Ladung an. Von dort aus war es nur noch ein einziger Schritt zu der
Vermutung, der Unterschied zwischen Isolator und Metall bestünde darin,
daß sich die Elektronen im letzteren frei bewegen und einen
Elektrizitätsstrom bilden können.
Diesen Schritt tat um die Jahrhundertwende Drude, der die Vorstellung
eines »Gases« frei beweglicher Elektronen in einem Metall formulierte,
eine Theorie, die der große holländische Theoretiker Hendrik Antoon
Lorentz weiter entwickelte. Ein starkes Indiz für die Existenz eines
Elektronengases lieferte das Rutherford-Bohrsche Atommodell, nach dem
das Atom aus einem positiv geladenen Kern besteht, der von negativen
Elektronen umgeben ist. Die Theorie nahm an, daß in einigen festen
Körpern aus Gründen, die erst viel später klar wurden, ein oder mehrere
Elektronen pro Atom aus der atomaren Struktur herausgelöst seien und
sich frei durch das ganze Volumen der Substanz bewegen könnten wie die
Moleküle eines Gases in einem Behälter. Wenn eine solche Substanz
zwischen den positiven und negativen Pol einer Batterie gebracht wird,
werden die Elektronen vom ersten angezogen und vom letzteren

164
abgestoßen und bewirken so einen elektrischen Strom. In gleicher Weise
bewirkt eine elektromagnetische Lichtwelle, die auf die Substanz trifft,
eine entsprechende Bewegung freier Elektronen in der Oberfläche, die die
Welle nicht eindringen läßt, sondern sie statt dessen zurückwirft. Anders
ausgedrückt: Eine Substanz, der wir ein Gas aus freien Elektronen
zuschreiben, zeigt genau das Verhalten, das wir von einem Metall her
kennen.
Wie man daraus sieht, trifft die Elektronentheorie der Metalle so gut zu,
daß man sie ohne weiteres für richtig hält. Es war deshalb etwas
beunruhigend, als zwei ziemlich grundlegende Diskrepanzen entdeckt
wurden. Erstens ergab sich aus der Größe der metallischen Wärmeleitung,
daß die Elektronen alle eine sehr hohe mittlere Geschwindigkeit haben
müßten, die nicht von der Temperatur abhinge – was gegen die Gasgesetze
verstieße. Die zweite Diskrepanz betrifft die spezifische Wärme. Wir
haben bereits früher gesehen, daß die Existenz drei kinetischer und drei
potentieller Freiheitsgrade der atomaren Schwingungen zu einer
spezifischen Wärme von
6
/2 R

führt, also zu ungefähr 6 cal pro Grammatom und Grad. Wenn jetzt im
Fall eines Metalls zusätzlich freie Elektronen, sagen wir eines pro Atom,
vorhanden sind, die sich wie Moleküle in einem Gas frei bewegen, so
müssen sie drei weitere kinetische Freiheitsgrade beisteuern, so daß die
gesamte spezifische Wärme

6
/2 R + 3/2 R = 9/2 R

beträgt, d. h. 9 Kalorien. Das ist jedoch nicht richtig; denn für Metalle
und Isolatoren findet man dieselbe spezifische Wärme von 6 Kalorien. Die
Lösung dieses Rätsels lieferte schließlich Nernsts Gasentartung. Diese
Lösung ist übrigens ein interessantes Beispiel dafür, wie die gemeinsamen

165
Bemühungen einer großen Anzahl von Wissenschaftlern, von denen jeder
einen wichtigen Beitrag leistet, zur endgültigen Erklärung führen. 1925
postulierte Wolfgang Pauli jenes wichtige Prinzip der Quantenmechanik,
das seinen Namen trägt. Er deutete die spektroskopischen Ergebnisse mit
Hilfe eines neuen Naturgesetzes, nach dem in einem Atom nicht mehr als
zwei Elektronen Bahnen derselben Quantenenergie haben können. Und
auch diese beiden müssen sich noch in ihren Spinrichtungen unterscheiden,
d. h. entgegengesetzte Drehimpulse haben. Wir können hier nicht in eine
Diskussion der tiefgreifenden Bedeutung eintreten, die diesem
»Ausschließungsprinzip« im Rahmen der modernen Physik zukommt. Es
zeigt, daß der »Spin« in der Welt der Elementarteilchen weit wichtiger ist
als der Drehimpuls der klassischen Physik. Er ist wie etwa Masse oder
elektrische Ladung eine wesentliche Eigenschaft des Teilchens. Hinzu
kommt die seltsame Tatsache, daß die Spins irgendwie voneinander
wissen; denn sie sind gezwungen, denselben Quantenzustand zu
vermeiden. Mittels relativistischer Überlegungen hat Dirac diese
wechselseitige Kenntnis einem folgerichtigen System der Quanten-
mechanik einverleibt, aber auch so bleibt dieses Phänomen noch ziemlich
rätselhaft.
Im Jahr darauf (1926) ging Enrico Fermi in Italien noch einen Schritt
weiter und dehnte die Gültigkeit des Pauli-Prinzips über die Grenzen eines
Einzelatoms hinaus auf das viel größere physikalische System eines Gases
aus. In der Einführung zu seiner Arbeit bezieht er sich auf Nernsts
Gasentartung und macht das Ausschließungsprinzip zur Grundlage einer
neuen statistischen Behandlung. Unabhängig davon tat Dirac einige
Monate später denselben Schritt. Das Wesentliche an der Fermi-Dirac-
Statistik ist die wechselseitige Kenntnis, die die Gasmoleküle voneinander
haben und die nach dem Pauli-Prinzip zwei Moleküle in einem
Gasvolumen daran hindert, im selben Energiezustand zu sein. Das
bedeutet, daß die neue Zählweise für statistische Wahrscheinlichkeiten sich
nicht nur von der Maxwell-Boltzmann-Methode unterscheidet, sondern
auch von derjenigen Boses und Einsteins, da jetzt jeweils nur ein Teilchen
eine Zelle im gequantelten Phasenraum besetzen kann. Wenn wir wieder

166
das Beispiel von Seite 163 heranziehen, dann gibt es in der Fermi-Dirac-
Statistik nur eine Möglichkeit, zwei Teilchen auf die beiden Zellen A und B
zu verteilen, die natürlich so aussieht:

A B
x x

Das führt bei tiefen Temperaturen zu einer Situation, die sich von den
durch die klassische oder die Bose-Einstein-Statistik postulierten sehr stark
unterscheidet. Da nur ein Teilchen in jeder Zelle Platz hat, sind selbst am
absoluten Nullpunkt ungeheuer viele Zellen besetzt, und das allein ergibt
eine hohe Nullpunktsenergie. Nach seinem Modell berechnete Fermi auch
die spezifische Wärme eines hochentarteten Gases und fand, daß sie bei
tiefen Temperaturen proportional zur absoluten Temperatur sein sollte. Bei
steigender Temperatur erreicht sie schließlich den konstanten klassischen
Wert 3/2 R.
Fermi war noch einen Schritt weiter – und damit zu weit – gegangen mit
der Vermutung, daß die Bose-Einstein-Statistik nur auf Photonen
anwendbar sei und alle materiellen Teilchen der neuen Statistik gehorchen
sollten. Er erkannte in diesem Stadium offenbar noch nicht, daß in Paulis
Ausschließungsprinzip der Spin das entscheidende Merkmal ist, das die
Verteilung der Elektronen auf die Bahnen um den Atomkern herum
beherrscht. Das Gas, für das er seine Berechnungen anstellte, war Helium.
Es ist seitdem klargeworden, daß nur Teilchen mit einer ungeraden Anzahl
von Spins der Fermi-Dirac-Statistik gehorchen, während solche mit einer
geraden Anzahl immer zwei entgegengesetzte Spins enthalten können, die
sich gegenseitig aufheben. Helium hat zwei kreisende Elektronen und vier
Teilchen – zwei Protonen und zwei Neutronen – im Kern, die alle einen
Spin besitzen. Daher ist die Anzahl der Spins im Helium gerade, und seine
Atome gehorchen der Bose-Einstein-Statistik. Diese Tatsache wird hier
erwähnt, weil sie bei der Erörterung der besonderen Eigenschaften
flüssigen Heliums von großer Bedeutung sein wird.

167
Ein Jahr darauf veröffentlichte Pauli einen neuen Artikel, in dem er sich
auf Fermis Arbeit bezog und die neue Statistik jetzt nicht nur auf die in
einem Atom herumkreisenden Elektronen anwandte, sondern auch auf das
Elektronengas in einem Metall. Seltsamerweise tat er nicht den
naheliegenden Schritt, Fermis Formel für die spezifische Wärme hierbei
anzuwenden. Statt dessen benutzte er die neue Statistik zu einer Erklärung
des schwachen Diamagnetismus der Metalle, der lange rätselhaft gewesen
war. Vielleicht berechnete er die spezifische Wärme der Elektronen
deshalb nicht, weil er nur mit äußerster Vorsicht an das Problem des
Elektronengases heranging. In der Einleitung zu dieser Arbeit betont er die
versuchsweise Natur seines Vorschlags.
Ein weiteres Jahr verging, man schrieb jetzt 1928, bis Arnold
Sommerfeld in München den letzten Schritt tat, der das ganze Problem des
Elektronengases löste. Sommerfeld kombinierte das Ausschließungsprinzip
und die Fermi-Dirac-Statistik mit Paulis Vorschlag, sie auf die
Metallelektronen anzuwenden. Das Ergebnis war die berühmte Arbeit, die
in jedem Lehrbuch über dieses Gebiet erwähnt wird und die mit einem
Schlag eine ganze Anzahl noch offener Fragen beantwortete. Zunächst
müssen wir zu dem Entartungsparameter zurückkehren, der auf Seite 163
erwähnt wird. Bei dessen Anwendung auf das Elektronengas stellen wir
fest, daß er extrem groß ist, weil die Masse m des Elektrons so klein ist; sie
beträgt nämlich nur den siebentausendsten Teil derjenigen des
Heliumatoms. Außerdem ist das Elektronengas sehr dicht, da die
Elektronen durch die positiven Atomkerne in den engen Grenzen des
Kristallgitters zusammengehalten werden. Also ist das Volumen V, das ein
Grammatom Elektronen einnimmt, sehr klein. Da m und V beide im
Nenner des Entartungsparameters stehen, wird dieser also sehr groß.
Zweitens gehorchen die Elektronen der Fermi-Dirac-Statistik, so daß das
Elektronengas, wie wir gesehen haben, eine hohe Nullpunktsenergie
besitzen muß.
Indem er alle diese Faktoren berücksichtigte, konnte Sommerfeld nicht
nur zeigen, daß das Elektronengas entartet ist, sondern auch, daß seine
spezifische Wärme den klassischen Wert 3/2 R erst bei einer Temperatur

168
von etwa 30 000° K erreicht. Da alle Metalle, lange bevor diese
Temperatur erreicht wird, verdampfen, erreicht Elektronengas auch nicht
annähernd den klassischen Wert. Bei normalen Temperaturen ist es bereits
völlig entartet, und seine spezifische Wärme ist unmerklich klein. Auf
diese Weise erklärte Sommerfelds Arbeit nicht nur das Fehlen des Beitrags
3
/2 R in der spezifischen Wärme der Metalle, sondern zeigte auch, daß die
von Nernst postulierte Gasentartung existiert, und zwar in ganz extremer
Form. Jetzt war nur noch ein direkter experimenteller Beweis der Theorie
zu erbringen. Das geschah mit den Mitteln der Tieftemperaturforschung.
Die spezifische Wärme der Elektronen ist deshalb so schwierig zu
beobachten, weil sie bereits bei normalen Temperaturen sehr klein ist. Da
sie nach Fermi und Sommerfeld zur absoluten Temperatur proportional ist,
muß sie bei 3° K noch hundertmal kleiner sein. Aber nicht nur die
spezifische Wärme der Elektronen nimmt mit sinkender Temperatur ab,
sondern auch die des Kristallgitters. Zum Glück erweist es sich, daß bei
den tiefsten Temperaturen die spezifische Wärme des Gitters rascher
verschwindet als die des entarteten Elektronengases. Daher muß die
spezifische Wärme der Elektronen allmählich bemerkbar werden und
schließlich sogar überwiegen, wenn man die Messungen zu genügend
tiefen Temperaturen hin ausdehnt. Dieser Zustand tritt bei den
Temperaturen flüssigen Heliums ein, und der vorausgesagte Effekt ist
seitdem bei allen Metallen gefunden worden (Abb. 26). In diesem
Temperaturbereich ist die spezifische Wärme des Kristallgitters
proportional zur dritten Potenz der Temperatur, während die der
Elektronen zur Temperatur selbst proportional bleibt. Für diejenigen, die
mathematische Gleichungen bevorzugen, können wir die spezifische
Wärme des Metalls durch A • T3 + B • T ausdrücken, wobei A und B
Konstanten sind und wobei der erste Ausdruck sich auf das Gitter und der
zweite auf die Elektronen bezieht. Welchen Wert die Konstanten auch
immer haben, bei genügend tiefen Werten der Temperatur T muß der
zweite Ausdruck größer als der erste werden.
Am günstigsten veranschaulicht man die Eigenschaften des entarteten
Elektronengases, indem man die Elektronen nicht im herkömmlichen

169
Ortsraum betrachtet, sondern im Geschwindigkeitsraum. Diese
Darstellungsweise wurde bereits in Kapitel 5 erwähnt, als wir den
Ordnungsgrad eines Systems erörterten. Die Auszeichnung der Positionen
der einzelnen Elektronen im Metall würde uns nicht viel nützliche
Information liefern; sie sind in dem ihnen zur Verfügung stehenden Raum
unregelmäßig verteilt. Statt dessen tragen wir im Geschwindigkeitsraum
ihre Geschwindigkeiten auf, die den jeweils in der Zeiteinheit
zurückgelegten Wegen entsprechen, und zwar, wie in Abb. 27 gezeigt, alle
von einem Punkt aus. In einem Gas völlig freier Elektronen bewegen sich
diejenigen aus einem bestimmten Geschwindigkeitsbereich mit gleicher
Wahrscheinlichkeit in jede Richtung. Wenn sie die gleiche
Geschwindigkeit haben, dann legen alle in der Zeiteinheit gleiche
Wegstrecken vom gemeinsamen Anfangspunkt aus zurück. Ihre Positionen
im Geschwindigkeitsraum müssen deshalb auf der Oberfläche einer Kugel
mit dem Anfangspunkt als Mittelpunkt liegen.
Am absoluten Nullpunkt müssen die Elektronen, die ja der Fermi-Dirac-
Statistik gehorchen, alle die tiefstmöglichen Energiezustände besetzen,
wobei jeder Zustand zwei Elektronen mit entgegengesetztem Spin enthält.
Dementsprechend gibt es eine scharfe Grenze bei einer gegebenen
Grenzgeschwindigkeit. Wir finden Elektronen in allen erlaubten Quan-
tenzuständen geringerer Geschwindigkeiten, aber keins mit einer höheren.
In unserer Darstellung entspricht die Grenzgeschwindigkeit jetzt einer
Kugel mit scharf definierter Oberfläche. Diese Oberfläche nennt man
Fermi-Oberfläche. Die Größe der Kugel ist ein Maß für die
Nullpunktsenergie des Elektronengases.
Wenn die Temperatur des Metalls vom absoluten Nullpunkt an steigt,
bekommen einige Elektronen höhere Geschwindigkeiten als die
Grenzgeschwindigkeit. Daher leeren sich einige der tiefen Energiezustände
innerhalb der Kugel. Das bedeutet, daß die Fermi-Oberfläche etwas
unscharf wird. Da das Gas jedoch hoch entartet ist, sind die durch
Wärmezufuhr bewirkten Geschwindigkeitszunahmen sehr klein im
Vergleich mit der hohen Nullpunktsgeschwindigkeit. Die Fermi-
Oberfläche ist deshalb nur etwas unscharf. Das erklärt sofort das Versagen

170
der klassischen Elektronentheorie von Drude bei der Erklärung der
Wärmeleitung der Metalle; der Einfluß der Temperatur auf die
Elektronengeschwindigkeiten ist sehr klein. Das wichtigste Merkmal des
Elektronengases besteht darin, daß seine Eigenschaften fast völlig durch
die enorme Nullpunktsenergie bestimmt werden, die natürlich temperatur-
unabhängig ist.

171
27 Im Geschwindigkeitsraum liegen die Metallelektronen am absoluten Nullpunkt auf
einer scharf begrenzten Kugeloberfläche (links). Wenn man die Temperatur erhöht, wird
die Oberfläche verschwommen (rechts).

172
Für jedes reale Metall ist die Annahme eines völlig freien
Elektronengases natürlich eine starke Vereinfachung. In Wirklichkeit
stehen die Elektronen, obwohl sie sich gegenseitig kaum stören, in enger
Wechselwirkung mit dem Kristallgitter. Sie können sich nicht in alle
Richtungen gleich frei bewegen. Die Fermi-Oberfläche ist nicht im
entferntesten eine Kugel, sondern gewöhnlich stark verformt. Die
Erforschung der Fermi-Oberfläche verschiedener Metalle war im
vergangenen Jahrzehnt Hauptgegenstand der Arbeit von Shoenberg in
Cambridge und von anderen Tieftemperaturlaboratorien. Oft sehen die von
ihnen gefundenen realen Fermi-Oberflächen wie Stücke einer modernen
Skulptur aus oder wie Ungeheuer aus dem Geschwindigkeitsraum, wie
einmal scherzhaft gesagt wurde. Interessanterweise gehorchen die
einwertigen Metalle Natrium und Gold der einfachen Theorie
bemerkenswert gut. Ihre Fermi-Oberflächen haben sich als fast
kugelförmig erwiesen. Tiefe Temperaturen bieten die einzige Möglichkeit
für derartige Untersuchungen, weil die Fermi-Oberflächen nahe dem
absoluten Nullpunkt kaum unscharf sind und im einzelnen erforscht
werden können. Wir können uns hier jedoch nicht mit den Ergebnissen
befassen, die wir erst nach einer weit ausholenden Abschweifung in die
Theorie der Metalle wirklich verstehen könnten. Aber sie sind auch nicht
besonders bezeichnend für die Tieftemperaturphysik, da das Elektronengas
selbst bei Zimmertemperatur noch stark entartet ist.
Kehren wir zu der Frage der spezifischen Wärmen zurück. Die der
Metallelektronen zeigt die Annäherung an die verschwindende Entropie
schon bei normalen Temperaturen, die wegen ihrer hohen
Nullpunktsenergie »tief« sind. Da wir als »tiefe« Temperaturen jene
definiert haben, bei denen die Nullpunktsenergie überwiegt, kann eine
bestimmte Temperatur, die für ein physikalisches System tief ist, für ein
anderes hoch sein. »Hoch« ist eine Temperatur für ein System, wenn bei
einer darunterliegenden noch irgend etwas Bezeichnendes in ihm
geschehen kann. Tatsächlich können wir, obwohl wir wissen, daß seine
Entropie am absoluten Nullpunkt verschwinden muß, nie ganz sicher sein,
daß sie bei einer von uns als tief angesehenen Temperatur bereits klein

173
genug für eine Extrapolation zum absoluten Nullpunkt hin ist. Manchmal
gibt es Anzeichen dafür, daß irgendeine wichtige Veränderung in einer
Substanz bei einer noch tieferen Temperatur verborgen liegt.
Anfang der zwanziger Jahre war die spezifische Wärme festen
Wasserstoffs in Nernsts Laboratorium in Berlin bis 10° K hinab gemessen
und glatt zum absoluten Nullpunkt hin extrapoliert worden. Die daraus
abgeleiteten thermodynamischen Daten für Wasserstoff stimmten jedoch
nicht mit den aus chemischen Reaktionen erhaltenen überein. Es entstand
der Verdacht, im Wasserstoff müßte noch etwas Wichtiges zwischen 10° K
und dem absoluten Nullpunkt geschehen. In meiner Doktorarbeit stellte ich
mir die Aufgabe, diese Frage zu untersuchen, und deshalb mußte ich die
Messungen der spezifischen Wärmen zu tieferen Temperaturen hin
ausdehnen. Die Ergebnisse rechtfertigten den Verdacht völlig; bei 6° K
hatte sich herausgestellt, daß die spezifische Wärme nicht so rasch, wie
erwartet, sank, und bei 3° K begann sie sogar mit fallender Temperatur zu
steigen. Damals konnte man den Effekt nicht weiter als bis 2° K verfolgen,
aber seitdem haben verbesserte Meßmethoden ein ausgeprägtes Maximum
der spezifischen Wärme festen Wasserstoffs nahe 1° K enthüllt. Die
Ursache dieser Anomalie ist eng mit der hohen Nullpunktsenergie festen
Wasserstoffs verknüpft, die sich in einer verstärkten, die Moleküle
auseinander haltenden Schwingung äußert. Tatsächlich haben diese
Moleküle so viel Spielraum, daß sie im Kristallgitter frei rotieren können.
Die der Anomalie der spezifischen Wärme entsprechende Entropie-
abnahme ist auf eine Ordnung dieser Rotationsbewegung der Wasser-
stoffmoleküle zurückzuführen.
Seitdem sind Tieftemperaturanomalien in der spezifischen Wärme bei
vielen Substanzen gefunden worden. Manchmal kennen wir die Ursache,
aber bei vielen ist der beteiligte Mechanismus noch unklar. In jedem Fall
ist jedoch völlig klar, daß die Entropie der Substanz größer ist als erwartet.
Diese Tatsache gab den Weg zu einem Temperaturbereich weit unter dem
frei, der mit flüssigem Helium zugänglich ist.

174
8 | Magnetische Kühlung

Nach der erfolgreichen Heliumverflüssigung im Jahr 1908 wandte sich


Kamerlingh Onnes immer wieder Versuchen zu, tiefere Temperaturen zu
erreichen. Die von ihm angewandte Methode war stets dieselbe; er
verminderte den Dampfdruck des flüssigen Heliums immer weiter, indem
er stärkere und mehr Pumpen ansetzte. Bei jedem Versuch kam er der
äußersten Grenze näher, die auf diese Weise erreicht werden kann, aber
mehr konnte er nicht tun. Helium ist das Gas mit den tiefsten kritischen
Daten, und als es verflüssigt und der Dampf darüber bis zur Grenze der
Pumpenleistung abgepumpt worden war, hatte die Geschichte der
Gasverflüssigung ein Ende. Ein halbes Jahrhundert war seit Cailletet
vergangen, und als Onnes im Februar 1926 starb, schien es, als hätte er den
letzten möglichen Schritt auf dem Weg zum absoluten Nullpunkt getan.
Aber nur zwei Monate später, am 9. April, verlas Professor Latimer von
der University of California vor der American Chemical Society einen
Artikel, in der eine völlig neue Kühlmethode beschrieben wurde. Er
behandelte die Ideen eines jungen Dozenten aus Kanada, William Francis
Giauque, der vorschlug, Temperaturen unterhalb jenen des flüssigen
Heliums mit einer magnetischen Methode zu erreichen. Giauques
vollständige Arbeit, in der seine Idee im einzelnen beschrieben ist, wurde
am 17. Dezember zur Veröffentlichung eingereicht. Es war fast wieder wie
im Fall von Cailletet und Pictet; denn einige Wochen vorher, am 30.
Oktober, hatte Peter Debye völlig unabhängig von ihm denselben
Vorschlag den Annalen der Physik zugesandt.
Zum Verständnis des Mechanismus der magnetischen Kühlung muß
zunächst einiges über magnetische Wirkungen in der Struktur der Materie
gesagt werden. Die enge Beziehung zwischen Elektrizität und
Magnetismus war durch Maxwells elektrodynamische Theorie in der
zweiten Hälfte des 19. Jahrhunderts in strenge Form gebracht worden.
Nach dieser Theorie ist ein magnetisches Feld immer mit der Bewegung,
insbesondere mit der Rotation einer elektrischen Ladung verbunden. Die
175
Elektronen, die einen Teil der atomaren Struktur bilden, sind solche
bewegten Ladungen, und sie sind auf zweierlei Weise mit magnetischen
Feldern verknüpft: einmal durch ihr Umkreisen des Kerns und zum
anderen durch die Rotation um ihre eigenen Achsen, den Spin. Diese Spins
sind von besonderer Wichtigkeit bei der Beobachtung von Tief-
temperaturerscheinungen.
Bei Temperaturen, bei denen die Spins noch ungeordnet sind, zeigen sie
unregelmäßig in alle Richtungen. Wenn die Substanz jetzt in ein
magnetisches Feld gebracht wird, sagen wir zwischen die Pole eines
starken Magneten, werden Kräfte auf die Spins ausgeübt, die sie in die
Feldrichtung auszurichten suchen. Der Grad, bis zu dem eine Substanz
durch ein gegebenes Feld magnetisiert wird, heißt ihre Suszeptibilität. Der
Ausrichtung der Spins durch ein äußeres Magnetfeld wirken die atomaren
Schwingungen entgegen, die die Spins in Unordnung zu bringen suchen.
Deshalb lassen sich die Spins leichter ausrichten, wenn die thermischen
Schwingungen der Atome weniger stark sind, d. h. bei tiefen
Temperaturen. Diese Tatsache war um die Jahrhundertwende von Pierre
Curie entdeckt worden, der feststellte, daß die magnetische Suszeptibilität
umgekehrt proportional zur absoluten Temperatur ist.
Nicht alle Substanzen zeigen ein derart einfaches Verhalten. In
Wirklichkeit stehen in den meisten die Spins in starker Wechselwirkung
miteinander, und anstatt ungeordnet in alle Richtungen zu zeigen, finden
sie sich zu Paaren zusammen, die wie zwei Stabmagnete mit den
entgegengesetzten Polen aneinanderhängen. Es gibt jedoch einige Kristalle,
insbesondere die Salze der seltenen Erden und Metalle der Eisengruppe,
die eine Struktur besitzen, in der einzelne Spins sehr isoliert sind. Diese
Substanzen gehorchen dem Gesetz von Curie, und eine davon,
Gadoliniumsulfat, hatten Onnes und Woltjer 1924 untersucht. Bei ihrem
Experiment wollten sie vor allem sehen, ob sie die Spins bei etwa 1° K mit
einem sehr starken Magnetfeld vollständig ausrichten könnten. Sie wählten
deshalb Gadoliniumsulfat, weil sie festgestellt hatten, daß es dem Gesetz
von Curie auch noch bei 1° K gehorcht.
Es war jedoch die volle Bedeutung dieser letzten Tatsache, die ihnen

176
verborgen blieb, und gerade hier setzten Giauque und Debye mit ihren
Überlegungen an. Solange eine Substanz dem Gesetz von Curie gehorcht,
müssen die Spins in einem Unordnungszustand, d. h. auf alle Richtungen
unregelmäßig verteilt sein. Ihre Entropie muß also noch hoch sein. Bei 1°
K haben die thermischen Atomschwingungen im Kristallgitter des
Gadoliniumsulfats praktisch aufgehört; die durch sie bedingte Entropie ist
verschwindend klein. Das Spinsystem des Salzes ist jedoch noch in
Unordnung und geht nicht in einen Zustand geringer Entropie über, bevor
eine viel tiefere Temperatur erreicht ist. Das Salz ist wie der im letzten
Kapitel erwähnte feste Wasserstoff eine jener Substanzen, die unterhalb 1°
K noch eine wichtige Veränderung erfahren. Andererseits kann aber dem
Spinsystem des Salzes bei 1° K ein hoher Ordnungszustand dadurch
aufgezwungen werden, daß man es in ein starkes Magnetfeld bringt; und
die auf diese Weise erzielbare Entropieabnahme sollte nach den
Vorschlägen von Giauque und Debye nutzbar gemacht werden.
Im Prinzip folgt die Methode der magnetischen Kühlung etwa
denselben Schritten wie Cailletets Sauerstoffverflüssigung, bei der das Gas
erst komprimiert und dann expandiert wird. Der Unterschied ist nur, daß
statt eines Gases ein Salz benutzt wird und ein Magnetfeld statt des
Druckes. Am einfachsten kann man die magnetische Methode durch ein
Diagramm erklären, in dem die Entropie des Salzes gegen die absolute
Temperatur aufgetragen ist (Abb. 28).
Wir haben den Temperaturbereich von etwas über 1° K bis zum
absoluten Nullpunkt gewählt. Die dick ausgezogene Kurve gibt die
Entropie des Salzes außerhalb des Magnetfelds an. Bei 1° K und ein gutes
Stück darunter ändert sich die Entropie wenig mit der Temperatur, d. h., sie
ist völlig durch die Spins bestimmt, die in diesem Bereich unregelmäßig
orientiert bleiben. Zu höheren Temperaturen hin steigt die Entropie an,
weil sich jetzt die Gitterentropie bemerkbar macht. Die Gitterentropie ist
gesondert durch eine punktierte Linie angegeben, die zu jener der
Gesamtentropie parallel verläuft, d. h., die Entropie der Spins bleibt
unverändert. Bei einer sehr tiefen Temperatur müssen sich die Spins auch
ohne den Einfluß eines Magnetfelds entsprechend dem dritten Hauptsatz

177
der Thermodynamik ordnen. Das geschieht dann, wenn die thermische
Energie so klein wird, daß die Wechselwirkung der Spins sich gegen sie
durchsetzt. Dieser Effekt macht sich in unserem Diagramm durch einen
steilen Abfall der Entropie (ausgezogene Kurve) auf einen verschwindend
kleinen Wert bemerkbar.
Als nächstes führen wir in das Diagramm die Kurven der
Gesamtentropie des Salzes in einem äußeren Magnetfeld ein. Drei dieser
(gestrichelten) Kurven sind angegeben, deren jede einer anderen Feldstärke
entspricht. Da das Magnetfeld die Spins ausrichtet, befinden sie sich in
größerer Ordnung als beim Feld Null, und unsere gestrichelten Kurven
liegen deshalb alle unterhalb der ausgezogenen Kurve. An der Entropie

28 Das Entropiediagramm eines paramagnetischen Salzes zeigt, wie mit der magnetischen
Kühlmethode sehr tiefe Temperaturen erreicht werden können.

178
des Kristallgitters ändert sich natürlich durch das Einschalten des
Magnetfelds nichts; ihr Einfluß ist daher bei allen gestrichelten Kurven
gleich. Andererseits nimmt die Magnetisierung, d. h. die Ausrichtung der
Spins, wie vom Curieschen Gesetz gefordert, mit fallender Temperatur zu.
Folglich wird die Verminderung der Entropie gegenüber derjenigen beim
Feld Null bei Annäherung an den absoluten Nullpunkt immer ausgeprägter.
Das Diagramm ist jetzt vollständig bis auf die Einzeichnung der
Wirkungsweise der magnetischen Kühlung.
Mit flüssigem Helium als Kühlmittel ist die Temperatur des Salzes auf
1° K verringert, und ein Magnetfeld ist noch nicht angelegt. Wir befinden
uns daher bei A in unserem Entropiediagramm. Die Magnetisierung des
Salzes ohne Wärmeaustausch mit der Umgebung nennt man einen
»adiabatischen« Prozeß, dessen Wesen darin besteht, daß die Entropie
ungeändert bleibt. Wenn wir ein Feld der Stärke von 10 000 Oersted
anlegen, erfolgt eine bestimmte Magnetisierung. Deren Effekt können wir
in unser Diagramm einzeichnen, indem wir denjenigen Punkt auf der
gestrichelten Kurve für 10 kOe aufsuchen, der zu demselben Entropiewert
wie A gehört. Das ist B, und wir sehen, daß wir durch Magnetisierung des
Salzes dessen Temperatur erhöhen würden.
Wir haben die magnetische Kühlung mit der Expansion eines Gases
verglichen. Vor der Expansion muß das Gas komprimiert werden, und die
Erwärmung des Salzes von A nach B ist auf die Magnetisierungswärme
zurückzuführen, die der Kompressionswärme ganz analog ist, wie sie z. B.
beim Heißwerden einer Fahrradpumpe in Erscheinung tritt. In einem
Expansionskreislauf wird die Kompressionswärme durch das Kühlwasser
abgeführt; im magnetischen Prozeß leistet dies das flüssige Helium.
Deshalb wird dafür gesorgt, daß die Magnetisierungswärme bei 1° K
abgeführt und daß das Salz auf dieser Temperatur gehalten wird, jedoch
nicht bei A, sondern auf dem 10 kOe entsprechenden Punkt der Kurve, d.
h. bei C. Hier beginnt jetzt der eigentliche Abkühlungsschritt.
Diese Abkühlung soll adiabatisch durchgeführt, d. h. der Wärmezu-
strom zum Salz muß möglichst klein gehalten werden. Der Wärmeaus-
tausch mit dem flüssigen Helium bei 1° K wird daher unterbrochen und das

179
Salz thermisch völlig isoliert. Dann wird das Magnetfeld abgeschaltet. Wir
müssen jetzt den Punkt im Diagramm aufsuchen, der auf der ausgezogenen
Kurve für das Feld Null liegt und denselben Entropiewert wie C hat. Das
ist Punkt D, der einer Endtemperatur Te weit unter 1° K entspricht.
Giauque und Debye schlugen vor, daß auf diese Weise eine magnetische
Abkühlung erreicht werden könnte.
Nach diesem ersten Vorschlag vergingen weitere sieben Jahre, bis die
Ausrüstung beschafft war, mit der die Methode ausprobiert werden konnte.
Das Leidener Laboratorium mit seinen umfangreichen kältetechnischen
Einrichtungen war noch führend, aber nicht mehr als einziges. Tatsächlich
wurde Leiden bei der magnetischen Kühlmethode knapp geschlagen. Die
ersten Leidener Experimente wurden in einer Mitteilung vom 15. Mai 1933
veröffentlicht, aber Giauque in Berkeley (Kalifornien) hatte bereits von
drei erfolgreichen Experimenten am 19. März sowie am 8. und 9. April
berichtet. Die dabei erreichten Temperaturen waren 0,53° K bzw. 0,34° K
und 0,25° K. Die Methode hatte sich zweifellos bewährt; ein neuer
Temperaturbereich war erschlossen. Auf Berkeley und Leiden folgten bald
Oxford und dann Cambridge. Heute ist die magnetische Kühlung in den
Laboratorien der ganzen Welt zu einer klassischen Methode geworden.
Technische Verbesserungen, höhere Magnetfelder und besser geeignete
Salze erweiterten den mit der neuen Kühlmethode zugänglichen Bereich
bald auf Temperaturen unterhalb 0,01° K.
Nach unserem Entropiediagramm mag es so scheinen, als ob es für ein
bestimmtes Salz nicht viel Sinn hätte, sehr hohe Magnetfelder
anzuwenden, da die Entropie bei den tiefsten Temperaturen so rasch
abfällt. Ein viel höheres Feld würde deshalb wahrscheinlich keine
beträchtlich tiefere Temperatur ergeben. Das ist tatsächlich der Fall, aber
das Erreichen einer tieferen Temperatur an sich ist erst ein halber Erfolg.
Man muß diese Temperatur auch lange genug aufrechterhalten können, um
Experimente machen zu können. Das ist wie bei der Gasverflüssigung. Die
tiefe Temperatur, die Callletet durch Sauerstoffexpansion erreichte, hielt
sich nur einige Sekunden lang, bis der Tröpfchennebel verschwunden war.
Das Ideal der ruhig siedenden flüssigen Gase erreichte man erst, als

180
beträchtliche Mengen dieser Gase verflüssigt waren, so daß sie nicht durch
jeden kleinen Wärmezustrom wieder verdampft werden konnten. Um
Temperaturen unter 1 ° K gewisse Zeit aufrechterhalten zu können, mußte
man nicht nur den Wärmezustrom sehr klein machen, sondern auch einen
hohen Grad der Spinausrichtung erzeugen.
In unserer Geschichte haben wir bereits gesehen, daß es in dem hier
behandelten Bereich der Physik gewöhnlich zwei Erklärungsmöglichkeiten
für dieselbe Erscheinung gibt. Die eine ist die strenge thermodynamische,
die auf klare Ergebnisse führt, aber wenig über das Detail sagt. Die andere
ist die mikroskopische, die die Vorgänge auf atomarer Grundlage zu
deuten sucht und gewöhnlich zwar anschaulicher, aber nicht immer ebenso
zuverlässig ist. Die Erklärung der magnetischen Kühlung, bei der wir uns
auf das Entropiediagramm stützten, war thermodynamisch. Im mikroskopi-
schen Bild dürfte leichter zu verstehen sein, was man tun muß, um die
durch magnetische Kühlung erreichten tiefen Temperaturen längere Zeit
aufrechtzuerhalten.
Betrachten wir zunächst den Fall ohne äußeres Feld. Obgleich die Spins
in einem Salz wie Gadoliniumsulfat bei 1° K noch ungeordnet sind,
müssen sie nach Nernsts Theorem bei Annäherung an den absoluten
Nullpunkt in eine regelmäßige Anordnung übergehen. Wir wollen hier nur
einen der Wege betrachten, auf denen das geschehen kann, nämlich den der
gegenseitigen magnetischen Wechselwirkung der Spins. Wir können sie
uns als kleine Stabmagnete vorstellen, jeder mit Nord- und Südpol, die wir
durch kleine Pfeile darstellen (Abb. 29). Bei 1° K zeigen sie ungeordnet in
alle Richtungen. Wenn die Temperatur sinkt und die thermische Bewegung
nachläßt, wirken Nord- und Südpol jedes Magneten auf die Pole seiner
Nachbarn, und alle Magnete neigen dazu, sich in dieselbe Richtung
einzustellen. Bei weiterer Temperaturerniedrigung nimmt diese spontane
Ausrichtung zu, bis sie schließlich vollständig ist.
Betrachten wir jetzt denselben Vorgang umgekehrt von sehr tiefen
Temperaturen ausgehend, dann sind zunächst alle Spins ausgerichtet.
Durch Wärmezufuhr erwärmt sich zwar das Salz, aber es muß noch
zusätzlich Energie aufnehmen, damit die Spinrichtungen in Unordnung

181
geraten. Diese Energie macht sich in der spezifischen Wärme des Salzes
bemerkbar, die deshalb in diesem Bereich groß sein muß. Sobald die
Unordnung erst einmal hergestellt ist, ist keine weitere Zusatzenergie
notwendig, und die spezifische Wärme nimmt wieder normale Werte an.
Daraus folgt, daß die spezifische Wärme des Salzes dort ein Maximum hat,
wo seine Entropie einen steilen Abfall zeigt. Natürlich wären wir mit Hilfe
der Thermodynamik zu genau demselben Ergebnis gekommen, aber wir
hätten wenig darüber erfahren, was mit den Spins geschieht.
Der unvermeidbare Wärmezustrom in ein mit flüssigem Helium
gefülltes Dewar-Gefäß läßt einen Teil der Flüssigkeit verdampfen. Um
tiefe Temperaturen aufrechtzuerhalten, müssen wir genug Flüssigkeit im
Gefäß haben. In einem magnetisch abgekühlten Salz bringt ein
Wärmezustrom die ausgerichteten Spins in Unordnung; diese müssen also
anfangs hinreichend ausgerichtet sein, damit das Salz auf tiefen
Temperaturen bleibt. Mit anderen Worten: Die Wärmekapazität bei tiefen
Temperaturen muß groß genug sein, wenn wir das Salz gewisse Zeit kalt
halten wollen. Zwar bringt ein starkes Magnetfeld das Salz nicht auf eine
viel tiefere Temperatur als ein schwaches Feld, es richtet aber die Spins
viel stärker aus. Die Entmagnetisierung von stärkeren Feldern aus führt das
Salz also tiefer in die Anomalie der spezifischen Wärme hinein. Das heißt,
die Wärmekapazität bei tiefen Temperaturen nimmt dadurch zu.
Giauques und Debyes Vorschlag der magnetischen Abkühlung machte
der zwanzig Jahre dauernden Stagnation, in die die Annäherung an den
absoluten Nullpunkt nach der Heliumverflüssigung geraten war, ein Ende.
Theoretisch war der Weg zu einem unerforschten neuen Gebiet »magne-
tischer Temperaturen« jetzt frei, aber niemand wußte, ob man ihn auch
praktisch würde gehen können. Ohne zu ahnen, wie nahe sie der Lösung
des Problems gewesen waren, hatten Kamerlingh Onnes und Woltjer durch
ihre Untersuchungen des Gadoliniumsulfats die Arbeitssubstanz geliefert.
Vier Dinge waren jetzt nötig: eine tiefe Ausgangstemperatur, ein starker
Magnet, ein Wärmeschalter und vor allem eine viel bessere thermische
Isolation als jemals vorher benutzt worden war.

182
29 Die Zunahme der magnetischen Ordnung bei Temperaturverringerung wird anhand der
Anordnung der Elektronenspins gezeigt.

183
Kamerlingh Onnes hatte gezeigt, daß man eine Temperatur von 1° K
und darunter tatsächlich viele Stunden lang aufrechterhalten kann. Er hatte
das durch Abpumpen des Dampfes über flüssigem Helium in einem
kleinen Dewar-Gefäß erreicht. Dieses Gefäß war von anderen umgeben,
die – von innen nach außen – flüssiges Helium am Siedepunkt bzw.
flüssigen Wasserstoff bzw. flüssige Luft enthielten. Um ein starkes
Magnetfeld zu erzeugen, muß man die Polschuhe eines Elektromagneten
möglichst nahe zusammenrücken. Ein Polzwischenraum, der einem
sperrigen Kryostaten aus mehreren konzentrischen Gefäßen Platz bietet,
ergibt ein für das Experiment zu schwaches Feld; deshalb waren besondere
Kryostate nötig. Die Erzeugung eines starken Magnetfelds ist ein
kostspieliges Unternehmen. Starke Elektromagnete, mit denen man Felder
von, sagen wir, 10 000 Oersted in einem annehmbaren Volumen erreicht,
erfordern eine Menge Eisen hoher Qualität, was sie nicht nur teuer,
sondern auch schwerfällig macht. Die Alternative besteht darin, einen sehr
starken Strom durch ein Solenoid, eine eisenfreie Spule, zu schicken und
die dabei erzeugte Wärme durch schnell strömendes Öl oder Wasser
abzuführen. Das ist technisch schwierig; außerdem braucht man ein
Kraftwerk, das den für das Experiment benötigten starken Strom erzeugt.
Beide Vorrichtungen, sowohl Eisenmagnete wie auch Solenoide, sind in
Apparaturen für die magnetische Kühlung verwandt worden.
Den Wärmeschalter braucht man, um die Magnetisierungswärme des
Salzes in das flüssige Helium bei 1° K ableiten und dann das Salz, wenn
das magnetische Feld abgeschaltet wird, vom flüssigen Helium isolieren zu
können. Die häufigste Lösung ist diejenige, die schon Dewar bei seiner
Demonstration des Vakuumgefäßes benutzte (s. Kapitel 3). Er zeigte
seinem Auditorium ein doppelwandiges Gefäß, in dem flüssige Luft ruhig
siedete, weil der Raum zwischen den beiden Glaswänden evakuiert war.
Als er den Evakuierstutzen abbrach, begann die Flüssigkeit heftig zu
kochen und verdampfte rasch. Atmosphärische Luft war in den Raum
zwischen den Wänden eingedrungen und hatte eine thermisch leitende
Verbindung zwischen der Außenwand auf Zimmertemperatur und der
flüssigen Luft hergestellt. Dasselbe Prinzip hatte Nernst in etwas

184
weiterentwickelter Form bei seinen Messungen der spezifischen Wärme
angewandt; es war in der Tieftemperaturforschung ganz gebräuchlich
geworden. Anstatt einen Stutzen abzubrechen und atmosphärische Luft in
das Vakuum eindringen zu lassen, benutzt man einen Hahn, durch den eine
kleine Gasmenge, gewöhnlich Helium, eingelassen oder auch, wenn die
Vakuumisolation wiederhergestellt werden soll, ausgepumpt werden kann.
Schließlich ist für eine gute Wärmeisolation ein gutes Vakuum und eine
geeignete Konstruktion des Kryostaten nötig, bei der jede Wärmestrahlung
durch Reflektoren von der Experimentierkammer abgeschirmt wird.
Als Giauque und Debye 1926 ihre ersten Aufsätze über die Möglichkeit
magnetischer Abkühlung veröffentlichten, war das Leidener Laboratorium
nicht mehr das einzige der Welt, in dem flüssiges Helium zur Verfügung
stand. Neue Tieftemperaturlaboratorien waren in verschiedenen Ländern
entstanden, und zu dem neuen Temperaturbereich unter 1° K setzte ein
Wettrennen ein, das jenem zur ersten Heliumverflüssigung ähnelte.
Trotzdem vergingen sieben Jahre bis zur ersten erfolgreichen magnetischen
Kühlung.
Das Rennen wurde, wie erwähnt, von Giauque, dem Erfinder des
Verfahrens, gewonnen. Debye als Theoretiker nahm nicht teil daran. Am
12. April 1933 berichtete Giauque von seiner ersten, in Zusammenarbeit
mit MacDougall an der University of California durchgeführten
Versuchsreihe. Er hatte eine Probe aus Gadoliniumsulfat benutzt, sie bei
einer Anfangstemperatur von 3,4° K magnetisiert und am 19. März 0,53° K
erreicht. Durch diesen Anfangserfolg ermutigt, vergrößerte er die
Pumpleistung, mit der er den Dampf über dem Helium in seinem
Kryostaten entfernte, und am 8. April erreichte er, von 2° K ausgehend,
0,34° K. Ein dritter Versuch am folgenden Tag begann bei 1,5° K und
führte zu einer Endtemperatur von 0,25° K. Die magnetische Kühlung war
Wirklichkeit, und bereits bei diesen ersten Pionierexperimenten war die
tiefste mit flüssigem Helium erreichbare Temperatur um zwei Drittel
unterschritten worden.
Das war erst der Anfang. Schon einen Monat später meldete das
Leidener Laboratorium, jetzt zu Ehren seines Gründers Kamerlingh-

185
Onnes-Laboratorium genannt, die erste erfolgreiche Kühlung, bei der eine
Temperatur von 0,27° K erreicht wurde. Das Leidener Experiment war mit
Ceriumfluorid, einem anderen, ziemlich teuren Salz, durchgeführt worden.
Als jedoch ein Jahr darauf das gerade errichtete Tieftemperatur-
laboratorium in Oxford seine Arbeiten zur magnetischen Kühlung
aufnahm, wurde jetzt Eisenammoniumalaun gewählt, eine ganz
gewöhnliche Substanz, die als Blutstillmittel beim Rasieren viel benutzt
wird. Bei diesen Experimenten wurde zum erstenmal eine zweite Substanz
mit abgekühlt. Dem Salz hatte man nämlich Cadmiumpulver beigemischt,
und es ließ sich zeigen, daß dieses Metall bei 0,56° K supraleitend wird.
Wenige Jahre später begann man in Cambridge mit Entmagnetisierungs-
experimenten, und nach dem Krieg wandten sich viele Laboratorien in aller
Welt diesem Gebiet zu. Während anfangs die Untersuchung der im
Kühlprozeß benutzten Salze im Vordergrund stand, ging man allmählich
immer mehr dazu über, die Eigenschaften anderer auf magnetische
Temperaturen abgekühlter Substanzen zu erforschen. In den fünfziger
Jahren war die magnetische Kühlung zum Standardverfahren geworden,
das keine größeren Schwierigkeiten mehr bot und einen Temperaturbereich
bis hinab zu wenigen tausendstel Grad über dem absoluten Nullpunkt
erschloß.
Bei diesen Experimenten geht man im wesentlichen genau wie die
Pioniere in Berkeley, Leiden und Oxford vor. Abb. 30 zeigt eine
schematische Darstellung. Das Salz S, gewöhnlich in Form einer Kugel
oder eines Ellipsoids, wird von einem schwach wärmeleitenden Träger in
einem Behälter P gehalten, der durch den Hahn H evakuiert werden kann.
Dieser Behälter ist von einem Bad flüssigen Heliums umgeben, das unter
vermindertem Druck bei etwa 1° K im Dewar-Gefäß siedet. Zunächst wird
etwas Heliumgas in den Behälter geleitet und der Hahn geschlossen
gehalten. Das Salz ist deshalb auch auf 1° K, da das Heliumgas Wärme gut
leitet. Aber die Spins im Salz – durch kleine Pfeile dargestellt – sind bei
dieser Temperatur noch in Unordnung; ihre Entropie ist noch hoch. In
unserem Entropiediagramm in Abb. 28 (S. 178) befindet sich das Salz in
diesem Stadium des Prozesses bei A. Als nächstes wird das Salz

186
magnetisiert, und zwar gewöhnlich indem man den Kryostaten zwischen
die Polschuhe eines starken Elektromagneten bringt (Abb. 30b). Das
äußere Magnetfeld zwingt die Spins, die sich ja wie kleine Magnete
verhalten, in die Richtung seiner eigenen Kraftlinien. Sie werden in der
Feldrichtung ausgerichtet, ihre Entropie nimmt ab, und wir erreichen Punkt
C im Entropiediagramm (S. 178). Die Anwendung eines Felds auf das Salz
setzt jedoch, wie bereits erklärt, eine Magnetisierungswärme frei, und das
Salz müßte sich im Entropiediagramm auf Punkt B zu bewegen. Diese
Erwärmung des Salzes wird aber durch die Anwesenheit des Gases im
Behälter P verhindert, das die Magnetisierungswärme in das flüssige
Helium abführt. Die durch die Spinausrichtung erzeugte Wärme bringt also
nur etwas Helium zusätzlich zum Verdampfen, und die Temperatur der
ganzen Vorrichtung bleibt bei 1 ° K.
Jetzt ist die Apparatur fast zur magnetischen Kühlung bereit. Man muß
nur noch dafür sorgen, daß dem abgekühlten Salz keine Wärme zuströmen
kann. Die thermische Verbindung mit der übrigen Apparatur muß deshalb
unterbrochen werden; das geschieht dadurch, daß der Hahn H geöffnet und
der Innenraum von P mit einer Pumpe evakuiert wird (Abb. 30c).
Schließlich wird der Elektromagnet fortgenommen, und das Salz
erreicht den Punkt D im Entropiediagramm, dem die erreichte tiefe
Endtemperatur entspricht (Abb. 30d).
Nach dieser Entmagnetisierung kann man mit Experimenten am Salz
oder irgendeiner mitabgekühlten Substanz beginnen. Wie lange
Beobachtungen durchgeführt werden können, hängt natürlich vom
Wärmezustrom zum Salz ab. Schon bei seinen allerersten Experimenten
konnte Giauque sehr tiefe Temperaturen mehrere Stunden lang
aufrechterhalten. Wie bemerkenswert das war, wurde einen Monat später
beim ersten Leidener Experiment klar, als man die tiefe Temperatur nur
wenige Minuten halten konnte. In den folgenden Jahren wurde an den
verschiedenen Laboratorien viel Mühe darauf verwandt, die
Wärmeisolation des Salzes weiter zu verbessern, und man konnte den
Wärmezustrom auf 10-8 Watt (einen winzigen Energiefluß) reduzieren.

187
30 Die vier aufeinanderfolgenden Stufen eines magnetischen Kühlversuchs.

188
Auf wie kleine Wärmemengen es bei diesen Experimenten ankommt,
zeigt eine seltsame Störung, die den ersten Experimentatoren lange zu
schaffen machte. Häufig schien der Salzprobe aus einer unbekannten
Quelle Wärme zuzuströmen. Diese Erwärmung machte genaue Messungen
unmöglich und mußte näher untersucht werden. Das Rätselhafte an der
Störung war, daß sie nur sporadisch auftrat und im allgemeinen tagsüber
schlimmer zu sein schien als nachts. Den Schlüssel lieferte die Tatsache,
daß die Erwärmung offenbar stärker war, wenn mechanische Pumpen in
der Nähe des Kryostaten in Betrieb waren. Die Spur führte schließlich zu
den feinen Nylonfäden, an denen das Salz zwecks Verminderung der
Wärmeleitung aufgehängt war. Mechanische Stöße und der Betrieb der
Maschinen – beides kam tagsüber häufiger vor – ließen die Nylonfäden
vibrieren. Die bei der Vibration durch das Strecken der Fäden erzeugte
Wärme reichte aus, das Experiment zu beeinträchtigen; die Störung
verschwand, als man zu festen Trägern überging.
Die tiefste Abkühlung, die durch Entmagnetisieren eines
paramagnetischen Salzes erreicht werden kann, hängt nicht nur von der
Ausgangstemperatur und dem benutzten Magnetfeld ab, sondern vor allem
von den magnetischen Eigenschaften der Arbeitssubstanz. In unserem
Entropiediagramm (S. 178) sehen wir, daß der steile Abfall der
Entropiekurve bei der Feldstärke Null die äußerste Grenze setzt. Dieser
Abfall beruht, wie wir sahen, auf der Wechselwirkung der Spins unter-
einander bei Temperaturen, bei denen die thermischen Schwingungen zu
schwach sind, um eine regelmäßige Anordnung der Spins zu verhindern.
Wiederum besteht große Ähnlichkeit mit der Abkühlung eines Gases in
einer Expansionsmaschine. Auch dort bekommen bei sinkender Tempe-
ratur allmählich die Anziehungskräfte die Oberhand, das Gas beginnt sich
zu verflüssigen, und weitere Abkühlung durch Expansion wird unmöglich.
Die Analogie zwischen der magnetischen Kühlung und der durch
Expansion geht sogar noch weiter. Mit Wasserstoff kann man in einer
Expansionsmaschine tiefere Temperaturen erreichen als mit Luft, weil der
Siedepunkt des Wasserstoffs viel tiefer liegt als der von Luft. Für noch
tiefere Temperaturen muß man Helium verwenden. Ähnlich ist es bei den

189
paramagnetischen Salzen, wo die Spinwechselwirkung für verschiedene
Substanzen bei verschiedenen Temperaturen einsetzt. In Gadoliniumsulfat
z. B. findet der rasche Entropieabfall etwa bei 0,2° K statt, in Eisenammo-
niumalaun etwa bei 0,05° K und bei rund 0,003° K in Cerium-
magnesiumnitrat. Dieser letzte Wert kann als untere Grenze
paramagnetischer Kühlung angesehen werden.
Beim Vergleich der magnetischen Kühlung mit der durch Expansion
darf man nicht vergessen, daß der oben besprochene Prozeß im
wesentlichen einem einzigen Expansionsarbeitsgang entspricht, wie ihn
Cailletet anwandte. Etwas kompliziertere magnetische Kühleinrichtungen,
die einer abwechselnd wirkenden Expansionsmaschine mit Kolben entspre-
chen, wurden auch benutzt, erwiesen sich aber als nicht besonders nützlich.
Der Vorteil einer solchen magnetischen Maschine besteht nur darin, daß
sie eine große Masse einer zweiten Substanz abkühlen kann. Da jedoch bei
diesen sehr tiefen Temperaturen die Wärmekapazitäten anderer Substanzen
gewöhnlich klein sind, verglichen mit der des Salzes, reicht eine einzige
Entmagnetisierung in den meisten Fällen völlig aus. Mehr als eine einzige
Entmagnetisierung ist jedoch dann von Nutzen, wenn sehr tiefe Tempe-
raturen erzielt werden sollen; dafür sind Kühlvorrichtungen mit zwei oder
sogar drei Entmagnetisierungsstufen benutzt worden. Für diese Zwecke
nahm man verschiedene Salze mit zunehmend tieferen Temperaturen des
endgültigen Entropieabfalls. Auch hier haben wir wieder eine enge
Analogie zu den in Kapitel 2 beschriebenen Verflüssigungs»kaskaden«.
Als Giauque und Debye ihre neue Abkühlungsmethode vorschlugen,
erhob sich die Frage, ob, und wenn ja, wie diese sehr tiefen Temperaturen
gemessen werden könnten. Zum Glück erwies sich dies als eine
Scheinfrage, d. h., die Antwort war bereits in ihr enthalten. Eine
Abkühlung kann man nur mit Hilfe einer Substanz erreichen, deren
Entropie sich noch mit der Temperatur ändert; und diese Entropieänderung
kann gemäß dem zweiten Hauptsatz der Thermodynamik immer zur
Bestimmung der absoluten Temperatur herangezogen werden. Anders
ausgedrückt: Jeder Abkühlungsmechanismus liefert automatisch sein
eigenes Thermometer.

190
Wie die magnetische Abkühlung selbst ist auch ihre Thermometrie ganz
analog zu der bei der Gasverflüssigung benutzten. Temperaturänderungen
eines Gases bewirken Druck- und Volumenänderungen, und diese stehen
zueinander nach den Gesetzen von Boyle und Gay-Lussac in der einfachen
Beziehung: P • V = konst. • T. Die entsprechende Beziehung für ein para-
magnetisches Salz ist das Curiesche Gesetz, das geschrieben werden kann:
Suszeptibilität = konst./T. Das ist ebenfalls eine sehr einfache Formel, die
vermuten läßt, daß auch die magnetische Thermometrie relativ einfach ist.
Im Fall eines Gasthermometers wird die Druckänderung in einem
gegebenen Gasvolumen gemessen, und diese ist dann direkt proportional
zur absoluten Temperatur. Diese Art der Temperaturmessung ist sehr alt
und wurde zuerst von Galilei und Amontons benutzt. Bei einem Salz
braucht man nur seine magnetische Suszeptibilität zu messen, die gemäß
dem Curieschen Gesetz umgekehrt proportional zur absoluten Temperatur
ist.
Die Messung selbst ist verhältnismäßig einfach. Die Suszeptibilität ist
die durch ein gegebenes Magnetfeld bewirkte Magnetisierung des Salzes,
dividiert durch die magnetische Feldstärke. Praktisch erhält man sie, indem
man ein kleines Magnetfeld einschaltet und die Feldstärke in der Probe
mißt. Das kann man zum Glück tun, ohne ein magnetisches Meßgerät in
das Salz selbst einzuführen. Wenn ein Strom durch eine lange Zylinder-
spule A (Abb. 31) geschickt wird, entsteht in ihrem Innern ein homogenes
Magnetfeld. Die Stärke dieses Feldes wird aus dem in der Sekundärspule B
induzierten Strom bestimmt und vom Galvanometer G angezeigt. Die
Sekundärspule besteht aus zwei gleichen Teilen B1 und B2, die jedoch
entgegengesetzt gewickelt sind. Wenn also das Magnetfeld auf der ganzen
Länge der Primärspule A dieselbe Stärke hätte, würde in der Sekundär-
spule kein Strom fließen und das Galvanometer nicht anzeigen. Um als
magnetisches Thermometer zu dienen, wird das Spulensystem so um den
Kryostaten angeordnet, daß das Salz S in die Mitte von B1 kommt. Da nun
das Salz eine paramagnetische Suszeptibilität besitzt, zieht es die
magnetischen Kraftlinien in sich hinein, und folglich werden durch B1
insgesamt mehr Kraftlinien gehen als durch B2. In B1 wird daher ein

191
stärkerer Strom induziert als in B2, und das Galvanometer zeigt gerade die
Differenz an. Sie ist ein direktes Maß für die Suszeptibilität des Salzes und
gemäß dem Curieschen Gesetz auch für das Reziproke der absoluten
Temperatur.
Diese einfache magnetische Temperaturbestimmung bietet allerdings
bei Annäherung an den absoluten Nullpunkt zunehmende Schwierigkeiten,
die jenen beim Gasthermometer nicht unähnlich sind. Wir haben bereits
gesehen, daß, wenn ein Gas abgekühlt wird, sich von einer bestimmten
Temperatur an Abweichungen von der einfachen Gleichung P • V = R • T
zu zeigen beginnen, die von den Anziehungskräften der Gasmoleküle
herrühren und die bevorstehende Verflüssigung ankündigen. Die
Wechselwirkung zwischen den Spins im paramagnetischen Salz spielt eine
ähnliche Rolle, die zu Abweichungen vom Curieschen Gesetz führt. Das
bedeutet aber nicht, daß das magnetische Thermometer jetzt nutzlos wird.
Man kann es immer noch benutzen, muß aber eine kompliziertere Formel
als das Curiesche Gesetz heranziehen, die Korrekturen für die Spin-
wechselwirkung enthält. Das entspricht genau dem Einsetzen der Van-der-
Waals-Gleichung anstelle der einfachen Gasgesetze.
Die Anwendung dieser Korrekturen ist jedoch, da sie die genaue
Kenntnis der komplizierten magnetischen Wechselwirkungen voraussetzt,
ziemlich verwickelt und wird noch um so verwickelter, je tiefer die zu
messende Temperatur ist. Man könnte jetzt meinen, der wahre Wert der
tiefsten mit paramagnetischen Salzen erreichbaren Temperaturen bleibe
deshalb immer unsicher. Aber zum Glück rettet uns wieder der zweite
Hauptsatz der Thermodynamik. Dieser Satz enthält nämlich die Definition
der absoluten Temperatur selbst. Wie Lord Kelvin vor mehr als einem
Jahrhundert gezeigt hat, bestimmt man sie aus einem Kreisprozeß mit einer
idealen Wärmekraftmaschine, den zuerst Sadi Carnot betrachtete. Eine
solche Maschine leistet dadurch Arbeit, daß sie bei der absoluten
Temperatur T1 die Wärmemenge Q1 aufnimmt und bei der tieferen
Temperatur T2 die Wärmemenge Q2 abgibt.

192
31 Das magnetische Thermometer

193
Diese Wärmemengen und die absoluten Temperaturen stehen
zueinander in der Beziehung: Q1/T1 = –Q2/T2. Daraus läßt sich bei
Kenntnis von Q1, Q2 und T1 die tiefe Temperatur T2 bestimmen. Die
Schönheit der thermodynamischen Gleichungen besteht nun darin, daß sie
allgemein gelten und sich nicht auf ein spezielles physikalisches System
beziehen. In unserem Fall wird nur gefordert, daß die Apparatur während
der Messung keine anderen als die in der Gleichung berücksichtigten
Wärmemengen aufnimmt oder abgibt.
Im Fall der magnetischen Temperaturen läßt sich diese letzte Bedingung
leicht erfüllen. Da ohnehin der Wärmezustrom zum Salz möglichst klein
gehalten wird, kommt der zur Temperaturmessung nötige
thermodynamische Kreisprozeß einem »idealen« sehr nahe. Dieses
Experiment kann man auf verschiedene Arten durchführen, die sich nur in
technischen Einzelheiten unterscheiden und alle auf demselben Prinzip
beruhen, nämlich Wärmemengen zu messen und sie zu einer bekannten
absoluten Temperatur aus dem bereits erforschten Bereich in Beziehung zu
setzen. Bekannt ist natürlich die höhere Temperatur T1, in unserem Fall der
Ausgangspunkt der Entmagnetisierung im Bereich flüssigen Heliums. Sehr
genau meßbare Wärmemengen können dem Salz entweder durch eine
elektrische Heizung oder durch Bestrahlung mit γ-Strahlen zugeführt
werden.
Die thermodynamische Bestimmung der absoluten Temperatur erlaubt
uns eine absolut zuverlässige Aufteilung des neuerforschten
Temperaturbereichs unter 1° K, ist aber eine lästige Prozedur, die man
nicht gern bei jedem Experiment wiederholen möchte. Statt dessen kann
man jedoch für jedes Salz einmal eine sehr sorgfältige thermodynamische
Bestimmung ausführen und aus den Ergebnissen dann die bereits
erwähnten Korrekturen errechnen. Bei allen weiteren Untersuchungen mit
demselben Salz braucht man nun nur noch die magnetische Suszeptibilität
zu messen, d. h. das Galvanometer abzulesen, und die Korrekturen der
thermodynamisch bestimmten Wertetabelle zu entnehmen. Damit die
verschiedenen Experimente vergleichbar sind, muß die Salzprobe eine
einfache geometrische Gestalt haben, deshalb wird sie gewöhnlich in Form

194
einer Kugel oder eines Ellipsoids hergestellt, doch hat die gewählte Form
natürlich keinerlei Einfluß auf den Ablauf des Experiments.
Wie schon erwähnt, ging es bei den meisten Untersuchungen unterhalb
1° K um die Eigenschaften der Salze selbst. Mit Hilfe der thermo-
dynamischen Temperaturskala konnte man nicht nur die wahren magne-
tischen Suszeptibilitäten messen, sondern auch die spezifischen Wärmen.
Am interessantesten ist die Untersuchung der Mechanismen, durch die die
Spins bei den tiefsten Temperaturen miteinander in Wechselwirkung
treten. Bei Annäherung an den absoluten Nullpunkt versagt das Curiesche
Gesetz allmählich, und die magnetische Suszeptibilität bleibt nicht mehr
der absoluten Temperatur proportional. Schließlich ändert sich die
Suszeptibilität rasch (und gewöhnlich auf komplizierte Weise), was eine
tiefgreifende Änderung im System der Spins andeutet. Eine derartige
Änderung kennzeichnet gemäß dem Theorem von Nernst immer das
Einsetzen einer regelmäßigen Anordnung im Spinsystem, die der
regelmäßigen Anordnung der Atome im Kristallgitter entspricht, wenn sie
ihr auch nicht ähnelt. Bei den Spins handelt es sich nämlich nicht um eine
Ordnung der Positionen, sondern um eine solche der Richtungen. Die
Forschung beschäftigt sich hauptsächlich mit Einzelheiten dieser
Anordnung wie auch mit der Art, wie sie sich einstellt. Dafür können wir
zwei Beispiele anführen: Die Spins können sich entweder durch
unmittelbar aufeinander ausgeübte magnetische Kräfte ausrichten, etwa
wie eine Anzahl nahe zusammengebrachter Kompaßnadeln, oder durch das
elektrische Feld des atomaren Gitters. Im ersten Fall handelt es sich um
einen kooperativen Effekt, der auf der Wechselwirkung vieler Spins
untereinander beruht, während unter dem Einfluß des Kristallfelds jeder
Spin gesondert ausgerichtet wird, aber in derselben Richtung wie alle
anderen. Diese Änderungen im Ordnungsgrad sind Entropieänderungen
und müssen sich in der spezifischen Wärme des Salzes bemerkbar machen.
Man kann die Messung der spezifischen Wärme tatsächlich benutzen, um
zu erfahren, welche Art der Ausrichtung in einem bestimmten Salz statt-
findet. Kooperative Effekte pflegen bei Temperaturänderung rasch einzu-
setzen, d. h., die gegenseitige Wechselwirkung führt zu einer Art Lawine

195
im Übergang zwischen Ordnung und Unordnung, und wir haben ein
scharfes Maximum der spezifischen Wärme zu erwarten. Die Wirkung des
Gitterfelds auf die einzelnen Spins verursacht andererseits eine allmähliche

32 Die spezifische Wärme von Eisenammoniumalaun zeigt zwei verschiedene


Mechanismen der Spinordnung an.

Änderung der spezifischen Wärme. In einigen Salzen finden beide


Ausrichtungsvorgänge statt, allerdings bei verschiedenen Temperaturen.
Als Beispiel zeigt Abb. 32 die spezifische Wärme von Eisenammonium-
alaun. Bei Abkühlung des Salzes macht sich eine allmähliche Ordnung der
Spins unter Einfluß des Kristallfelds bei 0,2° K bemerkbar und führt zu
einem breiten Maximum bei 0,09° K. Darauf folgt ein scharfes Maximum
bei 0,04° K, das die kooperative Ordnung andeutet. Suszeptibilitäts-
messungen haben gezeigt, daß das Salz unter 0,04° K eine magnetische
Hysterese ähnlich der von Eisen bei Zimmertemperatur aufweist.

196
Bei den meisten Untersuchungen einer zweiten Substanz, die mittels
Entmagnetisieren eines Salzes unter 1° K abgekühlt wurde, handelte es
sich um die Fortsetzung von Beobachtungen oberhalb 1° K. Am Ende des
vorangehenden Kapitels wurde z. B. erwähnt, daß fester Wasserstoff eine
starke Anomalie der spezifischen Wärme zeigt, die bei den tiefsten damals
erreichbaren Temperaturen noch ansteigt. Mittels magnetischer Kühlung
konnte man diese Erscheinung jetzt bis zu viel tieferen Temperaturen
verfolgen, und man fand eine ganz unerwartete Kurve mit einem großen
Maximum. Auf ähnliche Weise hat die magnetische Kühlung
Supraleitfähigkeit in vielen weiteren Metallen offenbart, wie auch neue
Einzelheiten jenes seltsamen Verhaltens flüssigen Heliums, das wir in
Kapitel 10 behandeln werden.
Die magnetische Kühlung hat darüber hinaus zu einer völlig neuen
Erscheinung geführt, nämlich der Ausrichtung von Atomkernen. Das durch
diese Experimente eröffnete Gebiet gehört zur Kernphysik, und die
Tieftemperaturtechnik hat hier nur die Rolle einer Magd für die
Kernforschung gespielt. Die Ergebnisse sind jedoch so wichtig, daß wir
über diese Arbeiten kurz berichten sollten; außerdem sind sie eng mit der
Erzeugung noch tieferer Temperaturen verbunden.
Genau wie die Elektronen haben auch die Kernteilchen, also Protonen
und Neutronen, Spins, die dem Atomkern eine Art Rotationssinn um seine
eigene Achse verleihen. Nach gewissen Beobachtungen und aus
theoretischen Überlegungen mußte man erwarten, daß die von einem
radioaktiven Kern emittierte Strahlung in bestimmten Richtungen
bezüglich dieser Spinachse auftreten würde. Da die Spinachsen der
einzelnen Kerne unter normalen Bedingungen willkürlich in alle
Richtungen zeigen, beobachtet man bei der Strahlung keinen
Richtungseffekt. Wenn die Achsen der Kerne andererseits alle in eine
Richtung ausgerichtet werden können, dann wird auch die Strahlung in
wohldefinierten Richtungen von der radioaktiven Probe emittiert. Eine
solche Ausrichtung der Kerne erreicht man, indem man von dem
magnetischen Moment ihrer Spins Gebrauch macht. Infolge der geringen
Größe der Kernteilchen ist dieses aber etwa tausendmal kleiner als das der

197
Elektronen, und das macht ihre Ausrichtung selbst bei den tiefsten
erreichbaren Temperaturen viel schwieriger. Tatsächlich braucht man bei
0,01° K ein äußeres Magnetfeld von etwa 50 000 Oersted, um überhaupt
eine Kernausrichtung zu erzeugen.
Obwohl diese Methode ungeheure experimentelle Schwierigkeiten
bereitet, hat man mit ihr zumindest etwas Erfolg gehabt. Wir müssen
bedenken, daß das zur Erzeugung von 0,01° K benutzte Salz sorgfältig von
dem für die Kernausrichtung nötigen starken Magnetfeld abgeschirmt
werden muß, damit es sich nicht wieder erwärmt. Zum Glück gibt es einige
sehr elegante Kniffe, mittels deren man die Kernausrichtung leichter
erreichen kann als mit »roher Gewalt« (wie man die oben erwähnte
Methode scherzhaft nennt). Am leichtesten läßt sich der Kniff erklären, der
auf dem Magnetfeld der Elektronenspins beruht. Aus unserer Abb. 31 (S.
193), die die Wirkungsweise des magnetischen Thermometers zeigt, geht
hervor, daß das paramagnetische Salz die magnetischen Kraftlinien
anzieht. Also ist das magnetische Feld im Innern stärker als das
umgebende äußere Feld. Diese inneren Felder können sogar sehr stark sein;
z.B. erzeugt ein äußeres Feld von nur 1000 Oersted bei 0,5° K im Salz ein
Feld von nicht weniger als 500 000 Oersted.
Das Experiment wird mit einem Salz durchgeführt, dessen Ionen
radioaktive Kerne haben. Die Entmagnetisierung von einem starken Feld
aus beginnt, wie üblich, bei etwa 1° K; das äußere Feld wird aber nicht
ganz abgeschaltet, sondern bei 1000 Oersted belassen, und jetzt liegen alle
Spinachsen der radioaktiven Kerne in derselben Richtung, nämlich der des
äußeren Feldes, ausgerichtet. Nun bringt man Meßgeräte für die
Kernstrahlung in verschiedene Positionen zu der Probe und bestimmt die
Richtung der von ihr ausgesandten Strahlung. Zu den wichtigen so
erhaltenen Ergebnissen gehört der Beweis für die Nichterhaltung der
Parität bei schwacher Wechselwirkung, eine Theorie, für die Yang und Lee
1957 den Nobelpreis bekamen.
Die Existenz eines von Kernspins herrührenden Paramagnetismus war
1936 von den beiden russischen Physikern Schubnikow und Lasarew in
Charkow entdeckt worden. Selbstverständlich faßte man nach der

198
erfolgreichen Abkühlung mit Hilfe von Elektronenspins eine weitere
Abkühlung zu noch tieferen Temperaturen durch Entmagnetisierung von
Kernspins ins Auge. Tatsächlich wurde die Möglichkeit der Kernkühlung
zuerst Mitte der dreißiger Jahre von Gorter in Leiden sowie von Kurti und
Simon in Oxford diskutiert. Im Prinzip ist die Methode sehr einfach, da sie
nichts als eine Wiederholung dessen darstellt, was mit Elektronenspins in
paramagnetischen Salzen bei höheren Temperaturen bereits gelungen war.
Die praktische Durchführung ist jedoch wegen der Kleinheit der Kernspins
äußerst heikel. Die große Schwierigkeit, die gerade im Zusammenhang mit
der Rohe-Gewalt-Methode der Kernausrichtung erwähnt wurde, wird bei
der nuklearen Kühlung noch viel größer. Die nukleare Arbeitssubstanz
muß nicht nur mit einem entmagnetisierten paramagnetischen Salz auf
etwa 0,01° K abgekühlt, sondern danach auch thermisch isoliert und selbst
von einem Feld von mindestens 50000 Oersted aus entmagnetisiert
werden.
Bei den begrenzten Mitteln, die der Forschung Ende der dreißiger Jahre
zur Verfügung standen, gab es für die Durchführung eines so ehrgeizigen
Projekts keine Hoffnung, aber in den späten vierziger Jahren wurde die
Lage günstiger. Der verstorbene Sir Francis Simon brachte in Oxford mit
größter Mühe die nötige Ausrüstung zusammen und machte sich zusam-
men mit Kurti und anderen Mitarbeitern an die langwierige Vorbereitung
des Experiments. 1956 hatte Simon kurz vor seinem Tode die Genugtuung,
das erste erfolgreiche Experiment noch zu erleben. Die gemessene
Temperatur betrug weniger als 0,000016° K, also weniger als zwei
hunderttausendstel Grad über dem absoluten Nullpunkt.
Diese unglaublich tiefe Temperatur konnte nur für einen Augenblick
erzeugt werden; nach etwa einer Minute hatte sich die nukleare
Kühlsubstanz wieder auf die Ausgangstemperatur der Entmagnetisierung
erwärmt. Trotzdem erscheint der Erfolg des Experiments im Rückblick fast
wie ein Wunder. Nur allmählich wurde klar, daß außer den
vorausgesehenen Schwierigkeiten eine Menge weiterer Hindernisse der
Kernkühlung im Weg standen.

199
200
33 u. 34 Nukleare Kühlung. Schema der Apparatur (links) und das graphische Ergebnis
des Versuchs (unten). Die Kurve gibt den beobachteten Ausschlag des magnetischen
Thermometers an, das in absoluten Temperaturen geeicht worden ist.

201
Das im Experiment von 1956 angewandte Prinzip ähnelt sehr der
zweistufigen Kühlkaskade, die mit verschiedenen paramagnetischen Salzen
in jeder Stufe erfolgreich arbeitete. Jetzt aber mußte die erste Stufe allein
so viel leisten wie vorher die zweistufige Kaskade, während in der
Kernstufe von einem äußerst starken Magnetfeld aus entmagnetisiert
werden mußte. Da man bei dem Pionierexperiment sogar die
leistungsfähigen magnetischen Anlagen bis zum Äußersten ausnutzte,
entschloß man sich, auf den Wärmeschalter zwischen den beiden Stufen zu
verzichten. In Abb. 33 ist das Experiment schematisch dargestellt. A ist das
paramagnetische Salz, das die erste magnetische Kühlstufe bildet. Es ist
mit der nuklearen Kühlsubstanz B über C verbunden. M1 und M2 sind die
beiden wassergekühlten Spulen zur Erzeugung starker Magnetfelder.
Weder der Kryostat noch die übrigen Instrumente sind gezeigt.
Metallisches Kupfer wurde sowohl als nukleare Kühlsubstanz B als auch
für das Verbindungsstück C gewählt. Man benutzte eine große Zahl sehr
feiner Kupferdrähte, deren obere Enden in das paramagnetische Salz A
gepreßt und deren untere Enden zu einigen Windungen gebogen waren, die
B bildeten. Die Vorteile dieser Anordnung bestanden darin, daß Kupfer
und Salz guten Wärmekontakt hatten und die Erwärmung durch
Wirbelströme beim Entmagnetisieren durch die feine Verteilung des
Kupfers vermieden war.
Zuerst wurde die Elektronenspinstufe A entmagnetisiert und durch
Wärmeleitung über C die Kernstufe B auf etwa 0,02° K abgekühlt. Dann
wurde die Kernstufe vom Stärkstmöglichen Feld aus, das nur wenig unter
30000 Oersted lag, entmagnetisiert. Wenige Sekunden nach dem
Verschwinden dieses Felds begann man mit der Messung der
Kernsuszeptibilität. Die Abb. 34 zeigt die Ergebnisse und die nach dem
Curieschen Gesetz berechneten Temperaturen. Wie bereits erwähnt, steigt
die Temperatur der Kernstufe nach der Entmagnetisierung rasch, so daß
nach etwa einer Minute von der Kernkühlung fast nichts mehr übrig ist.
Wir entnehmen dem Diagramm, daß bei Beginn der
Kernsuszeptibilitätsmessung, wenige Sekunden nach Abschalten des
Feldes, die Temperatur von 0,000022° K abgelesen wurde; durch

202
Extrapolation auf den Beginn des Experiments kann als tiefster Punkt
0,000016° K gefolgert werden.
Zunächst dachte man, der rasche Temperaturanstieg sei nur auf das
Fehlen eines Wärmeschalters in C zurückzuführen und der Wärmestrom
vom Salz über die Kupferdrähte zur Kernstufe erwärme diese so rasch. Es
schien daher, als würde der Einbau eines wirksamen Wärmeschalters, wie
er bereits bei der erfolgreichen zweistufigen Entmagnetisierung
paramagnetischer Salze benutzt worden war, hier Abhilfe schaffen. Erst
während der Experimente in dieser Richtung offenbarten sich die
wirklichen Schwierigkeiten der Kernkühlung. Diese Hindernisse sind viel
grundlegender als bloße technische Unzulänglichkeit und etwas
entmutigend. So erreichte man denn auch trotz großer Anstrengungen in
Oxford und an der Pennsylvania State University seit 1956 keine
entscheidende Verbesserung des ersten Kühlexperiments. Andererseits hat
man eine Menge wertvoller Informationen gesammelt, aus denen
hervorgeht, daß der Weg zur nuklearen Kühlung lang und kostspielig sein
wird und man wahrscheinlich nicht so tiefe Endtemperaturen erreichen
wird, wie zuerst erwartet.
Um das alles zu verstehen, müssen wir uns mit dem Temperaturbegriff
näher beschäftigen. Die Temperatur eines Gases haben wir in früheren
Kapiteln durch die kinetische Energie der Moleküle (und die eines festen
Körpers durch die Schwingungen der Atome) beschrieben. Zusätzlich
sahen wir, daß auch die Suszeptibilität der Spins ein Maß für die
Temperatur ist. In dem für die nukleare Kühlstufe benutzten Kupfer
kommen alle drei Erscheinungen vor: die Atomschwingungen, die
Kernspins und auch die kinetische Energie des entarteten Elektronengases.
Nun haben wir stillschweigend angenommen, daß sich aus allen drei
jederzeit dieselbe Temperaturmessung ergeben müßte. Bei normalen
Temperaturen und bei denen flüssigen Heliums stimmt das zwar, aber nur
weil der Energieaustausch zwischen Spins, Elektronen und
Kristallgitterschwingungen ohne Verzug erfolgt. Experimente mit
paramagnetischen Salzen unter 1° K haben gezeigt, daß der
Energieaustausch zwar nicht ganz so rasch geht, aber im allgemeinen noch

203
rasch genug, um die Temperaturbestimmung nicht zu verfälschen. Das
ändert sich jedoch erheblich bei noch tieferen Temperaturen.
Bei 0,00002° K ist der Energieaustausch der Kernspins mit den
Elektronen und Gitterschwingungen, verglichen mit der Beobachtungszeit,
ein sehr langsamer Vorgang, der zu einer völlig anderen Deutung des
Experiments von 1956 führt, als man zuerst angenommen hatte. Die
Kernspins folgen bei Entmagnetisierung unmittelbar der Änderung des
äußeren Felds und gehen in einen Zustand über, der 0,000016° K
entspricht, aber Elektronen und Gitter bleiben auf der Ausgangstemperatur.
Man steht also der seltsamen Tatsache gegenüber, daß die Kupferprobe
gleichzeitig zwei verschiedene Temperaturen besitzt, nämlich 0,000016° K
für die Spins und 0,02° K für Elektronen und Gitter. Dann erwärmt der
allmähliche Energieaustausch zwischen den Spins und dem Rest der
Substanz die Spins wieder bis zur Ausgangstemperatur.
Aus den Ergebnissen aller bisherigen Experimente müssen wir
schließen, daß bis jetzt nur das System der Kernspins, jedoch nie die ganze
Substanz auf sehr tiefe Temperaturen abgekühlt wurde. Die nächste Frage
lautet natürlich, ob auch Elektronen und Gitter abgekühlt werden können.
Sie ist nicht so einfach zu beantworten. Zunächst muß man bedenken, daß
mit den bis jetzt angewandten Ausgangstemperaturen und Magnetfeldern
nur ein kleiner Bruchteil der Kernspinentropie beseitigt werden konnte. Für
einen weiteren Fortschritt sind tiefere Ausgangstemperaturen und vor
allem viel stärkere Magnetfelder unbedingt nötig. Zweitens muß man einen
sehr wirksamen thermischen Schalter zwischen die primäre Kühlstufe und
die nukleare Kühlsubstanz bauen; und hier stößt man auf eine neue
Schwierigkeit. Wie wirksam dieser Schalter auch sein mag, er läßt immer
noch eine kleine Wärmemenge durch, und da der Energieaustausch
zwischen den Spins und dem Rest der Substanz so schlecht ist, besteht die
Gefahr, daß Wärme rascher von außen in den Rest der Substanz dringt als
von dieser in das kalte Kernspinsystem.
Wir können diese ziemlich komplizierten Probleme und die möglichen
Mittel und Wege ihrer Lösung hier nicht näher erläutern. Gegenwärtig ist
es wahrscheinlich, daß mehr Erfahrung in der Technik der Kernkühlung

204
und stärkere Magnetfelder es schließlich ermöglichen werden, eine
Substanz als Ganzes auf etwa 0,0001° K abzukühlen und bei diesen
Temperaturen mit ihr zu experimentieren.

205
9 | Supraleitung

Welche Überraschungen der neue und erst teilweise erforschte Bereich der
magnetischen Kühlung auch noch für uns bereithalten mag, sie können
kaum jene übertreffen, die bereits im Temperaturbereich des flüssigen
Heliums zum Vorschein gekommen sind. Kamerlingh Onnes tat den ersten
Blick auf die seltsame neue Welt der Superflüssigkeiten (Suprafluide), als
er 1911 die Supraleitung entdeckte. In den mehr als fünfzig Jahren, die
seitdem vergingen, ist unsere Kenntnis dieser rätselhaften Erscheinung sehr
gewachsen, und wir sind auch einer theoretischen Deutung viel näher
gekommen. Trotzdem verstehen wir noch lange nicht, was diese offenbar
grundlegend neue Erscheinungsform zusammenhängender Materie
wirklich bedeutet. Wie wir gerade sahen, konnte die Existenz so
ungewöhnlicher Erscheinungen wie der Nullpunktsenergie oder der
Gasentartung theoretisch vorausgesagt werden, aber wir müssen zugeben,
daß wir auch mit unserer heutigen Kenntnis niemals die Suprafluide hätten
voraussagen können. Ohne Anleitung durch eine Voraussage oder Theorie
war die Erforschung der Suprafluide ein blindes, richtungsloses Abtasten
nach neuen Informationen. Wegen dieser großen Unsicherheit bei der
Suche nach den Teilen des Puzzlespiels bildet ihre Geschichte das
erregendste Kapitel bei der Suche nach den Wegen zum absoluten
Nullpunkt.
Kamerlingh Onnes war genial, aber als nüchterner Denker brauchte er
einige Zeit, bis er das ganze Ausmaß seiner Entdeckung zu erfassen
begann. Natürlich suchte er zunächst nach einer Verbindung zwischen der
Supraleitung und den bekannten physikalischen Erscheinungen. Eine
Zeitlang hoffte er, der Widerstandsabfall des Quecksilbers wäre das, was er
halbwegs erwartet hatte, mußte aber bald erkennen, daß er auf etwas völlig
Unbekanntes gestoßen war. Mit den vagen Theorien des elektrischen

206
Widerstands, die es damals gab, hätte man zur Not einen ziemlich raschen
Abfall mit der Temperatur erklären können. Onnes versuchte es auch,
mußte es aber aufgeben, als sich erwies, daß der Widerstand plötzlich und
diskontinuierlich verschwindet.
Onnes erkannte jetzt, daß er es mit einem völlig neuen Zustand der
Materie zu tun hatte, und ging daran, ihn zu erforschen. In seinen
allerersten Experimenten hatte er versucht zu bestimmen, wie klein der
Widerstand des Quecksilbers geworden war; nun mußte er sich fragen, ob
er vielleicht völlig verschwunden sei. Das führte sofort zu einer mißlichen
Prinzipienfrage. In der Physik kann man immer feststellen, ob eine Größe
sehr groß oder sehr klein ist; aber nie kann man sagen, daß sie unendlich
oder Null ist. Man kann höchstens feststellen, daß sie größer oder kleiner
ist als ein sich aus dem Experiment ergebender Äußerstwert. Im Fall der
Supraleitung mußte daher die Genauigkeit vergrößert werden, mit der ein
sehr kleiner Widerstand weit unter der Meßgrenze konventioneller
Instrumente gemessen werden konnte. Hier war Onnes in seinem Element.
Innerhalb von drei Jahren hatte er eine geniale Methode gefunden, die bis
heute nicht überholt ist.
Onnes baute eine Spule aus supraleitendem Bleidraht, wie in Abb. 35
gezeigt, die durch einen sinnreichen supraleitenden Schalter S1
kurzgeschlossen werden konnte. Bei offenem S1 wurde die Spule durch
normalleitende Kupferdrähte mit Strom aus einer Batterie bei
Zimmertemperatur gespeist. Dieser Strom konnte durch Öffnung des
Schalters S2 unterbrochen werden. Das Experiment begann mit
geschlossenem S2, aber bei offenem S1. Dabei floß Strom aus der Batterie
durch die supraleitende Spule, wo er ein Magnetfeld erzeugte, wie aus der
Ablenkung einer Kompaßnadel außerhalb des Dewar-Gefäßes festgestellt
werden konnte. Dann wurde S1 geschlossen und S2 geöffnet, d. h., die
supraleitende Spule war jetzt kurzgeschlossen, und gleichzeitig war die
Stromversorgung aus der Batterie unterbrochen. Die Kompaßnadel wies
noch dieselbe Ablenkung wie vorher auf und zeigte dadurch an, daß noch
Strom durch die Spule floß, obwohl keine Energie mehr von der Batterie
aufgenommen wurde. Die Ursache für dieses seltsame Phänomen liegt

207
darin, daß die Spule keinen elektrischen Widerstand besitzt und der Strom
daher verlustlos durch den gänzlich supraleitenden Kreis fließen kann.
Dieser »Dauerstrom«, wie er bald genannt wurde, lieferte Kamerlingh
Onnes eine äußerst empfindliche Methode zur Messung jeder kleinsten
Spur eines Widerstands, der in der supraleitenden Bleispule verblieben sein
könnte. Wenn der Strom Energie verliert, muß er im Lauf der Zeit
allmählich abnehmen, und das würde sich durch eine Änderung der
Magnetnadelablenkung bemerkbar machen. Bis nach einigen Stunden das
flüssige Helium im Dewar-Gefäß schließlich verdampft war und die Spule
aufhörte, supraleitend zu sein, wurde auch nicht die geringste Abnahme der
Nadelablenkung festgestellt; der Dauerstrom war unverändert geblieben.
Aus diesem Experiment konnte Onnes schließen, daß der Widerstand der
supraleitenden Bleispule höchstens ein Hundertmilliardstel des bei
Zimmertemperatur üblichen Widerstands betragen konnte.
Kurz darauf wiederholte Onnes das Experiment in noch einfacherer
Form. Er benutzte einen einzigen geschlossenen Bleiring, den er im Feld
eines außerhalb des Dewar-Gefäßes angebrachten Magneten mit flüssigem
Helium abkühlte. Wenn jetzt der Magnet fortgenommen wird, können die
magnetischen Kraftlinien den Ring nicht verlassen, da er supraleitend ist
und jede Änderung des magnetischen Flusses durch Induktion eines
Dauerstroms im Ring kompensiert wird. Nach dem obigen Vorgang blieb
also ein Ring zurück, der Strom führte und ein Bündel magnetischer
Kraftlinien gefangenhielt. Die Existenz dieses Dauerstroms kann wieder an
der Ablenkung einer Kompaßnadel festgestellt werden.
In Abb. 36 werden in zwei solchen Ringen induzierte Dauerströme
eindrucksvoll demonstriert. Läßt man eine Bleikugel in diese Ringe
hineinfallen, dann induziert das durch die Ringe erzeugte Magnetfeld auch
in der Oberfläche der Kugel Dauerströme. Diese Ströme laufen in
derselben Richtung wie jene in den Ringen, und vermittels der
entsprechenden Magnetfelder wird die Kugel von den Ringen abgestoßen.
Daher schwebt die Kugel schließlich im Raum über den Ringen in einem
Abstand, an dem diese magnetische Abstoßung dem Gewicht der Kugel
gleich geworden ist.

208
35 Kamerlingh Onnes' Demonstration des verschwindenden elektrischen Widerstands in
einem Supraleiter.

209
Einen ähnlich spektakulären Effekt liefert ein kleiner Stabmagnet, den
man an einer Kette in eine Schale aus supraleitendem Blei hinabläßt (Abb.
37). Wenn sich der Magnet der Schale nähert, bemerken wir, daß die Kette
schlaff wird; schließlich sehen wir den Magneten frei über der Schale
schweben. In diesem Falle induzieren die Kraftlinien des Magneten
Dauerströme in der Bleioberfläche, die genau das Feld des Magneten
kompensieren. Der kleine Stabmagnet »sieht« deshalb sein eigenes
magnetisches Spiegelbild, das sich unterhalb der Bleioberfläche im selben
Abstand befindet wie er selbst oberhalb. Die Nord- und Südpole des
Spiegelbilds stoßen die des wirklichen Magneten ab, der sich daher der
Schale nicht weiter nähern kann.
Kamerlingh Onnes' Experimente mit Dauerströmen sind seitdem wieder
von ihm selbst und dann von anderen mit empfindlicheren Meßvor-
richtungen und längerer Dauer wiederholt worden. Die längste Zeit,
während der ein Dauerstrom aufrechterhalten wurde, betrug etwa zwei
Jahre, und er würde noch heute fließen, wenn nicht ein Transport-
arbeiterstreik die Versorgung mit flüssigem Helium unterbrochen hätte.
Selbst nach zwei Jahren war keine Schwächung des Stroms zu bemerken,
und wir können einen Supraleiter mit gutem Recht als einen
widerstandslosen Leiter ansehen.
Kamerlingh Onnes kam schon sehr früh auf die Idee, eine supraleitende
Spule zur Erzeugung sehr starker Magnetfelder zu benützen. Bei der
Besprechung der magnetischen Abkühlung wurde die Erzeugung starker
Magnetfelder als große technische Schwierigkeit erwähnt. Die dafür
normalerweise nötigen starken Ströme erzeugen eine ungeheure Wärme in
den Magnetspulen, die durch Kühlwasser abgeführt werden muß, dessen
Zirkulationsgeschwindigkeit begrenzt ist. Die Verwendung von Bleispulen
wie die in Abb. 35 (S. 209), die verlustlos arbeiten, schien großartige
Möglichkeiten zu bieten. Verlustfreie, supraleitende Transformatoren und
andere elektrische Maschinen ohne Widerstand eröffneten herrliche
Aussichten. Natürlich wären enorme Mengen flüssigen Heliums nötig, aber
dieser Preis würde für die erzielbare Energieersparnis nicht zu hoch sein.

210
36 Die Bleikugel schwebt im Raum, nur gehalten durch Dauerströme.

211
Leider hatte dieser Traum bald ein Ende. Untersuchungen in Leiden
zeigten, daß die Supraleitung zusammenbricht, wenn eine bestimmte
kritische Magnetfeldstärke überschritten wird. Diese »magnetische
Schwelle« war ziemlich niedrig und lag nie über einigen wenigen 100
Oersted, also weit unterhalb dessen, was selbst bescheidene elektrische
Maschinen erfordern. Trotz dieser entmutigenden Enthüllung endet die
Geschichte der Supraleitung in starken Feldern hier nicht, aber ihre
Fortsetzung ließ noch vierzig Jahre auf sich warten. Inzwischen wurde bald
entdeckt, daß die Schwellen von Magnetfeld und Strom in Wirklichkeit ein
und dieselbe Sache sind, da die kritische Feldstärke, die Supraleitung in
einem Draht zerstört, genau dieselbe ist, die durch den in ihm fließenden
kritischen Strom erzeugt wird.
Die ganze Zeit ging die Suche nach neuen Supraleitern weiter. Bald
stellte man fest, daß außer Quecksilber und Blei auch Zinn, Indium,
Thallium und Gallium supraleitend sind. Es sind dies alles Metalle mit
ziemlich ähnlichen physikalischen Eigenschaften wie niedrigem Schmelz-
punkt und geringer Härte. Als sich in den zwanziger Jahren weitere
Laboratorien der Suche anschlössen, wandte sich Meißner in Berlin einer
Gruppe von Metallen zu, die hart sind und hohe Schmelzpunkte haben, und
fand darunter eine neue Reihe von Supraleitern; u. a. Tantal, Niob, Titan
und Thorium. Bei Ausdehnung der Beobachtungen in die Nähe von 1° K
und besonders bei den magnetisch erzeugten Temperaturen stieß man auf
eine Menge weiterer supraleitender Elemente, wie Aluminium, Cadmium,
Zink, Osmium, Ruthenium und viele andere. In den meisten Fällen
brauchten die Proben nicht sehr rein zu sein, um den Effekt zu zeigen; aber
in anderen wurde Supraleitung erst entdeckt, als äußerst reine Materialien
verfügbar wurden. Heute kennen wir viel mehr Supraleiter als nicht
supraleitende Metalle, und es ist umstritten, ob jene, die bis jetzt kein
Zeichen von Supraleitung gezeigt haben, es nicht bei noch tieferen
Temperaturen tun dürften.

212
37 Ein Stabmagnet, der in eine supraleitende Schale hinabgelassen worden ist, wird von
seinem eigenen magnetischen Spiegelbild unterhalb der Schale abgestoßen.

213
Begründete derartige Zweifel hat man nur bei einigen normalen
Metallen; dazu gehören z. B. die einwertigen, etwa Gold oder Natrium, und
einige wenige zweiwertige, wie Magnesium und Calcium. Andere Nicht-
Supraleiter wie z. B. Eisen, Kobalt, Nickel und die seltenen Erden haben
starke innere Magnetfelder, die wahrscheinlich die Supraleitung
unterdrücken, und werden daher – soweit wir das jetzt übersehen können –
immer normalleitend bleiben.
Man hoffte, aus dem Vorkommen der Supraleitfähigkeit in gewissen
Metallen Hinweise für das Verständnis der Supraleitung zu bekommen.
Zuerst glaubte man, bestimmte Atome könnten supraleitend sein und
andere nicht, aber diese Idee erwies sich bald als falsch, als man nämlich
Supraleitung in der Verbindung Au2Bi und sogar in CuS entdeckte,
obgleich ihre Komponenten (Gold, Wismut; Kupfer, Schwefel) nicht
supraleitend sind. Überdies zeigte sich, daß nur gewöhnliches weißes Zinn
supraleitend ist, während die graue Modifikation des Metalls normalleitend
bleibt. Die beiden Modifikationen unterscheiden sich nur in der Struktur
des Kristallgitters, das im ersten Fall tetragonal und im zweiten kubisch ist.
Diese Tatsachen zeigten, daß die Ursache der Supraleitfähigkeit eher in
dem freien Elektronengas als in der Natur des Atoms gesucht werden muß.
Auch heute, nachdem unzählige Experimente einige Hinweise über den
Zusammenhang zwischen Kristallstruktur, Zahl der freien Elektronen und
Supraleitfähigkeit gegeben haben, ist die Korrelation noch nicht gut genug,
um bei der Aufklärung der Supraleitung viel helfen zu können.
Eine weitere Andeutung dafür, daß die Supraleitfähigkeit ihren
Ursprung in irgendeiner besonderen Anordnung der freien Elektronen hat,
liefert die Tatsache, daß die Erscheinung auf tiefe Temperaturen
beschränkt ist. Die mit jedem Übergang und so auch mit dem zur
Supraleitfähigkeit verbundene Energie kann ganz allgemein durch die
Größe k • T abgeschätzt werden, wobei T in diesem Fall die
Sprungtemperatur ist. Da man über 20° K keinen Supraleiter fand, sind T
und damit die Energie zu klein, als daß man sie einem Vorgang im Innern
des Atoms zuschreiben könnte. Tatsächlich zeigen nur einige Legierungen
eine Sprungtemperatur nahe 20° K, während die Sprungtemperaturen der

214
reinen Metalle alle unter 10° K liegen.
Als sich die Supraleitungsforschung auf die neu errichteten
Tieftemperaturlaboratorien ausgedehnt und so an Umfang zugenommen
hatte, war schon 1933 immer klarer geworden, daß unserer Kenntnis noch
etwas Wichtiges fehlte. Was es eigentlich war, konnte man nicht
unmittelbar sehen, vieles allerdings deutete auf das magnetische Verhalten.
Gewisse, in Leiden vorgenommene Untersuchungen des Übergangs (zur
Supraleitung) von Drähten in einem Magnetfeld lieferten Ergebnisse, die
einigen früheren direkt zu widersprechen schienen. Eine weitere
Unstimmigkeit ergab sich aus Onnes' Hoffnung, starke Magnetfelder zu
erzeugen. 1930 hatten de Haas und Voogd festgestellt, daß Drähte aus
einer Blei-Wismut-Legierung noch in Magnetfeldern von 20 000 Oe
supraleitend blieben. Als ich drei Jahre darauf den ersten
Heliumverflüssiger Englands im Clarendon Laboratory installierte, schien
diese Legierung genau das richtige Material, um damit einen
supraleitenden Magneten zu konstruieren. Es wurde daraus eine Spule
angefertigt, aber sie lieferte nicht das erwartet starke Feld.
Während wir uns noch die Köpfe darüber zerbrachen, was an unserem
Magneten wohl versagt hatte, meldeten Meißner und Ochsenfeld sowie
Heidenreich in Berlin eine Entdeckung, die alle Vorstellungen von der
Supraleitung völlig über den Haufen warf. Um ihre Bedeutung zu
verstehen, müssen wir uns die Schwellenwertkurve näher anschauen, die
die Grenze des supraleitenden Zustands im Magnetfeld-Temperatur-
Diagramm angibt (Abb. 38). Die durch diese annähernd parabolische
Kurve eingeschlossene Fläche ist das Gebiet, in dem das Metall
supraleitend ist, während es bei höheren Temperaturen oder Magnetfeldern
jenseits der Kurve normal leitet. Am »Sprungpunkt« Tc reicht bereits ein
verschwindend kleines Feld zur Unterdrückung der Supraleitung aus.
Dieser Punkt ist natürlich von Metall zu Metall verschieden, z. B. 4,1° K
bei Quecksilber, 0,56° K bei Cadmium und 9° K bei Niob. Wenn die
Temperatur unter Tc sinkt, bleibt das Metall supraleitend auch in einem
Magnetfeld, und das maximale Feld H0, dem die Supraleitung am
absoluten Nullpunkt widerstehen kann, ist wiederum von Substanz zu

215
Substanz verschieden. Für die eben erwähnten Metalle sind die Werte 400
bzw. 30 bzw. 1700 Oersted.
Betrachten wir jetzt, wie sich das Magnetfeld in der Nähe einer
Metallkugel verhält, deren elektrischer Widerstand verschwindet, wenn wir
sie unter Tc abkühlen. Da die Abkühlung (von A nach B) bei äußerem Feld
Null durchgeführt wird, sind keine Änderungen zu erwarten. In B steigern
wir die Feldstärke um die Kugel herum von 0 auf einen Wert C unterhalb
des kritischen Werts. Da die Kugel jetzt supraleitend ist, wird der Anstieg
der äußeren Feldstärke durch Dauerströme in ihrer Oberfläche
kompensiert, und kein magnetischer Fluß kann in sie eindringen. Daher
bauschen sich die magnetischen Kraftlinien um den Äquator der Kugel
herum aus; diese lokale Zunahme des magnetischen Flusses kann leicht
durch ein geeignetes Instrument nachgewiesen werden. Wird die Kugel
jetzt in einem konstanten äußeren Feld von C nach D erwärmt, dann
verschwinden die Dauerströme in ihrer Oberfläche beim Passieren der
Schwellenwertkurve, und der magnetische Fluß dringt in sie ein, bis bei D
das Feld innen und außen gleich ist.
Etwas völlig anderes ist jedoch zu erwarten, wenn die Kugel denselben
Kreislauf umgekehrt durchmacht. Steigt das Feld von A nach D, so dringen
die Kraftlinien in die Kugel ein, da sie normal leitend ist. Bei Abkühlung
im konstanten Feld von D nach C wird die Kugel zwar supraleitend, aber
da wir das äußere Feld nicht ändern, ist keine magnetische Wirkung zu
erwarten. Andererseits macht sich die Supraleitfähigkeit im magnetischen
Verhalten der Kugel bemerkbar, wenn jetzt das Feld von C auf Null bei B
absinkt. Wenn die Kraftlinien das Metall zu verlassen suchen, wird diese
magnetische Änderung durch Dauerströme in der Kugeloberfläche
kompensiert, die den Fluß am Entweichen hindern. Bei B sollte die Kugel
also als magnetischer Dipol, ähnlich einem Stabmagneten, zurückbleiben.

216
38 u. 39 Die Wirkungen verschwindenden Widerstands und verschwindender
magnetischer Induktion.

217
Bis 1933 nahm man allgemein an, daß ein Supraleiter sich tatsächlich so
verhält; ein frühes Experiment in Leiden schien diese Annahme zu stützen.
Leider war jedoch die damals benutzte Kugel hohl gewesen, ein wichtiger
Umstand, den alle übersehen zu haben scheinen. Erst als von Meißner mit
Ochsenfeld und Heidenreich entsprechende Experimente an massiven
Körpern (es wurden Zylinder, keine Kugeln, verwendet) richtig ausgeführt
wurden (vgl. wieder Abb. 38 u. 39), kamen die wahren magnetischen
Eigenschaften des supraleitenden Zustands zum Vorschein. Der Kreis
ABCD ergibt tatsächlich das erwartete magnetische Verhalten, der
umgekehrte Kreis ADCB aber führt zu einem höchst überraschenden
Effekt. Im Abschnitt DC verbleibt der magnetische Fluß nicht im Metall,
sondern wird beim Passieren der Schwellenwertkurve vollkommen aus ihm
hinausgedrängt. Dementsprechend bleibt in der Kugel bei der
Verminderung der äußeren Feldstärke von C nach B kein Fluß zurück, und
bei B ist kein magnetischer Dipol.
Der neue, von Meißner entdeckte Effekt besteht in der spontanen
Verdrängung des magnetischen Flusses aus dem Metall, wenn es
supraleitend wird. Das Auftreten dieser Erscheinung führt auch zu einer
neuen Symmetrie des magnetischen Verhaltens, da es offenbar gleich ist,
in welcher Richtung der Kreis durchlaufen wird. Wir haben uns deshalb
mit dem Experiment selbst so eingehend beschäftigt, weil man nur auf
diese Weise verstehen kann, daß das Verschwinden des elektrischen
Widerstands allein nicht zur Erklärung des Meißner-Effekts ausreicht.
Beim Übergang zum supraleitenden Zustand verschwindet also nicht nur
der Widerstand, sondern auch die magnetische Induktion.
Im ersten Jahr nach der neuen Entdeckung versuchten viele, die beiden
Effekte mit Hilfe von Maxwells elektrodynamischen Gleichungen
miteinander zu verknüpfen. Aber bald wurde klar (das steht bereits in
Meißners und Heidenreichs Arbeit), daß alle derartigen Versuche zum
Scheitern verurteilt waren, da die entscheidenden Gleichungen in diesem
Fall unbestimmt wurden. Die Supraleitung konnte offenbar nicht im
Rahmen der gewöhnlichen Elektrodynamik verstanden werden und
erforderte eine völlig neue Theorie. Diese wurde bald darauf von Fritz und

218
Heinz London geschaffen, die aus Nazideutschland nach Oxford emigriert
waren. Der Ansatz ihrer Arbeit ergab sich aus der Dissertation von Heinz
London, in der er die Eindringtiefe eines Dauerstroms in die supraleitende
Oberfläche berücksichtigt hatte. Er war zu einem interessanten Ergebnis
gelangt, das wir noch besprechen werden. Zusammen mit seinem älteren
Bruder kam er gerade in England an, als der Meißner-Effekt entdeckt
wurde, was seiner Arbeit neues Gewicht verlieh. Sein Bruder Fritz half ihm
jetzt mit seinem hervorragenden theoretischen Können. Im Clarendon
Laboratory ging es gerade sehr hektisch zu, da die Experimentatoren
weitere Ergebnisse zum Meißner-Effekt lieferten, die endlose
Diskussionen zwischen ihnen und den Theoretikern auslösten. Dank dieser
engen Zusammenarbeit gelang es den Londons, in weniger als zwei Jahren
nach der Entdeckung des Meißner-Effekts eine neue Elektrodynamik für
Supraleiter zu formulieren.
Das Wesentliche an dieser Elektrodynamik ist eine neue Gleichung für
den Zusammenhang zwischen Strom und Magnetfeld, die Maxwells
wohlbekannte Beziehung zwischen Strom und elektrischem Feld ersetzt.
Abgesehen davon, daß sie die elektromagnetischen Erscheinungen der
Supraleitung verständlich beschreiben, besitzen die Gleichungen der
Londons eine tief befriedigende Symmetrie. In der gewöhnlichen
Elektrodynamik ist ein konstanter Strom mit einem konstanten Magnetfeld
verbunden, aber ein konstantes Magnetfeld führt nicht zu einem Strom.
Damit in einem normalen Leiter ein Strom entsteht, muß sich das
Magnetfeld zeitlich ändern; das führt notwendig zur Asymmetrie der
elektrodynamischen Gleichungen. Im Supraleiter andererseits ist die
Beziehung zwischen einem konstanten Strom und einem konstanten
Magnetfeld, wie die Londons zeigten, symmetrisch, und zwar deshalb,
weil ein konstantes Feld auch einen konstanten Strom bewirkt. Das sind
die zuerst von Kamerlingh Onnes demonstrierten Dauerströme und die
Ströme des Meißner-Effekts, die in einem Metall auftreten, wenn es im
konstanten Magnetfeld zum supraleitenden Zustand abgekühlt wird.
Die seltsame Erscheinung der Supraleitung bietet also wegen ihrer
schönen Symmetrie ein viel einfacheres Bild als die normale elektrische

219
Leitung. Die Symmetrie wird zerstört, wenn wir die Nähe des absoluten
Nullpunkts verlassen. Hätte Faraday seine Experimente an der Royal
Institution mit supraleitenden Bleidrähten in flüssigem Helium statt mit
Kupferdrähten bei Zimmertemperatur durchgeführt, dann hätte er die
Gesetze der elektromagnetischen Induktion so klar und einfach entdeckt,
daß er sie als grundlegend angesehen hätte. Was wir normale elektrische
Leitung nennen, wäre ihm dann als eine komplizierte Abweichung
erschienen.
Die Verdrängung des magnetischen Flusses aus dem Metall bei
Abkühlung über die Schwellenwertkurve hinweg führt zu einer weiteren
wichtigen Folge des Meißner-Effekts; man kann hier nämlich die
Thermodynamik anwenden. Beim Verdrängen und Zurückkehren des
magnetischen Flusses beim Obergang zwischen C und D in Abb. 38 u. 39
wird Arbeit geleistet, genau wie bei der Expansion oder Kompression eines
in einem Zylinder eingeschlossenen Gases. Die thermodynamischen
Beziehungen sind, wie wir gesehen haben, so allgemein, daß es völlig
gleichgültig ist, ob die Arbeit gegen einen Kolben oder eine magnetische
Feldstärke geleistet wird. Es ist interessant, daß schon vor Entdeckung des
Meißner-Effekts allgemein vermutet wurde, daß man die Supraleitung
thermodynamisch behandeln könnte. Der vollständige Formalismus war in
der Tat von Gorter in Holland kurz vor Meißners Entdeckung ausgearbeitet
worden. Die Voraussagen der Formeln zu prüfen war die nächste Aufgabe
für die Experimentatoren in Leiden, Oxford und Charkow.
Bei dieser Arbeit wurde der erste Anhaltspunkt zum Verständnis des
Versagens unserer Blei-Wismut-Magnetspule für hohe Felder gefunden.
Während in reinen Metallen die thermischen Effekte wie die spezifische
Wärme und die latente Übergangswärme gut mit den mittels der
Thermodynamik aus der Schwellenwertkurve vorausgesagten Werten
übereinstimmten, war dies für die Legierungen nicht der Fall. Wegen der
äußerst hohen Schwellenwerte konnte man sehr ausgeprägte thermische
Effekte in den Legierungen erwarten, aber bei den Experimenten in Oxford
wie in Charkow war davon nichts zu sehen. Wieder zeigte sich deutlich,
daß unserer Kenntnis des supraleitenden Zustands etwas Wichtiges fehlte,

220
und insbesondere, daß sich Legierungen ganz anders als reine Metalle zu
verhalten schienen.
Diese reichhaltige Information ließ ganz klar nähere magnetische
Untersuchungen supraleitender Legierungen geraten erscheinen. Das Jahr
1934 war sehr arbeitsreich für die Experimentatoren in Oxford, Charkow
und Leiden, die sich alle mit fast denselben Problemen beschäftigten und
mit ähnlichen Methoden arbeiteten. Ihre jeweiligen Methoden waren aber
doch noch verschieden genug, um eine gegenseitige Prüfung der
Ergebnisse zu gestatten. Dieser Arbeitseifer führte dazu, daß die
Zusammenhänge ziemlich klar zutage getreten waren, als Anfang 1935 in
der Royal Society in London eine Konferenz stattfand. Die Legierungen
zeigten tatsächlich ein ganz anderes Verhalten als die reinen Metalle. Statt
daß sie das Magnetfeld bis zum Erreichen der Schwellenfeldstärke völlig
aus dem Metall ausschlossen, ließen die Legierungsproben den
magnetischen Fluß bereits bei einem relativ schwachen Feld eindringen.
Wenn die Kraftlinien jedoch die Legierungen durchsetzten, fand nicht
dasselbe plötzliche Verschwinden des supraleitenden Zustands wie in
reinen Metallen statt. Man stellte fest, daß das Eindringen des
magnetischen Flusses in die Probe ein allmählicher Vorgang ist, der sich
über einen weiten Feldbereich erstreckt, währenddessen die Probe
elektrisch supraleitend bleibt. Das Ergebnis kann in einem Diagramm
(Abb. 40) ähnlich dem für reine Metalle dargestellt werden. Der
Unterschied besteht darin, daß bei einer Legierung die Schwellenkurve
durch einen weiten Bereich allmählichen Eindringens des Flusses ersetzt
wird.
Was diese eigenartige Erscheinung zu bedeuten hatte, sah man nur
langsam ein, und die Früchte derartiger Untersuchungen wurden erst
dreißig Jahre später geerntet. Kehren wir nun zum Gegenstand der
ebenfalls 1934 veröffentlichten Doktorarbeit von Heinz London zurück.
Unsere frühere Behauptung, daß ein Magnetfeld in der Oberfläche eines
Supraleiters Dauerströme induziert, ist zwar zur Erklärung der
beschriebenen Erscheinungen gut geeignet, aber dennoch etwas grob. Ein
Strom besteht aus bewegten Elektronen, die einander abstoßen. Wir

221
können deshalb nicht annehmen, daß der Dauerstrom in der geometrischen
Oberfläche des Metalls fließt; er muß sich bis zu einer gewissen Tiefe in
das Metall hinein erstrecken. Diese Eindringtiefe berechnete Heinz London
zu etwa 10-5 cm; natürlich dringt auch das Magnetfeld genauso tief in das
Metall ein.
Das eigentlich supraleitende Volumen einer Metallprobe ist deshalb ein
ganz klein wenig geringer als ihr geometrisches Volumen, da man noch die
10-5 cm dicke Haut abziehen muß. Selbstverständlich ist diese Abweichung
gewöhnlich zu klein, um an Proben normaler Größe festgestellt werden zu
können, aber bei dünnen Metalldrähten oder –schichten wird sie wichtig (s.
Abb. 41). Dann entsteht eine seltsame Schwierigkeit. Wir haben gesehen,
daß die mit dem Übergang zwischen dem supraleitenden und normalen
Zustand des Metalls verbundene Energie durch die Arbeit bei Verdrängung
des Magnetfelds aus dem Volumen der Probe gegeben wird. Da dies eine
thermodynamische Grundgröße ist, kann sie nicht von der Gestalt der
Probe abhängen. Hat das Metall also die Form eines feinen Drahts, dessen
Querabmessungen, verglichen mit der Eindringtiefe, nicht groß sind, dann
ist das Volumen, aus dem der magnetische Fluß verdrängt wird,
entsprechend kleiner als in einer kompakten Probe. Daraus folgt, daß die
einzige Möglichkeit, denselben Wert für die Übergangsenergie zu erhalten,
darin besteht, das Schwellenwertfeld entsprechend zu erhöhen.
Diese Folgerung aufgrund der Londonschen Elektrodynamik ist deshalb
besonders interessant, weil sie eine Prüfung der Theorie durch ein direktes
Experiment ermöglicht. Es gab da gewisse Schwierigkeiten. Die Technik
der Herstellung sehr dünner Drähte war damals noch nicht sehr weit.
Überdies mußte das Metall frei von Verunreinigungen sein, um nicht
Legierungseigenschaften zu haben. Dennoch wurde der Versuch 1937 in
Oxford von dem jungen Amerikaner Rex Pontius durchgeführt, dem die
Herstellung so feiner Bleidrähte gelungen war, daß ihr Durchmesser mit
der berechneten Eindringtiefe vergleichbar wurde. Das Ergebnis war
äußerst befriedigend, da nicht nur eine größere Schwellenfeldstärke
beobachtet wurde, sondern diese auch noch genau die von der Theorie
vorausgesagte Größe hatte.

222
So ermutigend dieser Beweis der Theorie war, führte er doch zu einer
weiteren unangenehmen Frage. Das Experiment hatte unzweideutig
gezeigt, daß ein feiner Draht noch bei viel höheren Feldstärken
supraleitend ist als das kompakte Material. Warum, so können wir fragen,
tritt der Meißner-Effekt überhaupt auf? Warum teilt sich das in ein
Magnetfeld gebrachte Metall nicht statt dessen in ein System feiner
normal- und supraleitender Bereiche auf, deren jeder dann bis hinauf zu
sehr hohen Feldstärken supraleitend bleiben könnte?
Zum Glück war die Antwort auf diese Frage aus einem anderen Zweig
der Physik, nämlich vom Verhalten der Wassertropfen her, wohlbekannt.
Zwei oder mehrere kleine Tröpfchen vereinigen sich, wenn sie miteinander
in Berührung kommen, immer zu einem größeren Tropfen. Der
umgekehrte Vorgang, eine spontane Aufteilung eines Tropfens in eine
Anzahl von Tröpfchen, findet nicht statt. Für diese Erscheinung ist
natürlich die Oberflächenspannung verantwortlich, die zu einem
Energiegewinn bei Verminderung der Gesamtoberfläche führt. Eine
gegebene Wassermenge hat in Form eines einzigen kugelförmigen
Tropfens die kleinstmögliche Oberfläche. Ein spontaner Zerfall in
Tröpfchen kann nicht vorkommen, weil ein solcher Vorgang zu einer
größeren Oberfläche führen und daher Energie erfordern würde.
Wenden wir diese Überlegungen auf die Supraleitung an, so müssen wir
folgern, daß die Existenz des Meißner-Effekts auf eine positive
Oberflächenspannung an der Grenze zwischen den supra- und
normalleitenden Zuständen im Metall hindeutet. Der magnetische Fluß
wird insgesamt aus der Probe verdrängt, weil zuviel Energie zur Bildung
der großen Oberfläche zwischen all den feinen supra- und normalleitenden
Bereichen nötig wäre. Gleichzeitig erhalten wir eine Erklärung für das
seltsame Verhalten der supraleitenden Legierungen; sie sind offenbar
Metalle mit negativer Oberflächenenergie. Jetzt wurde auch das Versagen
des Oxforder Magneten für starke Felder klar. Er war unter der Annahme
konstruiert worden, daß sich die Legierung, aus der er bestand, wie ein
reines Metall verhielt; und diese Annahme war unberechtigt gewesen.

223
41 Eindringen des magnetischen Flusses in einen dicken und einen dünnen supraleitenden
Draht. Im dünnen Draht verschwindet die magnetische Induktion nirgends vollständig.

224
So weit kam die Forschung bereits Mitte der dreißiger Jahre, aber etwa
zwanzig Jahre mußten noch vergehen, bis man diese andere Art der
Supraleitung, wie sie die Legierungen zeigen, wirklich zu verstehen
begann. Auch heute ist unser Wissen darüber noch unvollständig. Diesmal
lagen eher zu viele als zu wenige neue Ergebnisse vor, und die Wege der
Forschung verwirrten sich hoffnungslos. Ganz am Anfang der
Untersuchungen war offenbar geworden, daß nicht nur Beimischungen,
sondern jede Art von Gitterfehlern das Supraleitungsverhalten
beeinflussen. Die Sache wurde noch komplizierter dadurch, daß die harten
Supraleiter wie Tantal und Niob für diese Einflüsse viel empfänglicher
schienen als die weichen wie Blei oder Zinn. In Oxford fand man, daß die
Gitterfehler ein Netzwerk supraleitender Stromfäden im Metall schufen,
und jetzt erhob sich die Frage, ob die Probe nach Beseitigung der
Gitterfehler zu dem herkömmlichen Verhalten mit einer scharfen
Schwellenwertkurve zurückkehren würde.
Leider ist es äußerst schwierig, eine homogene Legierung ohne
Gitterfehler herzustellen. Von allen in den dreißiger Jahren an der
Tieftemperaturforschung beteiligten Laboratorien verfügte Schubnikows
Gruppe in Charkow offenbar über die besten metallurgischen Hilfsmittel.
Aber diese Untersuchungen fanden wahrscheinlich 1937 ein Ende, als
Schubnikow verhaftet wurde, und zwar auf Vorwürfe hin, die sich später
als grundlos erwiesen und von denen er postum rehabilitiert wurde. In
Oxford verzeichnete man einen Erfolg, als man feststellte, daß sich eine
genügend saubere Tantalprobe wie ein weiches Metall verhält; aber es war
ein Erfolg in der falschen Richtung, da er von der Arbeit an Legierungen
ablenkte. Überdies verlagerten dort wie in Leiden die gerade entdeckten
Eigenschaften des supraflüssigen Heliums den Schwerpunkt des
Forschungsinteresses.
Der Krieg kam dazwischen, und erst in den frühen fünfziger Jahren fand
Pippard in Cambridge einen theoretischen Grund dafür, warum die
Oberflächenspannung in Legierungen negativ sein könnte. Aber noch war
das vorhandene experimentelle Material zu verwirrend, als daß man diesen
Fortschritt hätte ausnutzen können. 1957 veröffentlichte Abrikosow in

225
Moskau eine vollständige Theorie dieser Art der Supraleitung und machte
einige Voraussagen über das Verhalten einer »idealen« supraleitenden
Legierung. Er legte seine Arbeit auf einer Tieftemperaturkonferenz in
Moskau vor, der ersten, an der eine kleine Anzahl Physiker aus Oxford und
Cambridge teilnahmen. Es war eine höchst anregende Tagung, auf der sich
Leute, die ihre Arbeiten gegenseitig mehr als zwei Jahrzehnte lang verfolgt
hatten, zum erstenmal persönlich trafen. Es war erstaunlich zu sehen, wie
sehr die Forschung auf demselben Gebiet uns verbunden hatte; in wenigen
Stunden entstanden zwischen uns enge und dauerhafte Freundschaften. Der
erste Toast wurde zum Gedenken an Schubnikow ausgebracht, auf dessen
Arbeit sich Abrikosows Theorie weitgehend stützte. Schubnikows Witwe
und Kollegin, Olga Trapesnikowa, wurde Zeugin des Erfolgs der letzten
Forschungsarbeiten ihres Mannes. Abrikosow wurde wegen seiner Theorie
in die Sowjetische Akademie der Wissenschaften gewählt, aber es
vergingen noch fünf Jahre, bis sie nachgeprüft werden konnte.
Dann erst standen die ersten guten Einkristallproben von Legierungen,
hergestellt im Services Electronics Research Laboratory in England, zur
Verfügung. Ihre Untersuchung zeigte, daß sie tatsächlich alle von
Abrikosow vorausgesagten Eigenschaften aufwiesen. Diese Metalle sind
seitdem als Supraleiter zweiter Art bekannt geworden.
Wir haben uns nicht nur deshalb so lange bei den Fragen der Eindring-
tiefe, kleiner Abmessungen und der Oberflächenspannung aufgehalten,
weil sie zum Verständnis dieser neuen Art von Supraleitung wichtig sind,
sondern auch, weil sie zu einer Entwicklung geführt haben, die
wahrscheinlich eine große technologische Bedeutung bekommen wird.
Kamerlingh Onnes' Hoffnungen, starke Magnetfelder mit supraleitenden
Spulen herzustellen, wurden durch seine eigene Entdeckung der niedrigen
Schwellenwerte zunichte gemacht, durch die Entdeckung der hohen
Schwellenwerte der Legierungen wiederbelebt und erneut enttäuscht durch
das Versagen der Oxforder Spule. Ein Vierteljahrhundert ohne weiteren
Fortschritt verging bis zum nächsten Versuch. Inzwischen hatten sich die
allgemeinen Bedingungen sehr geändert. Der Preis für Heliumgas war
stark gefallen. Heliumverflüssiger wurden kommerziell hergestellt mit dem

226
Ergebnis, daß viele Laboratorien, besonders in Amerika, jetzt
kältetechnische Forschungseinrichtungen zur Verfügung hatten. Überdies
wurde nach der wertvollen Lehre des Zweiten Weltkriegs viel
bereitwilliger Geld für Forschungszwecke ausgegeben. Alle diese Faktoren
zusammen mußten dazu führen, daß irgend jemand festzustellen versuchen
würde, wieweit man wirklich Supraleiter zur Erzeugung von
Magnetfeldern verwenden könnte.
Da die Legierungen nutzlos schienen, griff man zu einem reinen Metall.
Die Wahl fiel natürlich auf Niob, da es die höchste Sprungtemperatur (9°
K) und den höchsten Schwellenwert besitzt. Außerdem standen seit dem
Krieg ziemlich reine Niobdrähte zur Verfügung. Das Ergebnis der ersten
Experimente war genauso überraschend wie das mit der Oxforder Spule
erzielte, aber im entgegengesetzten Sinn. Das erreichbare Feld lag
erheblich höher als erwartet. Man erinnerte sich der 25 Jahre
zurückliegenden Oxforder Arbeiten, bei denen festgestellt worden war, daß
sich gedehntes Tantal und Niob etwa wie Legierungen verhalten. Das war
ein wichtiger Hinweis, und so wandte man sich wieder den Legierungen
zu, aber nun denen harter Metalle. Anders als ihre knauserigen
Konkurrenten in der Alten Welt hatte die amerikanische Elektroindustrie
kältetechnische Laboratorien eingerichtet; jetzt kam ihnen diese Investition
zugute. Bell Telephone Laboratories, General Electric und Westinghouse
konnten über Nacht leistungsfähige Forschungsteams auf das Problem
supraleitender Magnete ansetzen, und nach drei Jahren (1963) wurde die
erste supraleitende Spule, die 100 000 Oe erzeugte, in Betrieb genommen
(Abb. 42).
Die dabei verwandte Legierung entspricht etwa einer intermetallischen
Verbindung von Niob und Zinn, aber auch andere Kombinationen, wie z.
B. Niob-Zirkonium und Molybdän-Rhenium, haben gute Ergebnisse
gezeitigt. Auf dem kältetechnischen Forschungsgebiet, wo man in jedem
Fall flüssiges Helium benutzt, haben Magnete aus diesen Legierungen
bereits die experimentellen Methoden revolutioniert. Immer mehr werden
teure wassergekühlte Spulen aus Kupferdraht, die man zur magnetischen
Abkühlung benutzte, durch relativ kleine supraleitende Magnete ersetzt.

227
Die großen Generatoren, die zur Stromversorgung der konventionellen
Spulen nötig gewesen waren, machten einer Reihe normaler Autobatterien
Platz, die genug Energie für die supraleitenden Spulen liefern. Auch die
Zahl dieser Batterien kann dank einer anderen supraleitenden Vorrichtung,
»Flußpumpe« genannt, auf ein Minimum reduziert werden.
In ihrer einfachsten Form besteht die Flußpumpe aus einer an einem
Ende offenen supraleitenden Drahtschleife, über die ein kurzes Stück Draht
im Kontakt mit ihr bewegt werden kann (Abb. 43). Am Anfang wird ein
mäßiges Magnetfeld, wie es etwa ein normaler Labormagnet erzeugt, über
die ganze Fläche der Schleife hergestellt, und der Draht liegt über ihren
Enden (1). Die von Schleife und Draht eingeschlossene Fläche A ist jetzt
also von einem geschlossenen supraleitenden Kreis umgeben. Wird der
Draht über die Schleife bewegt, dann verkleinert sich die Fläche A, aber
kein magnetischer Fluß kann diesem schrumpfenden supraleitenden Ring
entweichen. Statt dessen wird darin ein Dauerstrom erzeugt. Bei (2) ist der
ganze vorher in A enthaltene Fluß jetzt auf die viel kleinere Fläche A'
konzentriert, und ein zweiter Querdraht wird über die Enden der Schleife
gelegt. Dann (3) wird dieser zweite Draht über die Schleife bewegt und der
erste abgenommen. Kurz vor der Abnahme war der ganze ursprünglich in
A enthaltene Fluß in A' und der in der Fläche A–A' enthaltene Fluß
zwischen den Querdrähten eingefangen. Wenn der erste Draht beseitigt
wird, kann sich der durch ihn eingefangene Fluß ein wenig ausdehnen;
aber sobald der zweite Draht in dieselbe Lage gebracht worden ist (4),
entspricht der gesamte in der Fläche A' konzentrierte Fluß dem
ursprünglich in A + (A–A') enthaltenen. Inzwischen ist der erste Draht
wieder über die Enden der Schleife gelegt, und der ganze Vorgang kann
wiederholt werden. Bei jedem Arbeitsgang der Flußpumpe steigt die
magnetische Feldstärke. Die für diese Kompression des magnetischen
Flusses benötigte Energie besteht in der Arbeit, die man beim Verschieben
des Drahts gegen die magnetische Kraft leistet. Eine Grenze ist der Pumpe
nur durch den Schwellenwert des Materials gesetzt, aus dem Schleife und
Querdraht hergestellt sind.
Viele Varianten einer solchen Flußpumpe sind ausprobiert worden. Sie

228
alle sind über unser einfaches Schema hinaus etwas weiterentwickelt,
arbeiten aber nach demselben Prinzip. Die Beugung der Schleife wird
durch eine supraleitende Spule ersetzt, der so Schritt für Schritt, ausgehend
von einem ganz schwachen Magnetfeld, Energie zugeführt werden kann.
Das Flußpumpen wird besonders in Zukunft nützlich sein, wenn
supraleitende Spulen zur Erzeugung starker Magnetfelder in großen
Volumina betrieben werden müssen. Die Verwendung supraleitender
Magnete in der Tieftemperaturforschung ist nämlich nur ein Vorge-
schmack kommender Dinge.
Es gibt eine Reihe höchst wichtiger technologischer Probleme, die
bisher nicht erfolgreich angegangen werden konnten, weil ihre
Anforderungen über die Leistung konventioneller Magnete hinausgehen.
Dazu gehören z. B. die Beherrschung thermonuklearer Reaktionen, d. h.
die kontrollierte Freisetzung der Fusionsenergie der Wasserstoffbombe,
und magnetohydrodynamische Methoden, um Wärme direkt in elektrische
Energie umzuwandeln. Bisher konnte man die dafür benötigten starken und
ausgedehnten Magnetfelder noch nicht herstellen. Die Schwierigkeit liegt
darin, daß die Wärme, die ein Strom in den Kupferdrahtwindungen eines
konventionellen Magneten erzeugt, mit dem Quadrat dieses Stroms
anwächst; denn schließlich kommt man dahin, daß man noch so viel
Kühlwasser durch den Magneten pumpen kann, ohne diese Wärme
wirksam zu beseitigen. In der supraleitenden Spule wird überhaupt keine
Wärme erzeugt, da der elektrische Widerstand Null ist. Zwar braucht man
gewaltige Gefäße mit flüssigem Helium, um darin die großen
supraleitenden Spulen kühlen zu können, aber das ist ein geringer Preis für
diese neuen Methoden der Energieerzeugung vermittels höchster
Magnetfelder, die man sonst nicht anwenden könnte.

229
42 Ein supraleitendes Solenoid, mit dem man Magnetfelder von 100 000 Oersted
erzeugen kann.

230
Als die ersten erfolgreichen Legierungsproben untersucht wurden, stand
man noch ganz unter dem Einfluß von Abrikosows jüngster Arbeit.
Deshalb hielt man diese Proben für reine Supraleiter zweiter Art. Das
erwies sich zum Glück als nicht richtig; denn die Herstellung
kilometerlanger reiner Drähte zweiter Art hätte sich als ein ungeheures und
vielleicht unlösbares metallurgisches Problem herausgestellt. Statt dessen
stellte man fest, daß ein Magnetdraht,, um geeignet zu sein, nur stark
gedehnt zu werden braucht, so daß der Strom in Fasern fließen kann, wie
man es bereits nach den alten Oxforder Experimenten gefordert hatte.
In den letzten Jahren fragte man sich oft, ob wir supraleitende Magnete
ein Vierteljahrhundert früher gehabt hätten, wenn die Experimente in
Oxford und Charkow in den späten dreißiger Jahren fortgesetzt worden
wären. Ich glaube, daß die Antwort darauf ein entschiedenes Nein ist.
Damals gab es weder die kältetechnischen Möglichkeiten, noch benötigte
man solche Magnete. Jeder, der damals den Aufwand von
Hunderttausenden von Mark für eine solche Entwicklung vorgeschlagen
hätte, wäre für verrückt gehalten worden. Erst mußten der Krieg, das
Düsenflugzeug, das Penicillin und die Atombombe kommen, um die
Menschheit an kostspielige Forschung zu gewöhnen.
Außer der Magnetherstellung gibt es noch andere Gebiete, auf denen die
Supraleitung wichtig werden kann, aber hier können wir nur ein paar
davon kurz erwähnen. Supraleitende Vorrichtungen können sich als
Computerbauelemente nützlich erweisen, sowohl für die Rechenprozesse
als auch zur Datenspeicherung. Insbesondere Computergedächtnisse sind
schwer zu bauen, vor allem wenn die gespeicherte Information rasch
zugänglich sein soll. Dauerströme sind vielleicht die beste Lösung. Der
erwähnte Schwebemagnet könnte der Vorläufer reibungsloser
supraleitender Lager sein. Diese wiederum könnten zu einem sehr
dauerhaften Kreiselkompaß führen, der genaue Navigation in Atom-U-
Booten und Raumfahrzeugen ermöglichen würde.

231
43 Schematische Darstellung der Wirkungsweise einer Flußpumpe.

232
Statt uns jedoch in technologische Spekulationen zu verlieren und um
unsere Geschichte der Supraleitung abzuschließen, kehren wir zu den
Grundproblemen zurück, deren wichtigstes, das wir bisher übergangen
haben, die Frage nach einer Erklärung ist. Es ist das schwierigste all dieser
Probleme. Wenn wir auch heute erheblich klarer sehen als vor zehn Jahren,
so stehen wir doch erst am Anfang.
Seit der Entdeckung der Supraleitung wurden natürlich viele
verschiedene Theorien zu ihrer Erklärung vorgeschlagen; es waren jährlich
etwa zwei bis drei, und das 25 Jahre lang. Alle Arten neuer Axiome, von
unausgegorenen bis zu höchst verfeinerten, wurden formuliert, die alle eins
gemeinsam hatten: Sie paßten nicht zu den Tatsachen.
Schließlich verkündete Felix Bloch, der so viel für unser Verständnis
der Elektronen im Metall getan hat, ein eigenes Axiom, das lautete: »Jede
Theorie der Supraleitung kann als falsch bewiesen werden.« Und für lange
Zeit erwies sich dieses Axiom als das einzig richtige.
Ganz allmählich näherte man sich jedoch der Lösung, indem man eine
Anzahl Versuche als unmöglich verwarf und mehr aus den Experimenten
lernte. Die Londonsche Elektrodynamik und die Thermodynamik trugen
viel zur Klärung bei. Z. B. konnte man aus einem Oxforder Experiment
schließen, daß die Entropie eines Dauerstroms Null ist. Das ließ sofort eine
kleine Lücke zwischen den verfügbaren Energiezuständen an der Fermi-
Oberfläche (siehe Kapitel 7) vermuten, und wenige Jahre später konnte die
Existenz dieser Lücke durch eine Reihe eleganter Experimente in
Kalifornien gezeigt werden. Schon vorher hatte die tiefe Temperatur, bei
der Supraleitung auftritt, klargemacht, daß die beteiligte Energie sehr klein
ist. So wurde der Weg für die Theoretiker Schritt für Schritt vorgezeichnet,
und man brauchte nur noch einen elektronischen Prozeß im Metall zu
finden, der diese Bedingungen erfüllt und zu den anderen bekannten
Erscheinungen der Supraleitung paßt. Das war eine ungeheure Aufgabe,
die hervorragende Kenntnis der elektronischen Erscheinungen in Metallen,
große Vertrautheit mit mathematischen Methoden, vor allem aber eine
glänzende und dabei kontrollierte Phantasie erforderte.
Den, wie es heute scheint, entscheidenden Schritt taten 1950 Fröhlich in

233
Liverpool und Bardeen in Illinois gleichzeitig und unabhängig
voneinander. Die Grundidee ihrer Theorien ist, daß der zur Supraleitung
führende Mechanismus auf einer durch die Gitterschwingungen
vermittelten Wechselwirkung der Elektronen untereinander beruht. Grob
gesagt, rührt die Supraleitung von dem Einfluß her, den die Anwesenheit
von Leitungselektronen auf die atomaren Schwingungen ausübt. Nehmen
wir der Einfachheit halber an, wir hätten es mit einem Metall zu tun, in
dem jedes Atom ein freies Elektron geliefert hat. Der Kristall besteht also
aus einem Gitter positiver Ionen, d. h. Atomen, die je ein Elektron verloren
haben, und einem »Gas« aus gleich vielen freien Elektronen, die sich
unregelmäßig durch dieses Kristallgitter bewegen. Ein negatives Elektron,
das von positiven Ionen des Gitters umgeben ist, bewirkt, daß letztere zu
ihm hingezogen werden. Diese schwache lokale Kontraktion des
Kristallgitters hat zwei Folgen: Erstens werden weitere Elektronen
angezogen – und das führt zur Supraleitung –, und zweitens werden die
Schwingungen der positiven Ionen beeinflußt. Fröhlich sagte aufgrund
dieser beiden Effekte voraus, daß sich in der Supraleitung die Masse der
schwingenden Ionen bemerkbar machen sollte.
Zum Glück war die Kerntechnik so weit fortgeschritten, daß Isotope
(Atome desselben Elements mit verschiedener Masse) einiger
supraleitender Metalle getrennt werden konnten. Ohne daß Fröhlich es
wußte, war das Experiment sogar schon in zwei amerikanischen
Laboratorien im Gang. Die Ergebnisse zeigten eine kleine Änderung der
Sprungtemperatur, mit der Ionenmasse, wie er sie vorausgesagt hatte.
Natürlich wurde dieses Ergebnis als äußerst ermutigend angesehen, da zum
erstenmal eine theoretische Voraussage einer Supraleitungserscheinung
stimmte.
Aber für die theoretische Deutung der Supraleitung war es eher das
Ende vom Anfang als der Anfang vom Ende. Das Experiment hatte
bewiesen, daß die von Fröhlich vermutete Art der Wechselwirkung
zwischen Elektronen und Gitterschwingungen die entscheidende war, aber
von dort war es ein weiter Weg, bis gezeigt werden konnte, daß ein
besonderer Mechanismus dieser Art wahrscheinlich Supraleitung bewirkte.

234
Es scheint, daß sich an der »richtigen« anziehenden Wechselwirkung
Elektronenpaare beteiligen, deren Partner jeweils dieselbe Geschwindigkeit
in entgegengesetzten Richtungen und gleichzeitig entgegengesetzte Spins
haben. Die mathematische Behandlung dieser Theorie bringt schwierige
Probleme mit sich, die Bardeen, Cooper und Schrieffer in Amerika sowie
Bogoljubow in Rußland auf etwas verschiedenen Wegen überwunden
haben. Die Theorie ist jetzt so weit entwickelt, daß sie die meisten
beobachteten Erscheinungen erklären, aber noch keine brauchbaren
Voraussagen machen kann. Das überrascht nicht, da wir noch lange nicht
die kleinen Wechselwirkungen zwischen Elektronen in einem Metall
verstehen, die dieser Theorie zugrunde liegen. Es scheint so, als sei die
besondere Art Wechselwirkung, die zu der spektakulären Erscheinung der
Supraleitung führt, richtig erkannt, aber es kann noch andere, gleich
wichtige Arten geben, deren Wirkungen weniger ins Auge springen. Erst
weitere Untersuchungen an Metallen und wahrscheinlich bei noch tieferen
Temperaturen können da Klarheit schaffen.
Der Laie ist vielleicht enttäuscht, daß sich die Ursache eines so
auffälligen Phänomens wie der Supraleitung im atomistischen Rahmen nur
als eine lächerliche kleine Wechselwirkung zwischen Elektronen und
Gitterschwingungen herausgestellt hat. Dieses Gefühl hatten auch viele
Physiker, die der Hoffnung gewesen waren, die Supraleitung könnte ein
neues Grundprinzip der Natur offenbaren. Tatsächlich war man in den
Jahren vor Fröhlichs Vorschlag geneigt gewesen, nach einer neuen, noch
unentdeckten Art Wechselwirkung zwischen den Elektronen zu suchen.
Vielleicht ist dieses Gefühl der Enttäuschung voreilig. Erstens wissen
wir noch nicht, ob die Fröhlichsche Wechselwirkungsart nicht vielleicht
näher am absoluten Nullpunkt für das allgemeine Verhalten von Metallen
sehr wichtig wird. Zweitens suchen wir neue Offenbarungen vielleicht in
der falschen Richtung, wenn wir in der atomistischen Theorie der
Supraleitung nach ihnen fahnden. Tatsächlich liefert die Theorie des festen
Zustands selbst eine Art Parallele. Auch dort gibt die schwierige und etwas
umständliche atomistische Theorie der Anziehungskräfte nur eine
schwache Andeutung vom eindrucksvollen Schauspiel des Schmelzern, d.

235
h. des plötzlichen Zusammenbruchs des regelmäßigen Kristalls zur
gestaltlosen Flüssigkeit. Die auffälligen Merkmale des kristallinen
Zustands, seine elastischen, optischen und akustischen Eigenschaften sind
makroskopische Phänomene. Sie beruhen auf der regelmäßigen Anordnung
der Atome, aber bezeichnender als die Natur der interatomaren Kräfte ist
der Ordnungszustand, die Wiederholung dieser Regelmäßigkeit über weite
Strecken hinweg.
Auch bei der Supraleitung zieht das makroskopische Phänomen des
Dauerstroms unsere Aufmerksamkeit auf sich, und es liegt nahe, dahinter
eine tiefere Bedeutung zu suchen, die vielleicht ein neues Ordnungsschema
enthüllt. Daß eine Art Ordnung entsteht, wenn Supraleitung einsetzt,
wissen wir. Sie äußert sich in einem steilen Entropieabfall beim Abkühlen
des Metalls unter die Temperatur, bei der der elektrische Widerstand
verschwindet. Noch eindrucksvoller ist das bereits erwähnte
experimentelle Ergebnis, daß die Entropie eines Dauerstroms Null ist.
Dieser Effekt läßt außerdem vermuten, daß wir es hier mit einer
Manifestation der Energiequantelung im makroskopischen Bereich zu tun
haben. Tatsächlich ergibt sich daraus, daß der Strom anhält und mit der
Zeit nicht nachläßt, ein einfaches Argument dafür, daß der Strom in
ähnlicher Weise gequantelt sein muß wie die Bahn eines Elektrons um den
Kern. Diese makroskopische Quantelung war schon seit einiger Zeit
vermutet und ihre Größe von Fritz London als hc/e vorausgesagt worden,
wobei c die Lichtgeschwindigkeit und e die Ladung des Elektrons ist.
Diese einzelnen Flußquanten sind klein, aber mit den äußerst verfeinerten
modernen magnetischen Meßmethoden noch feststellbar. 1961 wurde
dieses schwierige Experiment gleichzeitig in Kalifornien und Deutschland
mit verschiedenen Methoden erfolgreich durchgeführt. Es wies schlüssig
nach, daß Dauerströme nur in ganzen Vielfachen des Flußquantums
vorkommen können.
Wenn die Supraleitung allein stünde, könnten wir trotz ihrer
außergewöhnlichen Erscheinungen an ihrer grundlegenden Bedeutung für
das Verständnis zusammenhängender Materie zweifeln. Aber diese
seltsamen Erscheinungen kommen noch einmal und auch bei tiefen

236
Temperaturen vor, aber in zusammenhängender Materie anderer Form,
nämlich in flüssigem Helium selbst. Bevor wir uns wieder der zentralen
Frage unserer Untersuchung, der Natur des Ordnungsschemas, zuwenden,
müssen wir zunächst die Suprafluidität von Helium betrachten.

237
10 | Suprafluidität

Im Rückblick muß es unbegreiflich erscheinen, daß dreißig Jahre


vergangen sein sollen zwischen der ersten Verflüssigung des Heliums und
der Entdeckung seiner auffälligsten Eigenschaft, der Suprafluidität.
Während dieser dreißig Jahre wurden in Laboratorien überall in der Welt
Tausende von Experimenten mit flüssigem Helium angestellt, und bei
vielen müssen die Physiker beobachtet haben, daß die Flüssigkeit ihr
Aussehen in seltsamer Weise änderte, wenn sie abgekühlt wurde. Man hat
Gründe genug zu der Annahme, daß Kamerlingh Onnes an jenem
denkwürdigen 10. Juli 1908 diese Erscheinung sah. Als fast ein
Vierteljahrhundert später McLennan, Smith und Wilhelm sie in der
Literatur erwähnten, kamen sie immer noch nicht auf die naheliegende
Folgerung. Sie beschrieben das Kochen des flüssigen Heliums unter
vermindertem Druck, das auftrat, als die Temperatur durch den Bereich des
von Onnes entdeckten Dichtemaximums fiel, und sagten wörtlich: »… das
Erscheinungsbild der Flüssigkeit unterlag einer auffälligen Veränderung,
und die stürmische Aufwallung verschwand augenblicklich. Die
Flüssigkeit wurde sehr ruhig …« (S. Abb. 44.) Wiederum, wie im Fall der
Supraleitung, war es die Ungeheuerlichkeit der Entdeckung, die
verhinderte, daß sie gemacht wurde. Die richtige Folgerung hätte ein
Physikstudent der Anfangssemester ziehen können, aber welcher reife und
erfahrene Physiker wagte im Ernst zu vermuten, daß die
Wärmeleitfähigkeit der Flüssigkeit plötzlich auf das Millionenfache
gestiegen war. Trotzdem war genau das der Fall.
Gehen wir für einen Augenblick zurück zu den Experimenten von Dana
und Onnes aus dem Jahr 1924, die in Kapitel 4 erwähnt wurden. Kurz
unterhalb der Temperatur des Dichtemaximums von 2,2° K hatten sie für

238
die spezifische Wärme Werte gefunden, die so hoch waren, daß sie sie
nicht zu veröffentlichen wagten. Sie waren überzeugt, daß irgendeins ihrer
Meßinstrumente versagt hätte. Dana mußte nach Amerika zurück, und
Onnes starb kurz darauf. Es vergingen weitere sechs Jahre, bevor die Frage
der spezifischen Wärme des flüssigen Heliums von seinem Nachfolger
Willem Hendrik Keesom und dem deutschen Gastforscher Klaus Clusius
geklärt wurde. In der Mitteilung Nr. 219 des Leidener Laboratoriums
veröffentlichten sie ihre Ergebnisse, die eine gewaltige Anomalie in der
spezifischen Wärme zeigten. Da der Verlauf der Kurve dem griechischen
Buchstaben λ ähnelt, ist die Anomalie als Lambda-Punkt bekannt
geworden. Dieses Maximum der spezifischen Wärme liegt bei genau
derselben Temperatur wie das Dichtemaximum (siehe Abb. 45).
Keesom erfaßte sofort, daß dies auf eine grundlegende Änderung in der
Natur der Substanz hindeuten muß, und viele Forscher vermuteten
begreiflicherweise, daß Helium doch einen Tripelpunkt besäße und die
Phase unterhalb 2,2° K tatsächlich kristallin sei. Zugegeben, es war
beweglich. Es sind aber Fälle bekannt, in denen die Kristallebenen so glatt
sind, daß sie fortwährend gleiten und den Eindruck von Beweglichkeit
hervorrufen. Flüssiges Helium, so folgerten sie, müsse infolge seines
niedrigen Siedepunkts ideal rein und könnte der Extremfall eines solchen
»flüssigen Kristalls« sein. Diese Erklärung erwies sich, so elegant und
verblüffend sie war, als falsch. Die regelmäßige Anordnung eines
Kristallgitters muß sich in einem regelmäßigen Beugungsbild von
Röntgenstrahlen offenbaren. Als jedoch ein paar Jahre später Taconis in
Leiden Helium unterhalb des Lambda-Punkts Röntgenstrahlen aussetzte,
zeigte sich kein derartiges Beugungsbild. Man mußte also annehmen, daß
die Substanz unter- wie oberhalb dieser Temperatur eine Flüssigkeit ist,
allerdings eine solche, die bei 2,2° K eine tiefgreifende Umwandlung
erfährt. Um was für eine Umwandlung es sich handelt, konnte Keesom
nicht sagen. Er konnte nur zwischen zwei Flüssigkeitsarten unterscheiden,
der oberhalb und der unterhalb des Lambda-Punkts. Erstere nannte er
Helium I und letztere Helium II, eine Bezeichnungsweise, die beibehalten
wurde und die auch wir im folgenden verwenden werden. Das bedeutet

239
auch, daß das Zustands-diagramm des Heliums von dem jeder anderen
Substanz verschieden ist. Es gibt keinen Tripelpunkt, weil die
Schmelzkurve bei 25 Atmosphären aufhört, sich mit der Temperatur zu
ändern (Abb. 46). Folglich verschwindet die latente Schmelzwärme, und
der Schmelzvorgang wird bei Annäherung an den absoluten Nullpunkt zu
einem rein mechanischen Vorgang, der nur durch Druckänderung bewirkt
werden kann. Die flüssige Phase erstreckt sich bis 0° K und ist in die zwei
Bereiche des He I und He II geteilt.
Auf diese beiden Flüssigkeitsarten bezogen sich die oben zitierten
Bemerkungen der Gruppe aus Toronto, und unter diesen Umständen muß
es noch außergewöhnlicher erscheinen, daß weder diese Gruppe noch sonst
jemand die Bedeutung der genannten Beobachtung erkannte. Schlimmer
noch: Drei Jahre später gelangte Keesom nicht nur in den Besitz des
bestmöglichen Schlüssels für die Aufklärung des Torontoer Geheimnisses,
sondern veröffentlichte ihn sogar. Aber vorerst wurde er von ihm selbst
und allen anderen übersehen.
Zusammen mit seiner Tochter Anna Petronella hatte Keesom die
Messungen der spezifischen Wärme mit größerer Genauigkeit wiederholt.
Beim Passieren des Lambda-Punkts bemerkten sie, daß das Aussehen ihrer
Ergebnisse sich plötzlich änderte, was sie richtig auf einen Anstieg der
Wärmeleitung zurückführten. Den Zusammenhang mit den Bemerkungen
von McLennan und seinen Mitarbeitern erkannten sie jedoch nicht. Der
nächste Schritt der beiden Keesoms bestand in der genauen Bestimmung
der Wärmeleitfähigkeit des He II. Dafür bauten sie eine für schlechte
Wärmeleiter geeignete Apparatur herkömmlicher Art. Als diese Apparatur
versagte, war es schließlich klargeworden, daß die Wärmeleitung von He II
sehr groß sein muß.
Es ist bezeichnend, daß die Idee einer enormen Wärmeleitfähigkeit des
flüssigen Heliums erst aufkam, als sie unausweichlich geworden war. Daß
eine Nichtleiter-Flüssigkeit plötzlich ein besserer Wärmeleiter werden
sollte als Kupfer oder Silber, konnte man aufgrund der bis dahin bekannten
physikalischen Erscheinungen einfach nicht verstehen. Als diese Tatsache
erst einmal hingenommen war, zeigte sich, daß das Tor zu neuen

240
Entdeckungen geöffnet war. Man hatte eine Stufe ähnlich jener der ersten
Andeutung der Supraleitung erreicht, mit der Ausnahme, daß jetzt eine
ganze Reihe erfahrener Tieftemperaturlabors in Aktion traten, wo
seinerzeit Leiden allein auf weiter Flur gewesen war. Die nächsten Jahre
brachten eine wahre Forschungslawine. Man schrieb jetzt 1936, und als die
neuen Entdeckungen gemacht wurden, begleiteten beunruhigende
Nachrichten aus Deutschland den Fortschritt der Forschung. Der Schatten
des Krieges fiel über Europa, und naturwissenschaftliche Forschung wurde
zu einem Wettlauf mit der Zeit. Die meisten überraschenden Eigenschaften
des He II wurden in weniger als zwei Jahren entdeckt, und man fand ein
brauchbares Modell, das alle zugehörigen Erscheinungen zu erklären
vermochte. Praktisch stehen alle diese Ergebnisse, die experimentellen wie
die theoretischen, in jenem berühmten Band 141 der Zeitschrift Nature.

44 Flüssiges Helium über (links) und unter (rechts) dem Lambda-Punkt. Das Sieden hört
auf, und supraflüssiges Helium läuft durch die feinen Poren im Boden des über dem
Heliumbad aufgehängten Gefäßes.

241
45 Am Lambda-Punkt zeigen Dichte und spezifische Wärme flüssigen
Heliums Maxima.

242
Auf jeden, der damals nicht mit von der Partie war, machen die
ineinandergreifenden Zeugnisse, die in dem Band dargestellt sind, den
Eindruck hoffnungsloser Verwicklung. Indes, nichts wäre falscher. Die
Art, wie dieses Problem in Angriff genommen wurde, ist ein
hervorragendes Beispiel für beste wissenschaftliche Zusammenarbeit. Der
Wettstreit zwischen den verschiedenen Laboratorien war scharf, aber sie
hielten sich gegenseitig vollkommen über den jeweils erzielten Fortschritt
auf dem laufenden, oft per Telefon und durch persönliche Treffen. Dabei
kam es zu Diskussionen, die der Zuverlässigkeit der einzelnen Methoden
unbarmherzig, aber immer mit konstruktiver Kritik auf den Grund gingen.
Die erste Untersuchung, die zu einer neuen Entdeckung führte, erschien
zunächst ganz harmlos. Allen, Peierls und Uddin hatten in Cambridge eine
genial einfache Methode gefunden, nach der die Leidener Messungen der
Wärmeleitfähigkeit mit größerer Genauigkeit wiederholt werden konnten.
Die Keesoms hatten ein langes, mit flüssigem Helium gefülltes Rohr
benutzt und den Temperaturabfall längs des Rohrs mit elektrischen
Thermometern gemessen. Die Cambridger Anordnung (Abb. 47a) bestand
nur aus einem Glaskolben, der über ein Rohr an seinem Boden mit dem
Bad aus flüssigem Helium in Verbindung stand. Der Kolben enthielt eine
elektrische Heizung, und wenn diese eingeschaltet wurde, strömte die
Wärme durch das Helium im Rohr in das Bad. Die Temperaturdifferenz an
den Enden des Rohrs wurde durch den Dampfdruckunterschied der
Flüssigkeit im Kolben und im Bad angezeigt. Dieser konnte einfach aus
der Höhendifferenz abgelesen werden, da das Gewicht der entsprechenden
Säule flüssigen Heliums gleich der Dampfdruckdifferenz ist.
Mit Hilfe dieser einfachen, aber sehr empfindlichen Apparatur
bestätigte die Cambridger Gruppe nicht nur den in Leiden gefundenen
starken Wärmetransport, sondern entdeckte noch eine wichtige zusätzliche
Tatsache. Zum Unterschied von jedem normalen Wärmeleitungsvorgang
war der Wärmestrom durch das He II nicht proportional zur
Temperaturdifferenz. Je kleiner man diese Differenz machte, um so größer
wurde die »Leitfähigkeit«. Sie erreichte Werte, die jene des He I um das
Millionenfache überstiegen. Das war eine bedeutende Entdeckung. Wäre

243
man ihr damals nachgegangen, so hätte sie vielleicht zu Untersuchungen
geführt, die erst mehr als zehn Jahre später durchgeführt wurden. Das
Ergebnis erwies sich schließlich als völlig richtig. Sehr bald nach seiner
Veröffentlichung jedoch zogen die Autoren selbst es in Zweifel; etwas
ganz Unvorhergesehenes war geschehen.

46 Zustandsdiagramm von Helium mit der Lambda-Linie, die He I und He II voneinander


trennt

Als die Messungen zu immer kleineren Temperaturdifferenzen hin


ausgedehnt wurden, stellte man fest, daß der Abstand der beiden Niveaus
nicht nur geringer wurde, sondern sogar sein Vorzeichen umkehrte. Mit
anderen Worten: Das Flüssigkeitsniveau innerhalb des Kolbens stieg ein
wenig über das des Bades außerhalb hinaus. Hätte man dies weiterhin auf
eine Dampfdruckdifferenz zurückgeführt, so hätte es bedeutet, daß die im
Kolben geheizte Flüssigkeit sich abkühlte, und das war offenbar Unsinn.

244
Der nächste Schritt bestand darin, den Kolben oben mit einer Öffnung zu
versehen und so das Experiment unter der Bedingung zu wiederholen, daß
der Dampfdruck über beiden Oberflächen gleich war. Das Ergebnis war
verblüffend: Bei Erwärmung stieg das Niveau im Kolben wiederum (Abb.
47b). Ein ganz neuer Effekt war entdeckt worden, der nur bei He II und bei
keiner anderen Flüssigkeit vorkommt: Wenn Wärme zugeführt wird, fließt
Flüssigkeit auf die Wärmequelle zu.
Man bemerkte bald, daß die Niveaudifferenz zunahm, wenn das Rohr
zwischen Kolben und Bad verengt wurde. Schließlich ging man zu einer
großen Zahl von sehr feinen Kanälen über, indem man das Rohr mit Pulver
füllte, so daß die Flüssigkeit durch eine Vielzahl kleiner Zwischenräume
fließen mußte. Man erzielte auf diese Weise nicht nur eine große
Niveaudifferenz, sondern wenn man das obere Ende des Kolbens zu einer
Spritzdüse ausgezogen hatte, sah man einen Strahl flüssigen Heliums
herausschießen (Abb. 47c). Dieses recht augenfällige Schauspiel führte zu
der Bezeichnung »Springbrunnenphänomen«. Wir werden davon jedoch
passender als vom thermomechanischen Effekt sprechen. Dieser Ausdruck
zeigt an, daß wir es mit einer durch Wärme hervorgerufenen Bewegung
von Masse, eben der Flüssigkeit, zu tun haben. Da offenbar war, daß der
thermomechanische Effekt die Ergebnisse der ursprünglichen
Wärmeleitfähigkeitsmessung beeinflußt haben mußte, konnte man ihnen
nicht trauen, und eine Zeitlang schien es, als sei die Nichtproportionalität
zwischen Wärmestrom und Temperaturdifferenz, die man in Cambridge
entdeckt hatte, auf eine solche Verfälschung zurückzuführen. Die nächste
Wärmeleitfähigkeitsmeßreihe, diesmal aus Leiden, zeigte jedoch, daß das
Cambridger Ergebnis trotz allem richtig und verläßlich war.
Der Ausdruck »thermomechanisch« läßt sofort an eine Wärmemaschine
und an die Möglichkeit denken, die Gleichungen der Thermodynamik
anzuwenden. Das wurde tatsächlich im folgenden Jahr von Heinz London
getan, der die Arbeit zur Hebung des flüssigen Heliums im
»Springbrunnen« zu der dafür erforderlichen Wärme in Beziehung setzte.
Unterdessen fiel uns ein, einmal zu untersuchen, ob diese Wärmemaschine
wie andere umkehrbar sei. In Oxford wurde daher eine Apparatur gebaut,

245
die dem He II ermöglichte, durch ein System enger Kanäle von einem
höheren zu einem niederen Niveau zu fließen. Das Durchflußrohr war
doppelwandig wie ein Dewar-Gefäß, damit kein störender Wärmezufluß
stattfinden konnte, und an den Ausflußenden der engen Kanäle wurde ein
sehr empfindliches Thermometer angebracht (Abb. 48). Als man das He II
durch dieses Rohr hindurchschickte, fand man, daß die ausfließende
Flüssigkeit sich abkühlte. Dieser mechanokalorische Effekt ist das genaue
Gegenteil des thermomechanischen Effekts, den man in Cambridge
beobachtet hatte. Ihr Verhältnis zueinander wird am besten in einer
schematischen Darstellung (Abb. 49) zweier Gefäße mit He II deutlich, die
durch ein enges Röhrchen verbunden sind. Man sieht sofort, daß ein
eindeutiger und umkehrbarer Zusammenhang zwischen Massen- und
Wärmefluß besteht. Sie sind einander entgegengerichtet.
So erstaunlich diese thermischen Effekte bei He II waren, sie nahmen
dennoch keineswegs die volle Aufmerksamkeit der auf diesem Gebiet
Arbeitenden in Anspruch. Ein anderer bemerkenswerter Vorgang hatte
zwischen den Cambridger Wärmeleitfähigkeitsmessungen und der
Beobachtung des thermomechanischen Effekts stattgefunden: die
Entdeckung der Suprafluidität.
In einigen Laboratorien hatte man festgestellt, daß Gefäße mit flüssigem
Helium, die nicht vollkommen dicht waren, unterhalb des Lambda-Punkts
sehr viel mehr leckten als oberhalb. Manchmal konnte eine Apparatur, die
über 2,2° K ganz dicht schien, bei weiterer Abkühlung stark zu lecken
anfangen und unbrauchbar werden. Die Keesoms, die durch diesen
irritierenden Vorgang bei ihren Messungen der spezifischen Wärme gestört
wurden, vermuteten, die Viskosität von He II könnte geringer sein als die
von He I. Zwei direkte Messungen dieser Größe, die kurz darauf in
Toronto und Leiden durchgeführt wurden, zeigten beide, trotz gewisser
Unterschiede, daß die Viskosität unter dem Lambda-Punkt abnahm. Die
beobachtete Abnahme war zwar beträchtlich, konnte jedoch nicht mit der
gewaltigen Zunahme der Wärmeleitung verglichen werden. Bei beiden
Messungen wurde die innere Reibung aus der Dämpfung der Bewegung
eines Zylinders oder einer Scheibe bestimmt, die in der Flüssigkeit

246
Drehschwingungen ausführten.
Anfang 1938 veröffentlichte Nature dann nebeneinander zwei Artikel,
einen von Kapitza in Moskau und einen von Allen und Misener in
Cambridge. Beide beschrieben Viskositätsexperimente, in denen die
Flüssigkeitsreibung aus dem durch feine Kapillaren oder einen engen
Schlitz zwischen zwei Platten stattfindenden Fluß bestimmt worden war.
Das Ergebnis war dasselbe; der Fluß war fast überhaupt nicht viskos und
stieß auf um so geringeren Widerstand, je enger die zu durchströmende
Öffnung war. Kapitza schlug für diese neue Erscheinung die Bezeichnung
Suprafluidität vor (s. Abb. 44 auf S. 241).
Obgleich die Suprafluidität eine seltsame und unerwartete Eigenschaft
von He II war, zeigte sie doch mit seiner hohen Wärmeleitfähigkeit
insofern eine gewisse Ähnlichkeit, als ihre Größe von den
Versuchsbedingungen abhing. Während die Schwingungsexperimente
ergaben, daß die Viskosität unter dem Lambda-Punkt auf etwa ein Zehntel
ihres ursprünglichen Werts gesunken war, zeigte sie sich in den Schlitzen
in der Größenordnung von einem Millionstel. Überdies wurde, als ob diese
verwirrende Vielfalt und Kompliziertheit neuer Effekte bei He II noch
nicht genügte, kurz darauf ein weiterer hinzugefügt.
Schon 1922 hatte Kamerlingh Onnes bei einem seiner Versuche, sehr
tiefe Temperaturen zu erreichen, bemerkt, daß sich die Flüssigkeitsniveaus
in zwei konzentrischen Dewar-Gefäßen beide auf dieselbe Höhe einstell-
ten, eine Erscheinung, die er der Destillation von einem Gefäß ins andere
zuschrieb. Er ging kurz auf seine Beobachtung ein, die aber nicht weiter
beachtet wurde. Ich ahnte gewiß nicht, daß irgendein Zusammenhang
damit bestehen könnte, als zehn Jahre später meine kalorimetrischen Mes-
sungen durch eine Heliumschicht verdorben wurden, die sich offenbar auf
festen Oberflächen gebildet hatte. Ähnlichen Schwierigkeiten stand Rollin
1936 in Oxford gegenüber, der wie Kamerlingh Onnes tiefe Temperaturen
durch Abpumpen des Dampfs über flüssigem Helium zu erreichen suchte.
Er kam zu dem Schluß, daß sich auf den Wänden seiner Apparatur ein
Oberflächenfilm aus Helium gebildet hätte, und da die hohe Wärme-
leitfähigkeit von He II gerade entdeckt war, schrieb er die Schwierigkeiten

247
mit seinem Kryostaten dem Wärmezufluß längs dieses Heliumfilms zu.
Zwei Jahre später kam Lasarew in Charkow zum selben Schluß.
Etwa zur gleichen Zeit – es war jetzt 1938 – wollten J. G. Daunt, einer
meiner Schüler, und ich einmal sehen, ob Onnes' lange vergessener
Destillationsversuch wiederholt werden könnte. Wir füllten zwei kleine,
oben durch ein Rohr verbundene Glasgefäße verschieden hoch mit He II.
Nichts Aufregendes passierte, und wir wollten gerade das Experiment
abbrechen, als wir nach über einer halben Stunde bemerkten, daß das
untere Niveau um wenige Millimeter gestiegen war. Als nächstes
vergrößerten wir die verbindende Oberfläche zwischen den zwei Helium-
II-Reservoirs, indem wir viele feine Drähte in das Rohr legten. Jetzt nahm
der Flüssigkeitsübergang zwischen den Gefäßen merklich zu.

47 u. 48 Unten: Die Entdeckung des thermomechanischen


Effekts (a und b) und der Heliumspringbrunnen (c).
Rechts: Der mechanokalorische Effekt.

248
49 Schematische Darstellung des thermomechanischen (links) und des mechano-
kalorischen Effekts (rechts).

249
Plötzlich schien alles zusammenzupassen. Es lag keine Destillation vor,
sondern das Helium wurde über einen Oberflächenfilm entlang
transportiert. Überdies war nicht die Wärmeleitfähigkeit des Films groß,
sondern ein längs ihm erfolgender tatsächlicher Flüssigkeitsfluß. Der
Wärmezustrom in die Kryostate war nicht ein Leitfähigkeitseffekt, sondern
war auf den durch den Film die Gefäßwände hinauf vermittelten Transport
und die anschließende Verdampfung in dem wärmeren oberen Bereich
zurückzuführen. Ein Teil dieses Dampfs kondensierte dann wieder auf die
Flüssigkeit und brachte die Verdampfungswärme mit sich.
Im nächsten Schritt mußte unzweideutig die Existenz eines solchen
Massenübergangs gezeigt werden. Das konnte man leicht tun, indem man
einen kleinen Glasbecher in die Flüssigkeit hängte (Abb. 50a). Bald sah
man, wie der kleine Becher sich mit Flüssigkeit füllte, bis die Niveaus
innen und außen gleich hoch waren. Ein umgekehrter Fluß fand statt, wenn
der Becher ein wenig angehoben wurde. Als wir ihn schließlich ganz aus
der Flüssigkeit herauszogen, konnten wir kleine Tropfen am Boden des
Bechers sich bilden sehen, die in regelmäßigen Zeitabständen in das Bad
zurückfielen. Ganz unabhängig von dem erstaunlichen Schauspiel selbst
zog die Regelmäßigkeit unsere Aufmerksamkeit auf sich, und tatsächlich
stellten wir fest, daß die Entleerung und Füllung des Bechers immer gleich

250
schnell erfolgte, unabhängig vom Niveauunterschied, der Weglänge oder
der Höhe des Becherrandes über der Oberfläche.
Wir erkannten jetzt, daß uns der Oberflächenfilm durch einen
glücklichen Zufall das reinste Beispiel für Suprafluidität geliefert hatte.
Wir stellten fest, daß der Film nur 50 bis 100 Atome dick war, viel dünner
als die engsten bis dahin benutzten Schlitze oder Kapillaren. Das
charakteristische Merkmal des Superflusses war demnach der völlig
reibungslose Transport, der mit einer »kritischen Geschwindigkeit«
stattfand, die nur von der Temperatur abhing und am Lambda-Punkt
verschwand. Die Ähnlichkeit mit der Supraleitung war so verlockend, daß
sie einen Vergleichsversuch nahelegte, der leicht mit zwei konzentrisch
angeordneten Bechern durchgeführt werden konnte (Abb. 50b). Wenn der
Doppelbecher aus der Flüssigkeit gehoben wurde, mußte der Film vom
inneren in den äußeren Becher und von dort in das Bad laufen. Es zeigte
sich, daß keine Niveaudifferenz zwischen den beiden Bechern, d. h. kein
Unterschied der potentiellen Energie, bestand, ganz analog dem Fehlen des
elektrischen Potentialabfalls entlang eines supraleitenden Drahts. Leider ist
es viel schwieriger, auch einen Dauerstrom in flüssigem Helium
herzustellen, aber neueste Experimente deuten seine Existenz an.
Mit der Entdeckung des »Überlaufens« durch den feinen Helium-II-
Film haben wir das Ende einer hektischen Beobachtungsserie erreicht.
Wenden wir uns deshalb von dem verwirrenden Irrgarten der experimen-
tellen Ergebnisse ab und den Deutungsversuchen zu. Nach seinem Erfolg
bei den Supraleitern nahm sich Fritz London der Probleme des flüssigen
Heliums an, und sein erster Versuch, den er noch in Oxford machte, stützte
sich auf den Vergleich mit einem Kristall, womit er einer damals
bestehenden Tendenz folgte. London übernahm dann eine Professur an der
Sorbonne, wo ihn die ersten Nachrichten von den seltsamen Transport-
phänomenen des He II erreichten. In dem denkwürdigen Band 141 der
Nature veröffentlichte er seine kühne und neue Theorie, die bis heute
umstritten geblieben ist. Von seiner früheren, auf einem Kristall basieren-
den Deutung war er zum anderen Extrem des idealen Gases übergegangen.
Hier lieferte wieder eine lang vergessene Arbeit den Schlüssel.

251
252
50 Bewegung und »Überlaufen« von Helium II vermittels der dünnen Helium-II-Schicht
(a) und ihre Anwendung zur Demonstration verschwindender Reibung (b).

Einstein kam während seiner Arbeiten über die Gasentartung, die wir in
Kapitel 7 besprachen, zu einem höchst erstaunlichen Schluß. Seine
Rechnung zeigte, daß ein der Bose-Statistik gehorchendes ideales Gas bei
Abkühlung auf sehr tiefe Temperaturen eine eigenartige Wandlung
durchmachen muß; man erreicht einen Punkt, an dem einige der Teilchen
»kondensieren«. Die von Einstein vorausgesagte Kondensation führt
jedoch nicht zu einem Kristall, da sie nicht im Lage-, sondern im
Geschwindigkeitsraum stattfindet. Welche Art von Erscheinungen diese
hypothetische Geschwindigkeitskondensation bewirken könnte, wurde nie
klar. Zwei Jahre später kamen Zweifel an der Gültigkeit von Einsteins

253
Folgerungen auf, und da ohnehin keines der bekannten Gase, die der Bose-
Statistik gehorchten, zu entarten schien, geriet die ganze Sache in
Vergessenheit.
London kam auf Einsteins ursprünglichen Artikel zurück und
berechnete die sich aus einer solchen Kondensation ergebende spezifische
Wärme. Sie zeigte ein Maximum, das jedoch nicht dem am Lambda-Punkt
ähnelte. Aber flüssiges Helium ist ja auch, wie London richtig bemerkte,
weit von einem idealen Gas entfernt. Andererseits macht die von der
Nullpunktsenergie herrührende geringe Dichte die Flüssigkeit zu etwas
Gasähnlichem. Alles in allem war London äußerst vorsichtig, behandelte
seine Idee nur als einen vorläufigen Vorschlag und enthielt sich jedes
Versuchs, die Transporteffekte zu erklären. Nur am Ende steht die kurze
Anmerkung, sein Modell könne in dieser Hinsicht von Interesse sein. Aber
wo erfahrene Professoren kaum einen Schritt wagen, pflegen junge
Theoretiker voranzustürzen. London hatte seine Arbeit mit Lazio Tisza,
einem am College de France arbeitenden Ungarn, diskutiert, und Tisza
hatte einige bemerkenswerte Schlüsse gezogen, die er bald darauf noch im
selben Band von Nature veröffentlichte.
Kühn wandte er Londons Vorschlag buchstäblich auf die
Beobachtungen an He II an. Wenn die Flüssigkeit unter den Lambda-Punkt
abgekühlt wird, teilt sie sich (nach Tisza) in zwei Anteile auf, den
normalen und den suprafluiden. Die normale Komponente ist mit He I
identisch, die suprafluide aber besteht aus »kondensierten« Atomen. Sie
erscheint zuerst bei 2,2° K, und bei weiterer Abkühlung wächst ihr Anteil
auf Kosten der normalen Komponente, bis am absoluten Nullpunkt die
ganze Flüssigkeit suprafluid ist. He II wird also in diesem sogenannten
»Zwei-Flüssigkeiten-Modell« als Mischung einer normalen und einer
suprafluiden Komponente betrachtet, deren Mischungsverhältnis sich mit
der Temperatur ändert (Abb. 51). Bei den physikalischen Eigenschaften
dieser Mischung, die er aus seinem Modell folgerte, erlebte Tisza einen
großen Triumph.
Die suprafluide Komponente ist reibungsfrei, da sie keine Energie
abgeben kann, und daraus ergeben sich ganz neue hydrodynamische

254
Eigenschaften. Die normale Komponente andererseits verhält sich genau
wie He I. Bei den Viskositätsmessungen z. B. dämpft offenbar die normale
Flüssigkeit die Bewegung der schwingenden Scheibe, und der
Viskositätsabfall unter dem Lambda-Punkt zeigt nur, daß der Anteil der
normalen Komponente abnimmt. Wenn man jedoch enge Schlitze oder
Röhrchen benutzt, kommt die normale Komponente kaum hindurch, die
suprafluide dagegen reibungslos.
Auch der thermomechanische Effekt (Abb. 49 auf S. 250) läßt sich jetzt
erklären. Wenn dem rechten Gefäß Wärme zugeführt wird, verwandelt sich
suprafluide in normale Flüssigkeit; weitere Superflüssigkeit läuft von links
nach rechts durch die Kapillare, um den Konzentrationsunterschied zu
kompensieren. Der andere Weg, diesen Unterschied auszugleichen, ist
wegen der Reibung in der Kapillare gesperrt: Normale Flüssigkeit kann
nicht von links nach rechts fließen. Insgesamt fließt also Flüssigkeit zur
Wärme hin. Wenn man den Vorgang umkehrt und He II durch eine
Kapillare preßt, läßt sich eine Abkühlung messen, da nur der suprafluide
Anteil hindurchkommt. Deshalb ist die Konzentration normaler Flüssigkeit
links geringer, und das entspricht einer tieferen Temperatur.
Das Zwei-Flüssigkeiten-Modell bot sogar eine Erklärung für die hohe
Wärmeleitfähigkeit, bei der bereits Kapitza einen Konvektionsprozeß
vermutet hatte! Tisza wies darauf hin, daß, da Temperaturänderungen
immer Konzentrationsänderungen bedeuten, es sich um jene Energie
handelt, die erforderlich ist, um Heliumatome von der Energie Null zum
He-I-Zustand anzuregen. Bei Konvektion würde also nicht nur die
spezifische Wärme der Flüssigkeit, sondern auch diese hohe
Anregungsenergie transportiert.
Als Tiszas Arbeit veröffentlicht wurde, war London zuerst wütend über
die hastige Auswertung seines eigenen vorsichtigen Vorschlags. Er sah
auch klarer als jeder andere die physikalische Unmöglichkeit, zwei
Flüssigkeiten aus derselben Art von Atomen bestehen zu lassen, die ja per
definitionem identisch sein müssen. Darüber hinaus hatte Tisza für die
suprafluide Komponente Eigenschaften postuliert, die keineswegs aus der
Bose-Einstein-Kondensation folgerten. Andererseits hatte Tisza durch eine

255
zumindest logische Deutung so unglaublich erfolgreich Klarheit in das
verwirrende Durcheinander experimenteller Ergebnisse gebracht, daß sogar
London diese Deutung als wichtig anerkennen mußte. Überdies hatte Tisza
sein Modell für Voraussagen benutzt, die sich als richtig erwiesen. Erstens
sah er den mechanokalorischen Effekt voraus, bevor die Experimente
veröffentlicht wurden. Wie oben erwähnt, konnte dieser Effekt einfach als
thermodynamische Umkehrung des thermomechanischen Effekts erwartet
werden, und die Voraussage war ziemlich sicher. Die zweite Voraussage
ging viel weiter. Er wies darauf hin, daß ein dem He II zugeführter
Wärmeimpuls, der zu einem momentanen Anstieg der Konzentration
normaler Flüssigkeit führt, sich als thermische Welle durch die Flüssigkeit
ausbreiten sollte.
Als Tiszas zweite Arbeit erschien, in der er diese Voraussage machte,
war der Krieg ausgebrochen, und überall, außer in Rußland, hörte die
Arbeit an flüssigem Helium auf. Wegen der schlechten Verbindungen
mußte man auf die russischen Veröffentlichungen lange warten. Dennoch
konnten wir schließlich feststellen, was die Russen erreicht hatten, bevor
auch sie in den Krieg hineingezogen wurden. Zunächst hatte Kapitza 1940
einen langen Artikel geschrieben, der viele, teils sehr schöne Experimente
enthielt. In einem der eindrucksvollsten war der Wärmeleitungsvorgang
untersucht worden. Einem doppelwandigen Glasgefäß, das mit dem
Heliumbad über ein Rohr verbunden war (Abb. 52), wurde elektrisch
Wärme zugeführt. Der Rohrmündung gegenüber war ein Windflügel als
Flußindikator angebracht. Als man die Heizung einschaltete, wurde der
Windflügel von einem aus dem Rohr kommenden Strom bewegt. Dieser
Strom konnte mit Hilfe des Zwei-Flüssigkeiten-Modells als Strom
normaler Flüssigkeit erklärt werden, die an der Heizung erzeugt und aus
dem Rohr ausgestoßen wurde, während ein reibungsloser Superflüssig-
keitsstrom zur Kompensation in das Gefäß floß. Aber weder diese
Erklärung noch Tiszas Aufsatz werden erwähnt; sie waren offenbar
unbekannt. Statt dessen versuchte Kapitza, sich einen Gegenstrom entlang
der Wände und in der Mitte des Rohrs vorzustellen.

256
51 Das Zwei-Flüssigkeiten-Modell

Sieben Monate später berichtigte Kapitza in einer zweiten Arbeit diese


Erklärung und deutete seine Beobachtungen aufgrund des Zwei-
Flüssigkeiten-Modells. Tisza, dessen erster Aufsatz offenbar inzwischen
angekommen war, wurde erwähnt, aber Kapitza schrieb die wahre
Erklärung einer Theorie von L. D. Landau zu, die zur selben Zeit
veröffentlicht wurde. Landaus Theorie, für die er zwanzig Jahre später den
Nobelpreis erhielt, lieferte die so notwendige physikalische Begründung
für den unvernünftigen Erfolg von Tiszas Zwei-Flüssigkeiten-Modell.
Nach Landau existiert nur eine Flüssigkeit, nämlich flüssiges Helium.
Wenn man seine Temperatur vom absoluten Nullpunkt an erhöht, wird
thermische Energie in Form von Schwingungsquanten, sogenannten
»Phononen«, zugeführt. Diese gequantelten Schwingungen der
Heliumatome wandern durch die Flüssigkeit ungefähr wie Lichtquanten
(Photonen) durch den Raum. Tatsächlich werden die Phononen oft als

257
»QuasiTeilchen« beschrieben, da sie mathematisch wie Teilchen behandelt
werden können. Die Teilchennatur der Phononen erscheint beim flüssigen
Helium besonders deutlich. In Kapitzas Experiment werden sie an der
Heizung erzeugt, wandern durch das Rohr und treffen schließlich auf den
Windflügel, dem sie ihre Bewegungsenergie mitteilen. Kurz, Tiszas
normale Komponente entspricht den durch die tatsächlich bestehende
Flüssigkeit wandernden Quasi-Teilchen, während die tatsächlich
bestehende Flüssigkeit Tiszas suprafluider Komponente entspricht.
Landaus Theorie stützt sich nicht auf die Bose-Einstein-Kondensation,
obgleich die Bose-Statistik wichtig zu sein scheint. Im wesentlichen soll
die Theorie die Bedingungen in der Nähe des absoluten Nullpunkts
beschreiben, und sie liefert keine Erklärung für den Lambda-Punkt. Außer
Phononen, die aus der Festkörpertheorie wohlbekannt sind, postulierte
Landau die Existenz von »Rotonen«, einer anderen Art thermischer
Anregung, die er als Elementarquanten der Wirbelbewegung einführte.
Verschiedene Experimente haben im letzten Jahrzehnt ohne Zweifel
gezeigt, daß solche Anregungen im Helium existieren, aber ihre wirkliche
Natur ist noch etwas rätselhaft.
Die Landausche Theorie lieferte nicht nur eine überzeugende und
elegante Deutung des He II, sondern auch ein interessantes Beispiel für die
Arbeitsweise der Physik. Während Tiszas erste Arbeit Moskau offenbar
etwa 1941 erreicht hatte, war die zweite nicht angekommen. Aufgrund
seiner eigenen Theorie hatte auch Landau eine neue Form der
Wellenbewegung in flüssigem Helium postuliert, aber in seinem
Formalismus ähnelte sie den akustischen Erscheinungen, und deshalb
nannte er sie »zweiter Schall«. Tatsächlich wurden die ersten, allerdings
erfolglosen Versuche, sie zu entdecken, mit akustischen Methoden
unternommen. Erst als E. M. Lifschitz Landaus Formel neu interpretiert
hatte, erkannte man die thermische Natur der Wellen. Ihre Existenz wurde
1944 von Peschkow experimentell bewiesen, und eine spätere Ausdehnung
der Beobachtungen auf Temperaturen unter 1° K erwies, daß Landaus,
nicht Tiszas Standpunkt der richtige war.
In einer Hinsicht machte die Landausche Theorie eine falsche

258
Voraussage, nämlich über die kritische Geschwindigkeit des Superflusses.
Die Tatsache, daß der reibungslose Fluß zusammenbricht, wenn eine
gewisse Geschwindigkeit der Supraflüssigkeit überschritten wird, kann
durch Umwandlung von mechanischer Energie in Wärme, d. h. durch
Erzeugung von Phononen oder Rotonen, erklärt werden. Leider zeigten die
Experimente, daß die Suprafluidität bereits bei viel kleineren
Geschwindigkeiten zusammenbricht, als zur Erzeugung dieser Quasi-
Teilchen nötig sind. Es mußte ein anderer Weg gefunden werden, auf dem
die Flüssigkeit mechanische Energie abgeben kann.
Der Fehler lag in den Eigenschaften, die die Landausche Theorie dem
supraflüssigen Helium zuschrieb; denn diese schlossen Turbulenz aus.
Tatsächlich war Turbulenz in der Supraflüssigkeit sehr häufig beobachtet,
ihre Bedeutung aber irgendwie übersehen worden. Jetzt ist klar, daß die
Abhängigkeit der Wärmeleitung vom Wärmestrom, die man ursprünglich
in Cambridge beobachtet, dann aber irrtümlich bezweifelt hatte, ein
Anzeichen für Turbulenz ist. Einen weiteren Beweis erbrachte eins der
1940 gemachten Experimente Kapitzas. 1949 lieferte Onsager den
Schlüssel zum Verständnis dieser Erscheinungen, aber sein wichtiger
Hinweis wurde nur als Diskussionsbemerkung auf einer Konferenz in
Florenz gemacht und daher nicht allgemein bekannt.
Erst als Feynman 1955 in Kalifornien Onsagers Idee einen langen
Artikel widmete, begann man ihre volle Bedeutung für die Erklärung der
Suprafluiditätserscheinungen zu erfassen. Onsager und Feynman
postulierten, daß die Supraflüssigkeit Wirbel bilden könne und daß diese
großen Wirbel, deren jeder unzählige Atome enthielte, gequantelt sein
müßten. Energie könne dann abgegeben werden, wenn die Wirbel mit
Phononen und Rotonen in Wechselwirkung treten. Da so viele Atome an
der Bildung dieser makroskopischen Quantenwirbel teilnehmen, ist die
Energie pro Atom viel kleiner als jene, die zur Erzeugung eines einzelnen
Phonons oder Rotons nötig ist. So ermöglichen es die Wirbel, dem Fluß
der Supraflüssigkeit bereits bei viel kleineren Geschwindigkeiten als den
von der Landauschen Theorie vorausgesagten Energie zu entnehmen.
Die Zirkulation des Suprafluids wurde in diesem Kapitel bereits

259
erwähnt, als wir im Zusammenhang mit dem Doppelbecher-Experiment die
Möglichkeit eines Dauerstroms der Flüssigkeit im He II diskutierten.
Einige im letzten Jahrzehnt durchgeführte Experimente machen eine solche
makroskopische Quantenzirkulation wahrscheinlich, obwohl kein
Experiment so eindeutige Schlüsse erlaubt, wie man sie gern hätte.
Dennoch zweifelt niemand ernsthaft an der Existenz der Erscheinung. Aber
reibungsloser Fluß und Dauerströme sind nicht die einzigen Merkmale, in
denen He II einem Supraleiter ähnelt. Wie beim Übergang eines Metalls in
den supraleitenden Zustand, so tritt auch bei Helium ein steiler
Entropieabfall auf. Überdies zeichnet sich ein suprafluider Fluß genau wie
ein elektrischer Dauerstrom durch verschwindende Entropie aus.

52 Kapitzas Demonstration des Gegenstroms in He II

260
Zunächst könnte es seltsam erscheinen, daß zwei so verschiedene Dinge
wie Heliumatome und freie Elektronen in einem Metall so ähnliches
Verhalten zeigen sollten. Ich glaube jedoch, es ist gerade diese Tatsache,
die auf die grundlegende Bedeutung der Suprafluide im allgemeinen
Erscheinungsbild zusammenhängender Materie hinweist. Wären wir mit
der Existenz des festen Zustands nicht so sehr vertraut, dann würde uns
auch überraschen, daß die verschiedenen Atome und Moleküle, die ganz
unterschiedliche Arten von Kräften aufeinander ausüben, immer Kristalle
bilden. Auch hier sind Erscheinungsbild eines Kristalls und seine Grund-
eigenschaften im wesentlichen dieselben, ob er nun aus Kupferatomen,
Wasserstoffmolekülen oder aus so phantastisch komplizierten Einheiten
wie Proteinen besteht.
Die Kristalle mit ihrer Härte und ihren deutlichen Schmelzpunkten
verdanken diese gemeinsamen Eigenschaften der regelmäßigen Anordnung
ihrer Einzelbausteine. Der dritte Hauptsatz der Thermodynamik verlangt,
daß die Entropie bei Annäherung an den absoluten Nullpunkt
verschwindet, d. h. die Substanz in einen geordneten Zustand übergeht. Ein
Teilchensystem befindet sich aber nur dann im geordneten Zustand, wenn
die Teilchen nebeneinander regelmäßig angeordnet sind, d. h., sie müssen
einen Kristall bilden. Ich habe in dieser sehr allgemeinen Behauptung
absichtlich »nebeneinander« gesagt, um klarzumachen, daß es hier nur um
die regelmäßige Anordnung im Positionsraum geht. Das ist die einzige Art
von Raum, die wir aufgrund unserer alltäglichen Erfahrung begreifen
können, aber das bedeutet nicht, daß es keinen anderen Raum gibt, in dem
die Teilchen regelmäßig angeordnet sein können.
Wie wir früher sahen, ist das »Nacheinander« in den Gesetzen der
Physik genauso wichtig wie das »Nebeneinander«. Tatsächlich drückt die
Grundbehauptung der Quantenphysik, die Unbestimmtheitsrelation, die
Plancksche Konstante durch eine Kombination von Position und
Geschwindigkeit aus. Keins von beiden hat für sich allein Bedeutung; wie
Schloß und Schlüssel erhalten sie erst zusammen einen Sinn.
Es ist natürlich müßig, entscheiden zu wollen, ob die Position oder die
Geschwindigkeit in der Beschreibung der physikalischen Welt wichtiger

261
ist. Sie sind beide notwendig und völlig gleichwertig. Unsere Erörterung
der Gasentartung in Kapitel 7 hat gezeigt, daß der Geschwindigkeitsraum
genauso wichtig ist wie der Positionsraum. Es erscheint daher
selbstverständlich, daß sich diese Gleichwertigkeit in der Bedeutung auch
auf die Ordnungszustände in den beiden Räumen erstreckt. Das allgemeine
Erscheinungsbild des Kristalls beruht auf der Tatsache, daß er den
höchstgeordneten Zustand im Positionsraum darstellt. Man vermutet
deshalb, daß das besondere Erscheinungsbild der Supraflüssigkeiten auf
einem ebenso geordneten Zustand im Geschwindigkeitsraum beruht. Die
wahre Natur dieses Ordnungsschemas bleibt noch dunkel, aber es muß
bedeutsam erscheinen, daß die seltsamen neuen Eigenschaften, die wir an
den Suprafluiden beobachten, alle mit Bewegungszuständen zu tun haben.
Wenn wir die ziemlich weitreichende Annahme machen, daß die
suprafluide Materie ein Gegenstück zu den festen Körpern ist, nämlich
zusammenhängende Materie, die in Geschwindigkeiten statt in Positionen
»kondensiert« ist, dann erhebt sich noch eine Grundfrage. Wird bei
weiterer Annäherung an den absoluten Nullpunkt alle Materie entweder
kristallin oder suprafluid werden? Für den menschlichen Verstand, der an
Symmetrien Freude hat, ist die Idee verlockend, aber die Frage kann in
diesem Stadium noch nicht beantwortet werden. Wir wissen nicht, ob nicht
alle Metalle schließlich supraleitend werden, und wir besitzen keine
Theorie, die gut genug wäre, um wohlbegründete Voraussagen zu machen.
Darüber hinaus sind die nicht supraleitenden Metalle nicht der einzige
Stein des Anstoßes auf unserem Weg zur »universellen Kondensation«.
Außer den gewöhnlichen Heliumatomen, deren Kerne aus zwei
Protonen und zwei Neutronen bestehen, gibt es noch andere mit nur einem
Neutron, die somit eine ungerade Anzahl Spins besitzen Und deshalb statt
der Bose-Einstein- der Fermi-Dirac-Statistik gehorchen müssen. Das macht
einen Vergleich der beiden Isotope besonders interessant. Leider ist jedoch
nur jedes zehntausendste Heliumatom ein leichtes. Nun läßt sich aber
manchem Schlechten etwas Gutes abgewinnen, und so stellt die
Atomindustrie nicht nur Atombomben her, sondern erzeugt auch leichte
Heliumisotope. Als das klar wurde, ergab sich die interessante Aussicht,

262
flüssiges leichtes Helium untersuchen zu können und herauszufinden, ob es
suprafluid ist. 1949 hatte man genug leichtes Helium zur Verfügung, um
einen winzigen Tropfen verflüssigen zu können, und den phantastischen
Prophezeiungen vieler Theoretiker zum Trotz war das Experiment ein
Triumph für van der Waals. Aufgrund des alten Gesetzes der
korrespondierenden Zustände, an dem eine Korrektur für die
Nullpunktsenergie angebracht worden war, sagte de Boer aus Amsterdam
die Dampfdruckkurve der neuen Flüssigkeit richtig voraus, und zwar mit
erstaunlicher Genauigkeit. Ihr Siedepunkt liegt 1° tiefer als der des
normalen Heliums.
Ebenfalls gemäß dem Gesetz der korrespondierenden Zustände mußte
man den Lambda-Punkt bei etwa 1,5° K erwarten. Man fand aber keine
Anomalie der spezifischen Wärme und keine Suprafluidität, was andeutete,
daß der Unterschied in der Statistik von grundlegender Bedeutung ist. Fritz
London erlebte diese Ergebnisse noch, die zwar seine Theorie nicht
bestätigen konnten, ihr aber auch nicht widersprachen. Seitdem ist leichtes
Helium ein fruchtbares Forschungsgebiet geworden, auf dem sich die
Eigenschaften einer Fermi-Flüssigkeit zum Unterschied von der durch
normales Helium repräsentierten Bose-Flüssigkeit offenbarten. Während
das magnetische und thermische Verhalten der Fermi-Flüssigkeit sehr
interessant ist, fehlt ihr der spektakuläre Aspekt des He II – zumindest bis
jetzt.
Man erinnere sich, daß auch die Metallelektronen eine Art Fermi-
Flüssigkeit sind, die supraleitend werden kann. Es ist daher nicht
ausgeschlossen, daß leichtes Helium einen ähnlichen Effekt zeigt oder
sogar richtige Suprafluidität. Wie es bei unserer begrenzten Kenntnis der
Quantenflüssigkeiten nicht anders zu erwarten ist, sind die Voraussagen
hinsichtlich dieser hypothetischen Erscheinungen sehr spekulativ.
Zunächst hatte man gedacht, eine solche »korrelierte Phase« würde in
leichtem Helium überhaupt nicht vorkommen, in späteren Arbeiten
vermutete man jedoch, daß sie bei einer Temperatur von etwa 0,1° K
auftreten könnte. Man fand dort nichts, und seitdem hat sich in den letzten
Jahren ein amüsanter Wettstreit zwischen den Theoretikern, die immer

263
neue Gründe entdecken, warum der Übergang bei noch tieferen
Temperaturen stattfinden sollte, und den Experimentatoren entwickelt, die
nichts finden, wenn sie so weit kommen. Mit jedem neuen Schritt auf den
absoluten Nullpunkt zu wurde die Arbeit schwieriger, und bis 1964 hatte
man bei dem letzten fruchtlosen Versuch nur eine Temperatur von 0,008°
K erreicht.
Deshalb erregte es großes Aufsehen, als im Frühjahr 1964 Peschkow in
Moskau die Entdeckung einer Anomalie der spezifischen Wärme bei
0,005° K bekanntgab. Im September trug er seine Arbeit auf einer
internationalen Konferenz in Columbus, Ohio, vor und berichtete nicht nur
von einem Maximum der spezifischen Wärme leichten Heliums, sondern
auch von einer Andeutung von Suprafluidität. Nach seinem Vortrag
widersprach Wheatley aus Urbana, Illinois, diesem Ergebnis und teilte mit,
daß er und seine Mitarbeiter bei dieser Temperatur noch nichts gefunden
hätten. Experimente in diesem Bereich verlangen auch dem bestausge-
rüsteten und erfahrensten Tieftemperaturlaboratorium das Äußerste ab.
Peschkow hatte unterhalb der Temperatur flüssigen Heliums nicht weniger
als drei aufeinanderfolgende magnetische Kühlstufen benutzt, um in seinen
Untersuchungsbereich zu gelangen. Beobachtungen bei wenigen tausend-
stel Grad über dem absoluten Nullpunkt werden wahrscheinlich von
einigen Faktoren beeinflußt, die bis jetzt noch weithin unerforscht sind,
und der Unterschied zwischen den in Rußland und Amerika angewandten
Methoden war groß genug, abweichende Ergebnisse möglich zu machen.
Vielleicht ist es ganz angemessen, daß wir unsere Geschichte im
Zeichen dieser Unsicherheit abschließen. Sie zeigt, daß die Erforschung
der tiefsten Temperaturen noch nicht zu Ende ist. Auch wenn der Streit
über das Verhalten leichten Heliums bei 0,005° K entschieden sein wird –
und das wird bald sein –, bleibt noch das Problem der nicht supraleitenden
Metalle. Sollte am Ende die Vorstellung der universellen Kondensation
sich als zutreffend herausstellen, dann wird sie von grundlegender
Bedeutung sein. Sie könnte eine neue Formulierung des dritten
Hauptsatzes der Thermodynamik rechtfertigen, die viel weiter gehen würde
als jene, die wir bis jetzt gekannt haben.

264
Nachwort

Der Autor ist Herrn W. J. Green für Einzelheiten über Dewars Tätigkeit
sowie jenen Kollegen und wissenschaftlichen Instituten zu Dank
verpflichtet, die es ihm ermöglichten, Teile dieses Buchs am Corner See
(im Sommer) und in Äquatorialafrika (im Winter) zu schreiben.
Für die Reproduktionsrechte der unten aufgeführten Illustrationen (die
Ziffern beziehen sich auf die Seiten, auf denen die Abbildungen
erscheinen) sei den folgenden Personen und Institutionen gedankt:
Clarendon Laboratory, Oxford University, Fotos Cyril Bland (Frontispiz,
196, 222); Académie des Sciences, Institut de France (60, Cailletet); Prof.
H. Niewodniczanski (60, Wroblewski, Olszewski); The Royal Society, Foto
John Freeman (60, Andrews); Prof. J. Muller, Foto Jean Arland (60,
Pictet); The Royal Institution of GreatBritain (60, Dewar); Kammerlingh
Onnes Laboratorium, Universität Leiden (61, Kammerlingh Onnes); Prof.
Giauque (61, Giauque); Radio Times Hulton Picture Library (61,
Einstein); Prof. Debye (61, Debye); The Royal Institution of Great Britain,
Foto John Freeman (68/69); Prof. V. Peshkov (107); A. D. Little Inc.,
Cambridge, Mass. (194); General Electric Co., Schenectady, N. Y. (212).
Die Diagramme wurden von Design Practitioners Limited gezeichnet.
K.M.

265
Literaturhinweise
Die Bibliographie des Autors ist für den Benutzer der deutschen Ausgabe
geringfügig erweitert worden. Liegt keine deutsche Obersetzung vor, so ist die
vom Autor genannte Ausgabe angeführt.

K. R. Atkins: Liquid Helium. London (Cambridge University Press) 1959.


E. F. Burton, H. G. Smith, J. O. Wilhelm: Phenomena at the Temperature of
Liquid Helium. London 1940.
G. Claude: Air liquide, oxygéne, azote. Paris 1909.
S. C. Collins, R. L. Cannaday: Expansion Machines for Low Temperature
Processes. London (Oxford University Press) 1958.
A. J. Dekker: Solid State Physics. London 1957.
Sir James Dewar: Collected Papers. 2 Bde. London (Cambridge University Press)
1927.
Franz X. Eder: Einführung in die Physik der tiefen Temperaturen. Berlin 1955.
Franz X. Eder: Moderne Meßmethode der Physik. Berlin 1956.
W. Finkeinburg: Einführung in die Atomphysik. Berlin 101964.
S. Flügge (Hg.): Handbuch der Physik. Encyclopedia of Physics. Bd. 14, Teil 1.
Berlin 1956.
C. G. B. Garrett: Magnetic Cooling. London 1954.
C. J. Gorter (Hg.): Progress in Low Temperature Physics. 4 Bde. Amsterdam
1964.
W. Heisenberg: Die physikalischen Prinzipien der Quantentheorie. Stuttgart 1930.
W. Heisenberg: Two Lectures. 1. The Present Situation in the Theory of
Elementary Particles. 2. Electron Theory of Super-Conductivity. Cambridge
(Cambridge University Press) 1949.
L. C. Jackson: Low Temperature Physics. London 51962.
P. L. Kapitza: Collected Papers. 2 Bde. Hg. D. ter Haar. Oxford 1965.
W. H. Keesom: Helium. Amsterdam 1942.
C. Kittel: Solid State Physics. New York 1962.
J. A. van Lammeren: Technik der tiefen Temperaturen. Hamburg 1941.
C. T. Lane: Superfluid Physics. New York 1962.
M. von Laue: Theorie der Supraleitung. Berlin 1949.

266
E. M. Lifshits, E. L. Andronikashvili: Supplement to »Helium«. London 1959.
F. London: Superfluids. 2 Bde. London 1954.
H. A. Lorentz (Hg.): Het Natuurkundig Laboratorium der Rijksuniversiteit te
Leiden in den Jaren 1904-1922. 1922.
E. A. Lynton: Superconductivity. London 1962.
D. K. C. MacDonald: Am absoluten Nullpunkt. Methoden und Phänomene der
Kältephysik. München 1961.
K. Mendelssohn: Cryophysics. London 1960.
K. Mendelssohn (Hg.): Progress in Cryogenics. 4 Bde. London 1964.
W. Nernst: Die theoretischen und experimentellen Grundlagen des neuen
Wärmesatzes. Halle 1918.
W. Nernst: Theoretische Chemie. Stuttgart 151926.
J. L. Olsen: Electron Transport in Metals. London 1962.
A. B. Pippard: Classical Thermodynamics. London (Cambridge University Press)
1964.
M. Planck: Vorlesungen über die Theorie der Wärmestrahlung. Leipzig 51923.
M. Planck: Vorlesungen über Thermodynamik. Hg. M. Päsler, Berlin 111964.
A. Rademakers: Warmtegeleidung en thermoselectriciteit in supergeleiders. 's-
Gravenhage 1952.
H. M. Rosenberg: Low Temperature Solid State Physics. London (Oxford
University Press) 1963.
M. u. B. Ruhemann: Low Temperature Physics. London (Cambridge University
Press) 1937.
R. B. Scott: Cryogenic Engineering. New York 1959.
F. Seitz: The Modern Theory of Solids. New York 1940.
D. Shoenberg: Superconductivity. London (Cambridge University Press) 1952.
F. E. Simon, N. Kurti, J. F. Allen, K. Mendelssohn: Low Temperature Physics:
Four Lectures. London 1952.
C. F. Squire: Low Temperature Physics. New York 1953.
H. N. V. Temperley: Changes of State. London 1956.
J. Wilks: Der dritte Hauptsatz der Thermodynamik. Braunschweig 1963.
M. W. Zemansky: Heat and Thermodynamics. New York 41957.
J. Ziman: Principles of the Theory of Solids. London (Cambridge University
Press) 1964.

267

Das könnte Ihnen auch gefallen