Beruflich Dokumente
Kultur Dokumente
Die Entropie (Kunstwort altgriechisch ἐντροπία entropía, von ἐν en ‚an‘, ‚in‘ und
τροπή tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße mit der
SI-Einheit Joule pro Kelvin (J/K).
Zufuhr von Wärme oder Materie bewirkt eine Zunahme der Entropie in einem System,
ebenso alle spontan ablaufenden Prozesse innerhalb des Systems wie z. B.
Vermischung, Wärmeleitung, chemische Reaktion oder Umwandlung von mechanischer in
thermische Energie durch Reibung (siehe Dissipation, Energieentwertung). Abnehmen
kann die Entropie eines Systems nur durch Abgabe von Wärme oder Materie. Daher kann
in einem abgeschlossenen System (einem System, bei dem es keinen Energie- oder
Materieaustausch mit der Umgebung gibt) die Entropie nicht abnehmen, sondern im
Laufe der Zeit nur zunehmen (Zweiter Hauptsatz der Thermodynamik). Prozesse, bei
denen die Entropie in einem System zunimmt, werden daher als irreversibel
(unumkehrbar) bezeichnet. Sie können nur rückgängig gemacht werden, wenn ein
anderes System die Entropie aufnimmt.
In einem sich selbst überlassenen System bewirken seine spontan ablaufenden inneren
Vorgänge folglich im statistischen Mittel, dass es sich dem Makrozustand annähert,
der bei gleicher Energie die höchstmögliche Entropie hat. Beispielsweise beobachten
wir, dass sich ein System, bestehend aus einem kalten Metallbarren neben einem
heissen Metallbarren in einer Isolierbox, d. h. in einem idealisierten
abgeschlossenen System, thermisch angleicht, die Unterschiede verschwinden, beide
Metallbarren werden nach einer gewissen Zeit gleich warm sein. Wir beobachten
niemals das unwahrscheinliche spontane Abkühlen des einen Metallbarrens und das
Erhitzen des anderen in einem solchen geschlossenen System.
Dies wird umgangssprachlich häufig dadurch umschrieben, dass Entropie ein „Maß für
Unordnung“ sei. Allerdings ist Unordnung kein wohldefinierter physikalischer
Begriff und hat daher auch kein physikalisches Maß. Richtiger ist es, die Entropie
als ein objektives Maß für die Menge an Information zu begreifen, die benötigt
würde, um von einem beobachtbaren Makrozustand auf den gerade vorliegenden
Mikrozustand des Systems schließen zu können. Dies ist gemeint, wenn die Entropie
auch als „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“ umschrieben
wird.[1]
Inhaltsverzeichnis
1 Geschichtlicher Überblick
2 Klassische Thermodynamik
2.1 Grundlagen
2.2 Partielle Ableitungen der Entropie
3 Statistische Physik
3.1 Beweis des zweiten Hauptsatzes
3.2 Entropie als „Maß der Unordnung“
4 Entropie als mengenartige Größe
5 Anwendungsbeispiele
5.1 Mischung von warmem und kaltem Wasser
5.2 Mischungsentropie
5.3 Entropiezunahme bei irreversibler und reversibler isothermer Expansion
5.3.1 Irreversible Expansion, thermodynamisch
5.3.2 Irreversible Expansion, statistisch
5.3.3 Reversible isotherme Expansion
5.3.4 Numerische Äquivalenz der Ergebnisse
5.4 Biomembranen
5.5 Berechnung und Verwendung tabellierter Entropiewerte
6 Quantenmechanik
6.1 Von-Neumann-Entropie
6.2 Eigenschaften der statistischen Entropie eines quantenmechanischen
Zustandes
7 Bekenstein-Hawking-Entropie von Schwarzen Löchern
8 Literatur
9 Weblinks
10 Einzelnachweise und Anmerkungen
Geschichtlicher Überblick
In der Geschichte der Physik gab es lange Zeit eine Auseinandersetzung über die
Bedeutung des Wärmebegriffs: Die eine Seite vertrat die Theorie, dass die
Wärmeerscheinungen allein in der vis viva („lebendige Kraft“ = kinetische Energie)
der Atome begründet seien; die andere behauptete, dass die Wärme eine Substanz sei,
der man den Namen Caloricum (französisch calorique, englisch caloric) gab.
Benjamin Thompson, Reichsgraf von Rumford, untersuchte in seiner Münchner Zeit 1798
die Temperatur von Spänen, die beim Bohren von Kanonenrohren entstehen. Aufgrund
der beliebig großen Wärmemenge, die dabei aus der mechanischen Bohrarbeit entstehen
konnte, zweifelte er daran, dass das Caloricum eine (erhaltene) Substanz sein
könnte, wodurch er den Vertretern der vis-viva-Theorie Auftrieb gab.[6][5]
Der Namensgeber des Carnot-Prozesses, Nicolas Léonard Sadi Carnot, schrieb 1824[7],
dass die Kraft einer Dampfmaschine nicht am Verbrauch von calorique liegt, sondern
an ihrem Transport von einem warmen Körper auf einen kalten, und bereitete damit
den Entropiebegriff vor. Mit den Experimenten von Robert Mayer und James Prescott
Joule wurde Anfang der 1840er Jahre gezeigt, dass sich mechanische Arbeit
quantitativ in Wärme umwandeln ließ. Dies war die Grundlage für den 1847 von
Hermann von Helmholtz allgemein formulierten Energieerhaltungssatz, also den ersten
Hauptsatz.
Weitere 20 Jahre später stellte Rudolf Clausius fest, dass bei einer Übertragung
der Energieform Wärme auch eine andere mengenartige Größe fließen muss. Diese Größe
sah er als die Ursache für die Disgregation beim Schmelzen an und nannte sie
Entropie.[8][9] Wie von Hugh Longbourne Callendar 1911 herausgearbeitet, entspricht
die Entropie bei Clausius dem calorique bei Lavoisier und Carnot.[10][11]
Mit Arbeiten von Ludwig Boltzmann und Willard Gibbs gelang es um 1875, der Entropie
eine statistische Definition zu geben, welche die zuvor makroskopisch definierte
Größe mikroskopisch erklärt.[12] Die Entropie S {\displaystyle S} S eines
Makrozustands wird dabei durch die Wahrscheinlichkeiten p i {\displaystyle p_{i}}
p_{i} der Mikrozustände i {\displaystyle i} i berechnet:
In der Thermodynamik kann ein System auf zwei Arten mit seiner Umgebung Energie
austauschen: in Form von Wärme und Arbeit, wobei abhängig vom System und der
Prozessführung verschiedene Varianten der Arbeit existieren, u. a. Volumenarbeit,
chemische Arbeit und magnetische Arbeit. Im Zuge eines solchen Energieaustauschs
ändert sich die Entropie sowohl des Systems als auch der Umgebung. Nur wenn die
globale Summe der Entropieänderungen positiv ist, erfolgt die Änderung spontan.
Grundlagen
Insofern kann man die Entropie bei reversibler Prozessführung auch als die „mit 1 T
{\displaystyle {\tfrac {1}{T}}} {\tfrac 1T} bewertete Wärmeenergie“ definieren.
Weiter unten wird das Problem behandelt, wie weit die Energie eines Systems in
Arbeit umgewandelt werden kann.
Clausius behandelte auch irreversible Prozesse und zeigte, dass in einem isolierten
thermodynamischen System die Entropie dabei nie abnehmen kann:
Aus (2) folgt für geschlossene Systeme, bei denen Wärmeenergie die Systemgrenzen
passieren kann, die Ungleichung:
Bei der Analyse thermodynamischer Systeme in der Technik führt man oft eine
Bilanzanalyse durch. Hierzu schreibt man die Ungleichung (3a) in der folgenden
Form:[15]
Δ S i r r = ∫ δ W d i s s T = ∫ P d i s s T d t {\displaystyle \Delta
S_{\mathrm {irr} }=\int {\frac {\delta W_{\mathrm {diss} }}{T}}=\int {\frac
{P_{\mathrm {diss} }}{T}}dt} {\displaystyle \Delta S_{\mathrm {irr} }=\int {\frac
{\delta W_{\mathrm {diss} }}{T}}=\int {\frac {P_{\mathrm {diss} }}{T}}dt}
Läuft der irreversible Prozess quasistatisch ab, so dass das System immer nahe
einem Gleichgewichtszustand ist, so kann (3) auch mit zeitlichen Ableitungen
geschrieben werden.
Eine Konsequenz dessen ist die Unmöglichkeit eines Perpetuum Mobile 2. Art.
Clausius formulierte:
„Es existiert kein Kreisprozess, dessen einzige Wirkung darin besteht, Wärme
von einem kälteren Reservoir zu einem wärmeren Reservoir zu transportieren.“
„Es existiert kein Kreisprozess, der eine Wärmemenge aus einem Reservoir
entnimmt und vollständig in Arbeit verwandelt.“
Der dritte Hauptsatz (der so genannte „Nernstsche Wärmesatz“) legt die Entropie
einer perfekt kristallinen Substanz, bei der beispielsweise keine Spinentartung
auftritt, am absoluten Nullpunkt als Null fest:
Eine Folgerung ist beispielsweise, dass die Wärmekapazität eines Systems bei tiefen
Temperaturen verschwindet, und vor allem, dass der absolute Temperaturnullpunkt
nicht erreichbar ist (das gilt auch bei Spinentartung).
Erfüllt eine Substanz nicht die Bedingung perfekt kristallin (wenn z. B. mehrere
Konfigurationen vorliegen oder es sich um ein Glas handelt), kann ihr auch am
absoluten Nullpunkt eine Entropie zugeschrieben werden (Nullpunktsentropie).
Partielle Ableitungen der Entropie
Aus dem 2. Hauptsatz folgen Aussagen über die partiellen Ableitungen der Entropie,
z. B. nach der Temperatur T {\displaystyle T} T oder dem Volumen V {\displaystyle
V} V. Mit dem zweiten Hauptsatz gilt zunächst, dass bei reversiblen
Zustandsänderungen d S = δ Q r e v e r s i b e l T {\displaystyle \mathrm {d}
S={\tfrac {\delta Q_{\mathrm {reversibel} }}{T}}} {\displaystyle \mathrm {d}
S={\tfrac {\delta Q_{\mathrm {reversibel} }}{T}}} ist. Zusammen mit dem ersten
Hauptsatz folgt daraus d S = d U − δ W T , {\displaystyle \mathrm {d} S={\tfrac
{\mathrm {d} U-\delta W}{T}},} {\displaystyle \mathrm {d} S={\tfrac {\mathrm {d}
U-\delta W}{T}},} weil nach dem ersten Hauptsatz für die Innere Energie U
{\displaystyle U} U gilt, dass die Summe der dem betrachteten System zugeführten
Arbeit δ W {\displaystyle \delta W} \delta W und der zugeführten Wärme δ Q
{\displaystyle \delta Q} \delta Q ( einzeln keine Zustandsfunktionen! ) eine
Zustandsfunktion ergibt, eben die „Innere Energie“ des Systems. Dabei wurde
vorausgesetzt, dass die Änderungen von Volumen und Temperatur adiabatisch-langsam
erfolgen, sodass keine irreversiblen Prozesse erzeugt werden.
Also
d S = 1 T ∂ U ( T , V ) ∂ V d V + 1 T ∂ ( U ( T , V ) + p ⋅ V ( T ) ) ∂ T d T ,
{\displaystyle \mathrm {d} S={\frac {1}{T}}{\frac {\partial U(T,V)}{\partial V}}\,
{\mathrm {d} V}+{\frac {1}{T}}{\frac {\partial (U(T,V)+p\cdot V(T))}{\partial
T}}\,\mathrm {d} T,} {\displaystyle \mathrm {d} S={\frac {1}{T}}{\frac {\partial
U(T,V)}{\partial V}}\,{\mathrm {d} V}+{\frac {1}{T}}{\frac {\partial (U(T,V)+p\cdot
V(T))}{\partial T}}\,\mathrm {d} T,}
Ähnliche Beziehungen ergeben sich, wenn das System außer von der Dichte bzw. vom
Volumen noch von weiteren Variablen abhängt, z. B. von elektrischen oder
magnetischen Momenten.
Ein Mikrozustand ist klassisch gegeben durch Angabe aller Orte und Impulse der zum
System zählenden Teilchen. Ein solcher Mikrozustand ( q → , p → ) {\displaystyle
({\vec {q}},{\vec {p}})} {\displaystyle ({\vec {q}},{\vec {p}})} ist demnach ein
Punkt in einem 6N-dimensionalen Raum, der in diesem Zusammenhang Phasenraum genannt
wird. Die kanonischen Gleichungen der klassischen Mechanik beschreiben die
zeitliche Evolution des Systems, die Phasentrajektorie. Alle unter gegebenen
makroskopischen Randbedingungen, wie z. B. Gesamtenergie E {\displaystyle E} E,
Volumen V {\displaystyle V} V und Teilchenzahl N {\displaystyle N} N, erreichbaren
Phasenpunkte bilden ein zusammenhängendes Phasenraumvolumen Ω {\displaystyle \Omega
} \Omega .
Um 1880 konnte Ludwig Boltzmann auf mikroskopischer Ebene eine Größe finden, die
die Definition der thermodynamischen Entropie erfüllt:
– E. T. Jaynes[16]
Es wird deutlich, dass die Entropie – wie überhaupt ein thermodynamisches System –
erst durch eine Auswahl an Variablen definiert und von diesen abhängig ist. Einem
Mikrozustand kann sie nicht zugeordnet werden. Kritisiert wird daran, dass hier die
Entropie den Rang einer subjektiven Größe zu haben scheint, was in einer objektiven
Naturbeschreibung nicht angemessen ist.
Beweis des zweiten Hauptsatzes
Vor allem Boltzmann versuchte, den 2. Hauptsatz, (dass die Entropie nur zunehmen
kann), statistisch herzuleiten. Die anschauliche Vorstellung ist die, dass etwa bei
einem Mischungsvorgang etwas sehr Wahrscheinliches passiert, während der umgekehrte
Vorgang einer Entmischung sehr unwahrscheinlich wäre. Dies galt es mathematisch zu
präzisieren, mit seinem H-Theorem hatte er hier einen Teilerfolg. Allerdings wird
mit dem „Loschmidtschen Umkehreinwand“ verdeutlicht, dass mikroskopisch jeder
Vorgang genauso rückwärts laufen könnte und daher ein zeitgerichtetes Gesetz
mikroskopisch grundsätzlich nicht hergeleitet werden kann. Auch der Wiederkehrsatz
stellt die Möglichkeit eines solchen Gesetzes in Frage.
Nach dem Satz von Liouville bleibt das Phasenraumvolumen der mit einem Anfangswert
der thermodynamischen Variablen verbundenen Mikrozustände bei der Zeitentwicklung
konstant.[17] Wenn man noch voraussetzt, dass die Beschreibung durch die
thermodynamischen Variablen eindeutig ist, das heißt alle Mikrozustände
makroskopisch gesehen beim selben Endzustand landen, kann also das
Phasenraumvolumen der mit diesem Endwert der thermodynamischen Variablen
verbundenen Mikrozustände nicht kleiner sein als das anfängliche Phasenraumvolumen.
Es kann aber größer sein, da nicht notwendigerweise alle Mikrozustände
„angesteuert“ werden. Die Entropie kann also nur zunehmen.
Man kann das anders formulieren. Man unterscheidet zwischen von Neumann oder "fine-
grained" oder "entanglement" Entropie (also der von Mikrophysik, d. h.
wellenmechanisch korrelierten Systemen) und thermischer Entropie (also der Entropie
in klassischer, makroskopischer Thermodynamik, auch genannt "coarse-grained"
Entropie). Ohne Korrelation ist die entanglement Entropie ( S = k B ln N
{\displaystyle S=k_{B}\ln N} {\displaystyle S=k_{B}\ln N}) null (jeweils nur ein
Zustand, N = 1 , {\displaystyle N=1,} {\displaystyle N=1,} der "reine Zustand").
Mit entanglement (Korrelation) stehen mehr Zustände zur Verfügung, und die
entanglement Entropie ist größer als null. In der Makrophysik betrachtet man
Phasenraumbereiche, wie das Kugelvolumen ("coarse-graining") um einen Punkt, also
nicht einzelne Punkte bzw. Mikrozustände. Der mit Anfangsbedingungen definierte
Bereich des Phasenraums eines Systems wird demzufolge von Kugelvolumen bedeckt, die
mehr Phasenraumpunkte umfassen als im mikroskopischen Anfangszustand. Damit ist die
"fine-grained" Entropie immer kleiner als die "coarse-grained" Entropie. Dies ist
die Aussage des 2. Hauptsatzes. Als Information bezeichnet man die Differenz
zwischen coarse-grained Entropie und fine-grained Entropie. Details findet man im
Buch von Susskind und Lindesay.[18]
Die zeitliche Asymmetrie des zweiten Hauptsatzes betrifft hier also die Kenntnis
des Systems, nicht die Ontologie des Systems selbst. Dadurch werden die
Schwierigkeiten, aus einer bezüglich Zeitumkehr symmetrischen Theorie ein
asymmetrisches Gesetz zu erhalten, vermieden. Allerdings geht in den Beweis auch
die Eindeutigkeit der thermodynamischen Beschreibung ein, die auf stochastischen
Argumenten beruht. Um die zeitliche Asymmetrie des Weltgeschehens zu verstehen, ist
weiterhin ein Bezug zum Anfangszustand des Universums nötig.
Entropie als „Maß der Unordnung“
Das Bild stellt vereinfacht die Zustände eines Systems dar, bei dem vier Atome
jeweils entweder auf der rechten oder der linken Seite eines Behälters sein können.
Die Spalten sind nach der Gesamtzahl der Teilchen auf der rechten bzw. linken Seite
sortiert. W gibt dabei die Anzahl der Möglichkeiten in der jeweiligen Kategorie an
und ist das im vorigen Abschnitt als Ω {\displaystyle \Omega } \Omega bezeichnete
Phasenraumvolumen.
Eine anschauliche, aber wissenschaftlich nicht exakte Deutung der Entropie ist es,
sie als Maß der Unordnung zu verstehen, siehe z. B. das Chemiebuch von Holleman-
Wiberg.[19] Insbesondere beim Betrachten des Bechers im Beispiel über Mischentropie
sieht das rechte Bild mit der vollständigen Vermischung für die meisten
ordentlicher aus, als das linke mit den Schlieren, weshalb es dann unverständlich
erscheint, dieses als den unordentlicheren Zustand mit höherer Entropie zu
bezeichnen.
Diese Definition lässt sich allerdings anhand des rechts stehenden Bildes[20] mit
den bisherigen Definitionen in Einklang bringen. Das Bild stellt einen Behälter
dar, in dem sich vier Atome befinden, die entweder auf der rechten oder auf der
linken Seite des Behälters sein können. Wenn man annimmt, dass alle 16 Zustände
gleich wahrscheinlich sind, sind die Wahrscheinlichkeiten, für die einzelnen
Spalten gerade mit p = W 16 {\displaystyle p={\frac {W}{16}}} {\displaystyle
p={\frac {W}{16}}} gegeben, wobei das W {\displaystyle W} W aus dem Bild gerade die
Anzahl der Zustände in den jeweiligen Spalten bezeichnet.
Nehmen wir nun an, dass wir makroskopisch unterscheiden könnten, wie viele Atome
sich auf der linken Seite befinden. Die erste Spalte hat N = 4 Atome links, die
zweite hat N = 3 Atome links usw. Die Wahrscheinlichkeit, dass sich alle vier Atome
auf der linken Seite befinden, wäre als Beispiel daher gerade p = 1 16
{\displaystyle p={\frac {1}{16}}} {\displaystyle p={\frac {1}{16}}}, während die
mittlere Spalte eine höhere Wahrscheinlichkeit von p = 6 16 {\displaystyle p={\frac
{6}{16}}} {\displaystyle p={\frac {6}{16}}} besitzt. Mit der Formel S = k B ln W
{\displaystyle S=k_{\mathrm {B} }\ln \,W} {\displaystyle S=k_{\mathrm {B} }\ln \,W}
hat der makroskopische Zustand mit N = 2 also die höchste Entropie.
In diesem Bild erkennt man nun aber auch deutlich, dass die erste und letzte Spalte
ordentlicher sind als die dazwischenliegenden Fälle mit höherer Entropie. Es können
nun folgende Feststellungen gemacht werden: wenn alle 16 Zustände gleich
wahrscheinlich sind und man beginnt mit dem Zustand N = 4, ist es sehr
wahrscheinlich, bei der nächsten Betrachtung einen der Zustände höherer Entropie
vorzufinden. Allerdings kann das System auch von der mittleren Spalte in die erste
oder letzte übergehen; es ist nur unwahrscheinlicher, den Zustand N = 4 mit
niedriger Entropie vorzufinden als den Zustand mit N = 2. In diesem rein
statistischen Sinne kann das System also auch spontan in einen Zustand niedrigerer
Entropie wechseln, es ist nur unwahrscheinlich, dass er das tut.
Dies ist immer noch der Fall, wenn man 10 23 {\displaystyle 10^{23}} 10^{{23}}
Atome in einem Behälter betrachtet. Die Wahrscheinlichkeit, dass diese spontan in
den Zustand niedrigerer Entropie wechseln, bei dem sich alle Atome links befinden
ist nicht auszuschließen, aber sehr unwahrscheinlich.
Entropie als mengenartige Größe
Als mengenartige Größe ist die Entropie zum Beispiel mit der elektrischen Ladung
vergleichbar (für die allerdings ein strikter Erhaltungssatz gilt): Ein geladener
Kondensator enthält elektrische Ladung, und damit auch elektrische Energie. Beim
Entladevorgang fließt über den Stromkreis nicht nur elektrische Ladung von der
einen Kondensatorplatte auf die andere, sondern es fließt auch Energie vom
Kondensator zu einem Verbraucher, wo sie in andere Energieformen umgewandelt werden
kann. Entsprechend wird bei der Wärmeübertragung von einem heißen auf einen kalten
Körper außer der thermischen Energie noch eine andere mengenartige Größe
übertragen: die Entropie. Genauso wie der Potentialunterschied zwischen den
Kondensatorplatten – sprich: die elektrische Spannung – den elektrischen Strom
antreibt, sorgt der Temperaturunterschied zwischen den beiden Reservoirs für einen
Entropiestrom. Befindet sich zwischen den beiden Körpern eine Wärmekraftmaschine,
kann ein Teil der Wärme in eine andere Energieform umgewandelt werden. Die
Wärmeübertragung lässt sich also rein formal analog zu einem elektrischen
Stromkreis beschreiben, wobei allerdings die während des Vorgangs neu erzeugte
Entropie zusätzlich zu berücksichtigen ist.[11][22]
Die Entropie ist zwar keine Erhaltungsgröße wie die elektrische Ladung, denn
Entropie kann erzeugt werden. Nach dem zweiten Hauptsatz der Thermodynamik kann sie
aber nicht vernichtet werden. Es gilt also Δ S ≥ 0 {\displaystyle \Delta S\geq
0} \Delta S\geq 0. Solange in einem abgeschlossenen System die Entropie gleich
bleibt ( Δ S = 0 ) {\displaystyle (\Delta S=0)} (\Delta S=0), sind alle Vorgänge,
die sich in dem System abspielen, umkehrbar (= reversibel). Sobald jedoch Entropie
erzeugt wird ( Δ S > 0 ) {\displaystyle (\Delta S>0)} (\Delta S>0), was z. B. durch
Reibung, durch Erwärmung eines ohmschen Widerstandes oder durch Mischungsvorgänge
geschehen kann, gibt es kein Zurück mehr, ohne dass durch äußeres Zutun Entropie
abfließen kann. Man spricht dann von irreversiblen Vorgängen.
Eine weitere Besonderheit der Entropie ist, dass man einem Körper nicht beliebig
viel Entropie entziehen kann. Während man der Platte eines Kondensators Ladung
zuführen und wegnehmen kann, wodurch das Potential positiv oder negativ wird, gibt
es für die Entropieentnahme eine natürliche Grenze, nämlich den absoluten Nullpunkt
der Temperatur. Insbesondere kann die absolute Temperatur nie negativ werden.
Anwendungsbeispiele
Mischung von warmem und kaltem Wasser
Die Zunahme der Entropie wird an einem System, das mit der Umgebung weder Masse
noch Energie austauscht (abgeschlossenes System), durch die Vermischung von zwei
Wassermengen unterschiedlicher Temperatur gezeigt. Da es sich um einen isobaren
Vorgang handelt, wird für die Energiebilanz die Zustandsgröße Enthalpie verwendet.
Zustandsgrößen für Wasser nach den Gleichungen aus: Properties of Water and Steam
Industrie-Standard IAPWS-IF97
System10: Masse m10 = 1 kg, Druck = 1 bar, Temperatur = 10 °C, Enthalpie h10 =
42,12 kJ/kg, Entropie s10 = 151,1 J/kg K; System30: Masse m30 = 1 kg, Druck = 1
bar, Temperatur = 30 °C, Enthalpie h30 = 125,83 kJ/kg, Entropie s30 = 436,8 J/kg K
Irreversible Mischung
Der thermodynamische Zustand der irreversiblen Mischung (adiabat, keine Abgabe von
Arbeit) ergibt sich aus dem Energieerhaltungssatz:
Mit den Zustandsgrößen Enthalpie und Druck ergeben sich weitere Zustandsgrößen des
Mischungszustandes:
Reversible Mischung
Bei einer reversiblen Vermischung (dSirr = 0) nimmt die Entropie des Gesamtsystems
nicht zu, sie ergibt sich aus der Summe der Entropien der Teilsysteme:
Mit den Zustandsgrößen Entropie und Druck ergeben sich weitere Zustandsgrößen des
Mischungszustandes:
Das Gesamtsystem ist in diesem Fall nicht mehr abgeschlossen, sondern tauscht mit
der Umgebung Arbeit aus.
Nach der irreversiblen Mischung ist die Entropie des Gesamtsystems um 2,4 J/kg K
größer als beim reversiblen Vorgang. Die reversible Mischung könnte durch den
Einsatz einer Carnot-Maschine erreicht werden. Dabei würde dem Teilsystem mit der
höheren Temperatur eine unendlich kleine Menge Energie entnommen. In Form von Wärme
wird diese Energie an der Systemgrenze bei einer unendlich kleinen
Temperaturdifferenz an die Carnot-Maschine übertragen. Auf entsprechende Weise wird
die Energie dem Teilsystem mit der tieferen Temperatur zugeführt. Die Temperaturen
der beiden Teilsysteme würden sich dadurch immer weiter angleichen und der Carnot-
Faktor der Maschine von anfänglich 0,066 gegen Null streben. Die Carnot-Maschine
würde dabei dem Gesamtsystem die sonst entwertete Enthalpiedifferenz von 0,71 kJ/kg
als mechanische Arbeit entnehmen. Im irreversiblen Fall entspricht diese Energie
der innerhalb des Systems dissipierten Arbeit entsprechend Gleichung (3). Durch die
dissipierte Arbeit wird die produzierte Entropie vom absoluten Nullpunkt auf die
Temperatur von 19,99 °C angehoben.
Mischungsentropie
Die Mischungsentropie charakterisiert den „gut durchmischten“ Zwei-Flüssigkeits-
Zustand im rechten Glas
→ Hauptartikel: „Mischungsentropie eines idealen Gasgemischs“ im Artikel Ideales
Gas
Das Bild rechts zeigt die Mischung einer braunen Farbe in Wasser. Zu Beginn ist die
Farbe ungleichmäßig verteilt. Nach längerem Warten nimmt das Wasser eine
gleichmäßige Färbung an.
Die Entropie ist ein Maß der Unwissenheit, d. h. der Unkenntnis darüber, in welchem
mikroskopischen Zustand sich das betrachtete System befindet. Als Maß der Unordnung
muss man auf die Begrifflichkeit achten. So ist im Bildbeispiel die Flüssigkeit im
rechten Glas zwar „ordentlicher“ verrührt, aber durch die große Durchmischung von
Wasser- und Farbteilchen herrscht dort eine größere Unordnung. Es gibt dort mehr
mikroskopisch mögliche Zustände, in denen das Glas sein könnte. Mithin ist dort die
Entropie höher als im linken Glas. Von der Farbe wissen wir, dass sie im rechten
Glas überall im Wasser verteilt ist. Das linke Bild sagt uns mehr. Wir können
Bereiche ausmachen, in denen Farbe in hoher Konzentration anzutreffen ist, oder
Bereiche, die frei sind von Farbe.
Josiah Willard Gibbs wies auf den Widerspruch hin, dass der Entropiezuwachs auch
auftreten sollte, wenn statt der Tinte Wasser ins Wasserglas gegossen wird
(Gibbssches Paradoxon).
Die Zahl der Anordnungen der Farbmoleküle am Anfang ist deutlich geringer als die,
wenn sich die Farbe im gesamten Volumen verteilen kann. Denn die Farbmoleküle sind
nur auf wenige Bereiche konzentriert. Im rechten Bild können sie sich im gesamten
Glas aufhalten. Die Entropie ist hier größer, weshalb das System im Laufe der Zeit
dieser Gleichverteilung zustrebt.[23]
Entropiezunahme bei irreversibler und reversibler isothermer Expansion
Die nebenstehende Abbildung zeigt das Überströmexperiment von Gay-Lussac. Wenn man
von einem ideal abgeschlossenen System ausgeht, besagt der erste Hauptsatz der
Thermodynamik, dass sich die Gesamtenergie des Systems nicht ändert ( d U = 0
{\displaystyle \mathrm {d} U=0} \mathrm{d}U=0). Für ein ideales Gas gilt daher,
dass beim Überströmen in ein größeres Volumen insgesamt keine Temperaturänderung
stattfindet.
Da die Entropie eine Zustandsgröße ist, ist sie wegunabhängig. Anstatt den Hahn zu
öffnen, kann man sich auch vorstellen, dass das Gas langsam expandiert, indem es
eine Trennwand nach rechts schiebt. Für eine infinitesimale Verschiebung vergrößert
sich das Volumen um d V {\displaystyle \mathrm {d} V} \mathrm {d} V, die Entropie
steigt um d S = δ Q T {\displaystyle \mathrm {d} S={\frac {\delta Q}{T}}}
{\displaystyle \mathrm {d} S={\frac {\delta Q}{T}}}. Aus dem ersten Hauptsatz d U =
δ Q + δ W {\displaystyle \mathrm {d} U=\delta Q+\delta W} \mathrm{d}U = \delta Q
+ \delta W folgt wegen d U = 0 {\displaystyle \mathrm {d} U=0} \mathrm{d}U = 0,
dass sämtliche vom Gas geleistete Expansionsarbeit ihm wieder in Form von Wärme
zugutekommen muss. Es gilt also δ Q = − δ W {\displaystyle \delta Q=-\delta W}
{\displaystyle \delta Q=-\delta W}. Daraus ergibt sich δ Q = − ( − p d V )
{\displaystyle \delta Q=-(-p\mathrm {d} V)} {\displaystyle \delta Q=-(-p\mathrm {d}
V)} und somit
Aus der Zustandsgleichung für ideale Gase ( N {\displaystyle N\,} N\, ist die
Anzahl der Gasatome):
folgt:
Δ S = ∫ S 1 S 2 d S = ∫ V 1 V 2 k B N V d V = k B N ln ( V 2 / V 1 )
{\displaystyle \Delta S=\int _{S_{1}}^{S_{2}}\mathrm {d} S=\int _{V_{1}}^{V_{2}}
{\frac {k_{\mathrm {B} }N}{V}}\mathrm {d} V=k_{\mathrm {B} }N\ln(V_{2}/V_{1})}
{\displaystyle \Delta S=\int _{S_{1}}^{S_{2}}\mathrm {d} S=\int _{V_{1}}^{V_{2}}
{\frac {k_{\mathrm {B} }N}{V}}\mathrm {d} V=k_{\mathrm {B} }N\ln(V_{2}/V_{1})}.
Für ein Mol eines Gases ergibt sich bei Verdopplung des Volumens
Die Überlegung geht vom Überströmversuch nach Gay-Lussac aus. Ein Hahn wird
geöffnet und ein ideales Gas breitet sich spontan über das doppelte Volumen aus.
Nach Boltzmann erhält man über die statistischen Gewichte (=Anzahl der
Mikrozustände) vor und nach der Expansion die jeweils entsprechenden Entropiewerte:
Sind n {\displaystyle n\,} n\, Moleküle auf zwei Raumhälften so verteilt, dass sich
in der einen Hälfte n 1 {\displaystyle n_{1}} n_{1} und in der anderen n 2
{\displaystyle n_{2}} n_{2} Moleküle befinden, dann ist das statistische Gewicht
dieses Makrozustands
W ( N A 2 , N A 2 ) = 6 ⋅ 10 23 ! 3 ⋅ 10 23 ! 3 ⋅ 10 23 ! {\displaystyle
W\left({\frac {N_{\mathrm {A} }}{2}},{\frac {N_{\mathrm {A} }}{2}}\right)={\frac
{6\cdot 10^{23}!}{3\cdot 10^{23}!\,3\cdot 10^{23}!}}} W\left({\frac {N_{{\mathrm
{A}}}}{2}},{\frac {N_{{\mathrm {A}}}}{2}}\right)={\frac {6\cdot 10^{{23}}!}{3\cdot
10^{{23}}!\,3\cdot 10^{{23}}!}}.
Die Fakultät kann man mit der Stirling-Formel annähern, wobei man sich auf n ! ≈ n
n {\displaystyle n!\approx n^{n}} n! \approx n^n beschränken kann. Der Logarithmus
von n n {\displaystyle n^{n}} n^n ist n ⋅ ln n {\displaystyle n\cdot \ln \,n}
n\cdot \ln \,n. Damit wird
ln ( 6 ⋅ 10 23 ! ) ≈ 6 ⋅ 10 23 ⋅ ln ( 6 ⋅ 10 23 ) {\displaystyle \ln(6\cdot
10^{23}!)\approx 6\cdot 10^{23}\cdot \ln \,(6\cdot 10^{23})} {\displaystyle
\ln(6\cdot 10^{23}!)\approx 6\cdot 10^{23}\cdot \ln \,(6\cdot 10^{23})}
und
ln [ W ( N A 2 , N A 2 ) ] ≈ 6 ⋅ 10 23 ⋅ ln ( 6 ⋅ 10 23 ) − 2 ⋅ 3 ⋅ 10 23 ⋅
ln ( 3 ⋅ 10 23 ) = 6 ⋅ 10 23 ⋅ ( ln 6 − ln 3 ) {\displaystyle \ln
\left[W\left({\frac {N_{\mathrm {A} }}{2}},{\frac {N_{\mathrm {A} }}
{2}}\right)\right]\approx 6\cdot 10^{23}\cdot \ln(6\cdot 10^{23})-2\cdot 3\cdot
10^{23}\cdot \ln(3\cdot 10^{23})=6\cdot 10^{23}\cdot (\ln 6-\ln 3)}
{\displaystyle \ln \left[W\left({\frac {N_{\mathrm {A} }}{2}},{\frac {N_{\mathrm
{A} }}{2}}\right)\right]\approx 6\cdot 10^{23}\cdot \ln(6\cdot 10^{23})-2\cdot
3\cdot 10^{23}\cdot \ln(3\cdot 10^{23})=6\cdot 10^{23}\cdot (\ln 6-\ln 3)} .
S = k B ⋅ ln [ W ( N A 2 , N A 2 ) ] = 5 , 76 J / K {\displaystyle
S=k_{\mathrm {B} }\cdot \ln \left[W\left({\frac {N_{\mathrm {A} }}{2}},{\frac
{N_{\mathrm {A} }}{2}}\right)\right]=5{,}76\,\mathrm {J/K} } {\displaystyle
S=k_{\mathrm {B} }\cdot \ln \left[W\left({\frac {N_{\mathrm {A} }}{2}},{\frac
{N_{\mathrm {A} }}{2}}\right)\right]=5{,}76\,\mathrm {J/K} }.
Δ S = 5 , 76 J / K − 0 = 5 , 76 J / K {\displaystyle \Delta S=5{,}76\,\mathrm
{J/K} -0=5{,}76\,\mathrm {J/K} } {\displaystyle \Delta S=5{,}76\,\mathrm {J/K}
-0=5{,}76\,\mathrm {J/K} }.
Da die Teilchen keine Anziehungskräfte besitzen und die Wände des Gefäßes starr
sind, wird keine Arbeit geleistet, auch nicht gegen einen äußeren Luftdruck. Die
Moleküle prallen zwar gegen die Wand und werden reflektiert, verlieren dabei jedoch
keine Energie. Das System ist während des Überströmens nicht im Gleichgewicht.
Reversible isotherme Expansion
Das zweite Experiment entspricht der isothermen Ausdehnung im ersten Schritt des
Carnot-Zyklus. Wärme wird von außen auf die Substanz übertragen. Damit wird Arbeit
geleistet, indem die ihr entsprechende Energie im Lauf der Expansion abgegeben wird
an eine angeschlossene Mechanik, die sie als potenzielle Energie extern speichert.
Davon verbleibt nichts im Medium und das System ist stets im Gleichgewicht. Der
Vorgang ist umkehrbar. Clausius hat nun die Änderung der Entropie unter
Einbeziehung dieser zugeführten Wärme formuliert als Δ S = Q r e v T {\displaystyle
\Delta S={\frac {Q_{\mathrm {rev} }}{T}}} {\displaystyle \Delta S={\frac
{Q_{\mathrm {rev} }}{T}}}. Mit Q r e v {\displaystyle Q_{\mathrm {rev} }}
{\displaystyle Q_{\mathrm {rev} }} = n R T ⋅ ln V 2 V 1 {\displaystyle
=nRT\cdot \ln {\frac {V_{\mathrm {2} }}{V_{\mathrm {1} }}}} {\displaystyle
=nRT\cdot \ln {\frac {V_{\mathrm {2} }}{V_{\mathrm {1} }}}} erhält man im
reversiblen Fall für ein Mol ebenfalls Δ S = 5 , 76 J / K {\displaystyle \Delta
S=5{,}76\,\mathrm {J/K} } {\displaystyle \Delta S=5{,}76\,\mathrm {J/K} }.
Numerische Äquivalenz der Ergebnisse
Gibt man Lipide, bei Lebewesen beispielsweise als Bausteine der Biomembranen
vorkommend, in Wasser, so bilden sich spontan geschlossene Membranstrukturen,
sogenannte Vesikel. Da hier Temperatur und Druck gegeben sind (Wärmebad und
Druckensemble) ist das thermodynamische Potential, das ein Minimum anstrebt die
freie Enthalpie Δ G = Δ H − T Δ S {\displaystyle \Delta G=\Delta H-T\Delta S}
\Delta G = \Delta H - T\Delta S. Die Enthalpie Δ H {\displaystyle \Delta H} \Delta
H lässt sich experimentell nachweisen, ist also messbar und ist positiv. Da der
Prozess spontan abläuft, muss aber Δ G {\displaystyle \Delta G} \Delta G negativ
sein; d. h., die Entropie muss steigen. Dies ist auf den ersten Blick verwirrend,
da die Entropie meistens die Ursache dafür ist, dass sich Stoffe vermischen
(Mischungsentropie). Die Entropiezunahme liegt in einer besonderen Eigenschaft des
Wassers begründet. Es bildet zwischen den einzelnen Wassermolekülen
Wasserstoffbrückenbindungen aus, die ständig fluktuieren und somit einen hohen
Beitrag zur Entropie des Wassers leisten. Um die langen Fettsäureketten der Lipide
entsteht bei Lösung in Wasser ein größerer Bereich, in dem keine
Wasserstoffbrückenbindungen mehr gebildet werden können. In den Bereichen um die
Fettsäureketten herum fehlt der Entropiebeitrag der Wasserstoffbrücken, so dass die
Entropie insgesamt abnimmt. Diese Abnahme ist erheblich größer als die durch das
bloße Vermischen des Wassers und des Lipids zu erwartende Zunahme. Wenn sich die
Fettsäureketten zusammenlagern, können mehr Wasserstoffbrücken gebildet werden, und
die Entropie steigt. Man könnte dies auch so formulieren, dass die Fähigkeit des
Wassers, fluktuierende Wasserstoffbrücken zu bilden, die Lipide aus der Lösung
treibt. Letztlich ist diese Eigenschaft auch mit die Ursache für die schlechte
Löslichkeit vieler unpolarer Stoffe, die die Bildung von
Wasserstoffbrückenbindungen stören.
Berechnung und Verwendung tabellierter Entropiewerte
Die molare Entropie Smol bei einer bestimmten Temperatur T2 und bei konstantem
Druck p erhält man mit Hilfe der molaren Wärmekapazität cp(T) durch Integration vom
absoluten Nullpunkt bis zur aktuellen Temperatur:
Dazu kommen noch Entropieanteile bei Phasenübergängen. Nach Planck wird die
Entropie ideal kristallisierter, reiner Festkörper am absoluten Nullpunkt gleich
null gesetzt (Gemische oder frustrierte Kristalle behalten dagegen eine
Restentropie). Unter Standardbedingungen spricht man von der Standardentropie S0.
Auch nach der statistischen Betrachtungsweise hängen Entropiewert und
Wärmekapazität miteinander zusammen: Eine hohe Wärmekapazität bedeutet, dass ein
Molekül viel Energie speichern kann, und das kann z. B. auf einer großen Zahl
niedrig liegender und daher leicht erreichbarer Energieniveaus beruhen.
Entsprechend viele unterschiedliche Verteilungsmöglichkeiten auf diese Niveaus gibt
es dann auch für die Moleküle und das führt auch auf einen hohen Entropiewert für
den wahrscheinlichsten Zustand.
Die Entropieänderung bei idealen Mischungen erhält man mit Hilfe der Molenbrüche xi
der beteiligten Substanzen:
wobei sich in realen Mischungen noch eine Zusatzentropie durch die Veränderung der
zwischenmolekularen Kräfte beim Mischen ergibt.
Entstehen bei einer chemischen Reaktion neue Moleküle, dann tritt die höchste
Entropie in einem ganz bestimmten Gleichgewichtszustand auf, bei dem sich die
Moleküle sowohl auf die Edukt- wie auch auf die Produktniveaus verteilen können.
Über die folgende Beziehung, in der die Differenzen der Standard-Entropiewerte ∆S0
der beteiligten Substanzen eine wesentliche Rolle spielen, kann die
Gleichgewichtskonstante K berechnet werden:
(das ∆ bedeutet in diesem Fall die Änderung der Größe bei vollständigem
Reaktionsablauf). Woran man bei einem spontanen Vorgang (z. B. chemischen
Reaktionen, Lösungs- und Mischungsvorgängen, Einstellung von Phasengleichgewichten
und deren Temperaturabhängigkeit, Osmose u. a.) die Intensität dieses Vorgangs
abschätzen kann, das ist die Zunahme der gesamten Entropie zwischen Anfangs- und
Gleichgewichtszustand, die der Reaktanten und die der Umgebung zusammengenommen (→
chemisches Gleichgewicht). Die spontane Zunahme der Entropie wiederum ist eine
Folge der ständigen Bewegung der Moleküle.
Kurz: Die Standard-Entropie von Stoffen kann aus dem Verlauf der Wärmekapazität mit
der Temperatur berechnet werden. Die Kenntnis tabellierter Entropiewerte ermöglicht
(zusammen mit den Reaktionsenthalpien) die Voraussage des chemischen
Gleichgewichts.
Quantenmechanik
In der Quantenstatistik ist ein Mikrozustand ein reiner Zustand, der durch einen
Vektor | n ⟩ {\displaystyle |n\rangle } |n\rangle im Hilbertraum H {\displaystyle
{\mathcal {H}}} \mathcal{H} des Vielteilchensystems gegeben ist. Wie in der
klassischen statistischen Mechanik ist dies ein Raum mit außerordentlich vielen
Dimensionen, selbst wenn dem einzelnen Teilchen nur wenige verschiedene
Energieeigenzustände zur Verfügung stehen. Zum Beispiel gibt es bei der
magnetischen Kernresonanz für jeden Protonenspin nur zwei Energieeigenzustände,
damit aber einen Hilbertraum mit doppelt so vielen Dimensionen, wie Protonen in der
Probe sind (etwa 10 20 {\displaystyle 10^{20}} {\displaystyle 10^{20}} in einem
kleinen Wassertröpfchen). Der zugehörige Makrozustand ist ein gemischter Zustand,
der durch einen statistischen Operator oder auch Dichteoperator beschrieben wird.
Dieser enthält alle Informationen über das System, die durch eine ideale Messung
zugänglich sind (das ist viel weniger als bei dem reinen Zustand | n ⟩
{\displaystyle |n\rangle } |n\rangle, dem Mikrozustand). Der Makrozustand ist
klassisch gegeben durch ein Ensemble von denjenigen Mikrozuständen, die mit | n ⟩
{\displaystyle |n\rangle } |n\rangle bestimmte „typische makroskopische Größen“
gemein haben, wie z. B. Energie, Volumen und Teilchenzahl. Die Verteilung der
Mikrozustände im Phasenraum ist klassisch durch eine Verteilungsfunktion gegeben.
An deren Stelle tritt in der quantenmechanischen Beschreibung der Dichteoperator:
Der Erwartungswert einer Observablen auf dem durch den Dichteoperator beschriebenen
Zustandsgemisch ist gegeben durch eine Spurbildung:
Die Von-Neumann Entropie (nach John von Neumann) ist definiert als Erwartungswert
des Dichteoperators:
S = − k B Tr ( ρ ln ρ ) = − k B ∑ i p i ln p i ( ∗ ) {\displaystyle S=-
k_{\mathrm {B} }\operatorname {Tr} \left(\rho \ln \,\rho \right)=-k_{\mathrm
{B} }\sum _{i}p_{i}\ln \,p_{i}\qquad (*)} {\displaystyle S=-k_{\mathrm
{B} }\operatorname {Tr} \left(\rho \ln \,\rho \right)=-k_{\mathrm {B} }\sum
_{i}p_{i}\ln \,p_{i}\qquad (*)},
Als Beispiel nehmen wir ein Spinsystem mit vier Elektronen. Spin und magnetisches
Moment sind antiparallel. Das heißt, das magnetische Moment μ {\displaystyle
\mu } \mu eines nach unten zeigenden Spins besitzt im äußeren Magnetfeld B
{\displaystyle B} B die Energie − μ B {\displaystyle -\mu B} -\mu B. Die Energie E
0 {\displaystyle E_{0}} E_{0} des Systems soll insgesamt − 2 μ B {\displaystyle
-2\mu B} -2\mu B sein. Dies führt zu den vier Mikrozuständen:
Daraus folgt, dass die Spinentartung Ω = 4 {\displaystyle \Omega =4\,} \Omega = 4\,
ist mit p 1 = p 2 = p 3 = p 4 = 1 4 {\displaystyle p_{1}=p_{2}=p_{3}=p_{4}={\frac
{1}{4}}\,} {\displaystyle p_{1}=p_{2}=p_{3}=p_{4}={\frac {1}{4}}\,} und wie oben
auch hier S = k B ⋅ ln Ω {\displaystyle S=k_{\mathrm {B} }\cdot \ln \,\Omega }
{\displaystyle S=k_{\mathrm {B} }\cdot \ln \,\Omega } gilt.
Die obige allgemeine Formel, (*), ist bis auf einen konstanten Faktor identisch mit
der Formel für die Shannon'sche Informationsentropie. Das bedeutet, die
physikalische Entropie ist auch ein Maß für die Information, die einem durch
Kenntnis des Makrozustands zum Mikrozustand fehlt.
Gibbs-Ungleichung
S ( ρ ) = − k B Tr ( ρ ln ρ ) ≤ − k B Tr ( ρ ln ρ ~ ) {\displaystyle S(\rho )
=-k_{\mathrm {B} }\operatorname {Tr} \left(\rho \ln \,\rho \right)\leq -k_{\mathrm
{B} }\operatorname {Tr} \left(\rho \ln \,{\tilde {\rho }}\right)} S(\rho )=-
k_{{\mathrm {B}}}\operatorname {Tr}\left(\rho \ln \,\rho \right)\leq -k_{{\mathrm
{B}}}\operatorname {Tr}\left(\rho \ln \,{\tilde {\rho }}\right)
Minimum
Maximum
Konkavität
S ( λ ρ + ( 1 − λ ) ρ ~ ) ≥ λ S ( ρ ) + ( 1 − λ ) S ( ρ ~ ) {\displaystyle
S\left(\lambda \rho +(1-\lambda ){\tilde {\rho }}\right)\geq \lambda S(\rho )
+\left(1-\lambda \right)S\left({\tilde {\rho }}\right)}
S\left(\lambda\rho+(1-\lambda)\tilde{\rho}\right)\geq\lambda S(\rho)
+\left(1-\lambda\right)S\left(\tilde{\rho}\right) mit 0 ≤ λ ≤ 1 {\displaystyle
0\leq \lambda \leq 1} 0 \leq \lambda \leq 1
Dreiecksungleichung
Stephen Hawking kritisierte daran, dass damit das Schwarze Loch auch eine
Temperatur besitzen müsse. Ein Körper mit einer nicht verschwindenden Temperatur
emittiert jedoch eine Schwarzkörperstrahlung, die der Annahme widerspricht, dass
aus dem Schwarzen Loch nichts mehr entweicht. Hawking löste dieses Paradoxon durch
die Entdeckung der nach ihm benannten Hawking-Strahlung auf: In der
quantenmechanischen Beschreibung des Vakuums sind ständig Vakuumfluktuationen aus
Teilchen-Antiteilchen-Paaren vorhanden. Wenn bei einer Paarbildung knapp außerhalb
des Ereignishorizonts eines der beiden Partnerteilchen vom Schwarzen Loch
„eingefangen“ wird, das andere aber entkommt, entspricht dies physikalisch einer
thermischen Strahlung des Schwarzen Lochs.[26][27] Zur Realität solcher thermischer
Strahlung ist zu sagen, dass Beobachter in unterschiedlichen Bezugssystemen
unterschiedliche Beobachtungen machen, also Temperatur 0 {\displaystyle 0}
{\displaystyle 0} oder Eigentemperatur. Erst die Entdeckung von Hawking, dass ein
Beobachter, der vom einem schwarzen Loch mit Ereignishorizont bei r = 2 M G / c 2
{\displaystyle r=2MG/c^{2}} {\displaystyle r=2MG/c^{2}} weit entfernt ist, die
Schwarzschild-Temperatur
Das Schwarze Loch kann sich auflösen, wenn die Energie der abgestrahlten Hawking-
Strahlung (durch die die Masse des Schwarzen Lochs abnimmt) für einen ausreichend
langen Zeitraum den Energieinhalt der einfallenden Materie übersteigt.[29]
Literatur
Skripte
Populärwissenschaftliche Darstellungen
Arieh Ben-Naim: Entropy Demystified – The Second Law Reduced to Plain Common
Sense. World Scientific, Expanded Ed., New Jersey 2008, ISBN 978-981-283-225-2.
(populärwissenschaftliche, aber exakte Erklärung auf Grundlage der statistischen
Physik).
H. Dieter Zeh: Entropie. Fischer, Stuttgart 2005, ISBN 3-596-16127-4.
Eric Johnson: Anxiety and the Equation: Understanding Boltzmann's Entropy. The
MIT Press, Cambridge, Massachusetts 2018, ISBN 978-0-262-03861-4.
Jeremy Rifkin, Ted Howard: Entropy: A New World View. Viking Press, New York
1980 (dt.: Entropie: Ein neues Weltbild. Hofmann & Campe, Hamburg 1984).
Weblinks
Commons: Entropie – Sammlung von Bildern, Videos und Audiodateien
WiktionaryWiktionary: Entropie – Bedeutungserklärungen, Wortherkunft, Synonyme,
Übersetzungen
Wikibooks: Entropie – Lern- und Lehrmaterialien
Wikiquote: Entropie – Zitate
Stephen W. Hawking: Eine kurze Geschichte der Zeit. 1. Auflage. Rowohlt Verlag,
1988, ISBN 3-498-02884-7 (eingeschränkte Vorschau in der Google-Buchsuche).
Kategorien:
Navigationsmenü
Nicht angemeldet
Diskussionsseite
Beiträge
Benutzerkonto erstellen
Anmelden
Artikel
Diskussion
Lesen
Bearbeiten
Quelltext bearbeiten
Versionsgeschichte
Suche
Hauptseite
Themenportale
Zufälliger Artikel
Mitmachen
Artikel verbessern
Neuen Artikel anlegen
Autorenportal
Hilfe
Letzte Änderungen
Kontakt
Spenden
Werkzeuge
In anderen Projekten
Commons
Wikibooks
Drucken/exportieren
Buch erstellen
Als PDF herunterladen
Druckversion
In anderen Sprachen
Boarisch
Dansk
English
Español
Français
Italiano
Nederlands
Русский
Türkçe
Links bearbeiten
Diese Seite wurde zuletzt am 29. April 2020 um 13:43 Uhr bearbeitet.
Abrufstatistik · Autoren
Der Text ist unter der Lizenz „Creative Commons Attribution/Share Alike“
verfügbar; Informationen zu den Urhebern und zum Lizenzstatus eingebundener
Mediendateien (etwa Bilder oder Videos) können im Regelfall durch Anklicken dieser
abgerufen werden. Möglicherweise unterliegen die Inhalte jeweils zusätzlichen
Bedingungen. Durch die Nutzung dieser Website erklären Sie sich mit den
Nutzungsbedingungen und der Datenschutzrichtlinie einverstanden.
Wikipedia® ist eine eingetragene Marke der Wikimedia Foundation Inc.
Datenschutz
Über Wikipedia
Impressum
Entwickler
Statistiken
Stellungnahme zu Cookies
Mobile Ansicht
Wikimedia Foundation
Powered by MediaWiki