Sie sind auf Seite 1von 26

Ausblenden

WLE Austria Logo (no text).svg


Fotowettbewerb Wiki Loves Earth 2020: Fotografiere in der Natur und unterstütze
Wikipedia.
Entropie
Zur Navigation springen
Zur Suche springen
Dieser Artikel beschreibt den physikalischen Begriff aus der Thermodynamik.
Für andere Bedeutungen siehe Entropie (Begriffsklärung).
Physikalische Größe
Name Entropie
Formelzeichen S {\displaystyle S} S
Größen- und
Einheitensystem Einheit Dimension
SI J·K−1 L2·M·T−2·Θ−1
Datei:Time-Lapse.ogvMediendatei abspielen
Beim Schmelzen von Eis wird die geordnete Eiskristallstruktur in eine ungeordnete
Bewegung einzelner Wassermoleküle überführt: Die Entropie des Wassers im Eiswürfel
nimmt dabei zu (Rudolf Clausius 1862)

Die Entropie (Kunstwort altgriechisch ἐντροπία entropía, von ἐν en ‚an‘, ‚in‘ und
τροπή tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße mit der
SI-Einheit Joule pro Kelvin (J/K).

Zufuhr von Wärme oder Materie bewirkt eine Zunahme der Entropie in einem System,
ebenso alle spontan ablaufenden Prozesse innerhalb des Systems wie z. B.
Vermischung, Wärmeleitung, chemische Reaktion oder Umwandlung von mechanischer in
thermische Energie durch Reibung (siehe Dissipation, Energieentwertung). Abnehmen
kann die Entropie eines Systems nur durch Abgabe von Wärme oder Materie. Daher kann
in einem abgeschlossenen System (einem System, bei dem es keinen Energie- oder
Materieaustausch mit der Umgebung gibt) die Entropie nicht abnehmen, sondern im
Laufe der Zeit nur zunehmen (Zweiter Hauptsatz der Thermodynamik). Prozesse, bei
denen die Entropie in einem System zunimmt, werden daher als irreversibel
(unumkehrbar) bezeichnet. Sie können nur rückgängig gemacht werden, wenn ein
anderes System die Entropie aufnimmt.

In der statistischen Mechanik ist der Makrozustand eines Systems um so


wahrscheinlicher, je höher seine Entropie ist. Die Entropie eines durch
makroskopische Größen definierten Systems (Makrozustand) wird durch die Zahl seiner
zugänglichen, energetisch gleichwertigen Mikrozustände bestimmt – je höher diese
Zahl, desto höher die Entropie des Makrozustands.

In einem sich selbst überlassenen System bewirken seine spontan ablaufenden inneren
Vorgänge folglich im statistischen Mittel, dass es sich dem Makrozustand annähert,
der bei gleicher Energie die höchstmögliche Entropie hat. Beispielsweise beobachten
wir, dass sich ein System, bestehend aus einem kalten Metallbarren neben einem
heissen Metallbarren in einer Isolierbox, d. h. in einem idealisierten
abgeschlossenen System, thermisch angleicht, die Unterschiede verschwinden, beide
Metallbarren werden nach einer gewissen Zeit gleich warm sein. Wir beobachten
niemals das unwahrscheinliche spontane Abkühlen des einen Metallbarrens und das
Erhitzen des anderen in einem solchen geschlossenen System.

Dies wird umgangssprachlich häufig dadurch umschrieben, dass Entropie ein „Maß für
Unordnung“ sei. Allerdings ist Unordnung kein wohldefinierter physikalischer
Begriff und hat daher auch kein physikalisches Maß. Richtiger ist es, die Entropie
als ein objektives Maß für die Menge an Information zu begreifen, die benötigt
würde, um von einem beobachtbaren Makrozustand auf den gerade vorliegenden
Mikrozustand des Systems schließen zu können. Dies ist gemeint, wenn die Entropie
auch als „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“ umschrieben
wird.[1]
Inhaltsverzeichnis

1 Geschichtlicher Überblick
2 Klassische Thermodynamik
2.1 Grundlagen
2.2 Partielle Ableitungen der Entropie
3 Statistische Physik
3.1 Beweis des zweiten Hauptsatzes
3.2 Entropie als „Maß der Unordnung“
4 Entropie als mengenartige Größe
5 Anwendungsbeispiele
5.1 Mischung von warmem und kaltem Wasser
5.2 Mischungsentropie
5.3 Entropiezunahme bei irreversibler und reversibler isothermer Expansion
5.3.1 Irreversible Expansion, thermodynamisch
5.3.2 Irreversible Expansion, statistisch
5.3.3 Reversible isotherme Expansion
5.3.4 Numerische Äquivalenz der Ergebnisse
5.4 Biomembranen
5.5 Berechnung und Verwendung tabellierter Entropiewerte
6 Quantenmechanik
6.1 Von-Neumann-Entropie
6.2 Eigenschaften der statistischen Entropie eines quantenmechanischen
Zustandes
7 Bekenstein-Hawking-Entropie von Schwarzen Löchern
8 Literatur
9 Weblinks
10 Einzelnachweise und Anmerkungen

Geschichtlicher Überblick

In der Geschichte der Physik gab es lange Zeit eine Auseinandersetzung über die
Bedeutung des Wärmebegriffs: Die eine Seite vertrat die Theorie, dass die
Wärmeerscheinungen allein in der vis viva („lebendige Kraft“ = kinetische Energie)
der Atome begründet seien; die andere behauptete, dass die Wärme eine Substanz sei,
der man den Namen Caloricum (französisch calorique, englisch caloric) gab.

Antoine Laurent de Lavoisier unterschied 1789 chaleur (Wärme) von calorique


(Caloricum). Das Caloricum sollte unter anderem eine abstoßende Kraft zwischen den
Atomen eines Festkörpers bewirken, so dass dieser bei Zufuhr einer ausreichenden
Menge von Caloricum erst flüssig und dann gasförmig würde.[2] Zusammen mit Pierre
Simon Laplace konstruierte er ein Eiskalorimeter. Lavoisier und Laplace wollten
sich aber nicht festlegen, ob die vis viva oder die Caloricum-Substanz die Ursache
für die Wärmeerscheinungen ist.[3] Joseph Black unterschied temperature von der
quantity of heat, u. a. anhand der latenten Wärme beim Schmelzen. Er bemerkte, dass
die Wärmemenge mit dem aus einem Kessel entweichenden Dampf mittransportiert werden
müsse.[4][5]

Benjamin Thompson, Reichsgraf von Rumford, untersuchte in seiner Münchner Zeit 1798
die Temperatur von Spänen, die beim Bohren von Kanonenrohren entstehen. Aufgrund
der beliebig großen Wärmemenge, die dabei aus der mechanischen Bohrarbeit entstehen
konnte, zweifelte er daran, dass das Caloricum eine (erhaltene) Substanz sein
könnte, wodurch er den Vertretern der vis-viva-Theorie Auftrieb gab.[6][5]

Der Namensgeber des Carnot-Prozesses, Nicolas Léonard Sadi Carnot, schrieb 1824[7],
dass die Kraft einer Dampfmaschine nicht am Verbrauch von calorique liegt, sondern
an ihrem Transport von einem warmen Körper auf einen kalten, und bereitete damit
den Entropiebegriff vor. Mit den Experimenten von Robert Mayer und James Prescott
Joule wurde Anfang der 1840er Jahre gezeigt, dass sich mechanische Arbeit
quantitativ in Wärme umwandeln ließ. Dies war die Grundlage für den 1847 von
Hermann von Helmholtz allgemein formulierten Energieerhaltungssatz, also den ersten
Hauptsatz.

Weitere 20 Jahre später stellte Rudolf Clausius fest, dass bei einer Übertragung
der Energieform Wärme auch eine andere mengenartige Größe fließen muss. Diese Größe
sah er als die Ursache für die Disgregation beim Schmelzen an und nannte sie
Entropie.[8][9] Wie von Hugh Longbourne Callendar 1911 herausgearbeitet, entspricht
die Entropie bei Clausius dem calorique bei Lavoisier und Carnot.[10][11]

Mit Arbeiten von Ludwig Boltzmann und Willard Gibbs gelang es um 1875, der Entropie
eine statistische Definition zu geben, welche die zuvor makroskopisch definierte
Größe mikroskopisch erklärt.[12] Die Entropie S {\displaystyle S} S eines
Makrozustands wird dabei durch die Wahrscheinlichkeiten p i {\displaystyle p_{i}}
p_{i} der Mikrozustände i {\displaystyle i} i berechnet:

S = − k B ∑ i p i ln ⁡( p i ) {\displaystyle S=-k_{\mathrm {B} }\sum


_{i}p_{i}\ln(p_{i})} {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\ln(p_{i})}

Der Proportionalitätsfaktor k B {\displaystyle k_{\mathrm {B} }} k_{\mathrm {B} }


ist die Boltzmannkonstante, Boltzmann selbst hat ihren Wert jedoch nicht bestimmt.

Die so statistisch definierte Entropie kann in vielen Kontexten sinnvoll verwendet


werden.

Zusammenhänge zwischen Entropie und Information ergaben sich schon im 19.


Jahrhundert durch Diskussion über den Maxwellschen Dämon, ein Gedankenexperiment,
das im Rahmen der Miniaturisierung im Computerzeitalter aktuell wurde. Die
Informatik nutzt die Shannonsche Informationsentropie, die der statistischen
Interpretation entspricht, als abstraktes Maß der Information ohne direkten Bezug
zur physikalischen Realisation. Auch Norbert Wiener nutzte den Begriff der Entropie
zur Beschreibung von Informationsphänomenen, allerdings mit unterschiedlichem
Vorzeichen als Shannon. Dass sich die Konvention von Shannon durchgesetzt hat, ist
vor allem der besseren technischen Verwertbarkeit seiner Arbeiten zuzuschreiben.
[13]
Klassische Thermodynamik

In der Thermodynamik kann ein System auf zwei Arten mit seiner Umgebung Energie
austauschen: in Form von Wärme und Arbeit, wobei abhängig vom System und der
Prozessführung verschiedene Varianten der Arbeit existieren, u. a. Volumenarbeit,
chemische Arbeit und magnetische Arbeit. Im Zuge eines solchen Energieaustauschs
ändert sich die Entropie sowohl des Systems als auch der Umgebung. Nur wenn die
globale Summe der Entropieänderungen positiv ist, erfolgt die Änderung spontan.
Grundlagen

Die Entropie S {\displaystyle S} S (Einheit J/K) ist eine extensive Zustandsgröße


eines physikalischen Systems und verhält sich bei Vereinigung mehrerer Systeme
additiv wie auch das Volumen, die Elektrische Ladung oder die Stoffmenge. Der
Physiker Rudolf Clausius führte diesen Begriff 1865 zur Beschreibung von
Kreisprozessen ein. Dividiert man S {\displaystyle S} S durch die Masse des
Systems, erhält man die spezifische Entropie s {\displaystyle s} s mit der Einheit
J/(kg·K) als intensive Zustandsgröße.

Das Differential d S {\displaystyle \mathrm {d} S} \mathrm{d}S ist nach Clausius


bei reversiblen Vorgängen zwischen Zuständen im Gleichgewicht das Verhältnis von
übertragener Wärme δ Q r e v {\displaystyle \delta Q_{\mathrm {rev} }} \delta
Q_{\mathrm{rev}} und absoluter Temperatur T {\displaystyle T} T:
d S = δ Q r e v T ( 1 ) {\displaystyle \mathrm {d} S={\frac {\delta Q_{\mathrm
{rev} }}{T}}\qquad (1)} {\displaystyle \mathrm {d} S={\frac {\delta Q_{\mathrm
{rev} }}{T}}\qquad (1)}

Diese Entropieänderung ist bei Wärmezufuhr positiv, bei Wärmeabfuhr negativ. In


dieser Schreibweise wird ein nicht-kursives d {\displaystyle \mathrm {d} } \mathrm
{d} benutzt, um hervorzuheben, dass es sich um ein vollständiges Differential
handelt, im Gegensatz zu δ Q {\displaystyle \delta Q} \delta Q, das kein
vollständiges Differential sein kann, weil Q {\displaystyle Q} Q eine Prozessgröße
ist. In diesem Zusammenhang spielt also die reziproke absolute Temperatur die Rolle
eines „integrierenden Bewertungsfaktors“, der aus der reversibel zu- oder
abgeführten Wärme, einem – mathematisch gesehen – unvollständigen Differential, ein
zugehöriges vollständiges Differential d S {\displaystyle \mathrm {d} S}
\mathrm{d}S macht.[14] Dadurch ist die Änderung der Entropie bei reversiblen
Prozessen – im Gegensatz zur zu- oder abgeführten Wärme – wegunabhängig. Mit der
Festlegung eines beliebigen Werts für einen Bezugszustand wird die Entropie damit
zu einer allein durch den jeweiligen Zustand gegebenen Zustandsgröße.

Insofern kann man die Entropie bei reversibler Prozessführung auch als die „mit 1 T
{\displaystyle {\tfrac {1}{T}}} {\tfrac 1T} bewertete Wärmeenergie“ definieren.
Weiter unten wird das Problem behandelt, wie weit die Energie eines Systems in
Arbeit umgewandelt werden kann.

Benutzt man den ersten Hauptsatz der Thermodynamik, d U = δ W + δ Q


{\displaystyle \mathrm {d} U=\delta W+\delta Q} {\displaystyle \mathrm {d} U=\delta
W+\delta Q}, also dass die Energieänderung d U {\displaystyle \mathrm {d} U}
{\displaystyle \mathrm {d} U} sich zusammensetzt aus zugeführter Arbeit und Wärme,
und setzt für die Arbeit δ W = − p d V + μ d N + … {\displaystyle \delta W=-
p\,\mathrm {d} V+\mu \,\mathrm {d} N+\dots } {\displaystyle \delta W=-p\,\mathrm
{d} V+\mu \,\mathrm {d} N+\dots } alle dem Experimentator mittels Änderung der
Systemgrößen möglichen Prozesse, erhält man aus (1) für die Änderung der Entropie
als Funktion der thermodynamischen Variablen (immer noch im reversiblen Fall)

d S = 1 T ( d U + p d V − μ d N − … ) {\displaystyle \mathrm {d} S={\frac {1}


{T}}(\mathrm {d} U+p\,\mathrm {d} V-\mu \,\mathrm {d} N-\dots )} {\displaystyle
\mathrm {d} S={\frac {1}{T}}(\mathrm {d} U+p\,\mathrm {d} V-\mu \,\mathrm {d}
N-\dots )}

Clausius behandelte auch irreversible Prozesse und zeigte, dass in einem isolierten
thermodynamischen System die Entropie dabei nie abnehmen kann:

Δ S ≥ 0 ( 2 ) , {\displaystyle \Delta S\geq 0\qquad (2),} {\displaystyle \Delta


S\geq 0\qquad (2),}

wobei das Gleichheitszeichen nur bei reversiblen Prozessen gilt. Δ S = S e − S a


{\displaystyle \Delta S=S_{e}-S_{a}} {\displaystyle \Delta S=S_{e}-S_{a}} ist die
Entropieänderung des Systems mit S a {\displaystyle S_{a}} S_{a} für die Entropie
des Zustandes am Anfang der Zustandsänderung und S e {\displaystyle S_{e}}
{\displaystyle S_{e}} für den Zustand am Ende des Prozesses.

Aus (2) folgt für geschlossene Systeme, bei denen Wärmeenergie die Systemgrenzen
passieren kann, die Ungleichung:

Δ S ≥ Δ S Q = ∫ δ Q T ( 3 a ) {\displaystyle \Delta S\geq \Delta S_{Q}=\int


{\frac {\delta Q}{T}}\qquad (3a)} {\displaystyle \Delta S\geq \Delta S_{Q}=\int
{\frac {\delta Q}{T}}\qquad (3a)}

Δ S Q {\displaystyle \Delta S_{Q}} {\displaystyle \Delta S_{Q}} ist der Entropie-


Anteil, der sich aus der Zufuhr von Wärme über die Systemgrenze hinweg ergibt. Die
Formel gilt auch für die Abfuhr von Wärme aus dem System, in diesem Falle ist Δ S Q
{\displaystyle \Delta S_{Q}} {\displaystyle \Delta S_{Q}} negativ. Die Ungleichung
(3a) wird nur für rein reversible Prozesse zu einer Gleichung.

Bei der Analyse thermodynamischer Systeme in der Technik führt man oft eine
Bilanzanalyse durch. Hierzu schreibt man die Ungleichung (3a) in der folgenden
Form:[15]

Δ S = Δ S Q + Δ S i r r ( 3 ) {\displaystyle \Delta S=\Delta S_{Q}+\Delta


S_{\mathrm {irr} }\qquad (3)} {\displaystyle \Delta S=\Delta S_{Q}+\Delta
S_{\mathrm {irr} }\qquad (3)}

Dabei ist Δ S i r r ≥ 0 {\displaystyle \Delta S_{\mathrm {irr} }\geq 0}


{\displaystyle \Delta S_{\mathrm {irr} }\geq 0} der Entropieanteil der durch
irreversible Vorgänge im Inneren des Systems entsteht. Hierzu gehören etwa
Vermischungsvorgänge nach dem Entfernen einer inneren Trennwand, thermische
Ausgleichsvorgänge, die Umwandlung von elektrischer oder mechanischer Energie
(Ohmscher Widerstand, Rührwerk) in Wärme und chemische Reaktionen. Beschränken sich
die irreversiblen Vorgänge ausschließlich auf die Dissipation von mechanischer oder
elektrischer Arbeit δ W d i s s {\displaystyle \delta W_{\mathrm {diss} }}
{\displaystyle \delta W_{\mathrm {diss} }}, dann kann Δ S i r r {\displaystyle
\Delta S_{\mathrm {irr} }} {\displaystyle \Delta S_{\mathrm {irr} }} durch die
Arbeit bzw. die dissipierte Leistung P d i s s {\displaystyle P_{\mathrm {diss} }}
{\displaystyle P_{\mathrm {diss} }} ausgedrückt werden.

Δ S i r r = ∫ δ W d i s s T = ∫ P d i s s T d t {\displaystyle \Delta
S_{\mathrm {irr} }=\int {\frac {\delta W_{\mathrm {diss} }}{T}}=\int {\frac
{P_{\mathrm {diss} }}{T}}dt} {\displaystyle \Delta S_{\mathrm {irr} }=\int {\frac
{\delta W_{\mathrm {diss} }}{T}}=\int {\frac {P_{\mathrm {diss} }}{T}}dt}

Läuft der irreversible Prozess quasistatisch ab, so dass das System immer nahe
einem Gleichgewichtszustand ist, so kann (3) auch mit zeitlichen Ableitungen
geschrieben werden.

S ˙ = S ˙ Q + S ˙ i r r {\displaystyle {\dot {S}}={\dot {S}}_{Q}+{\dot


{S}}_{\mathrm {irr} }\qquad } {\displaystyle {\dot {S}}={\dot {S}}_{Q}+{\dot
{S}}_{\mathrm {irr} }\qquad }

Dabei wird S ˙ Q {\displaystyle {\dot {S}}_{Q}} {\displaystyle {\dot {S}}_{Q}} als


Entropietransportstrom und S ˙ i r r {\displaystyle {\dot {S}}_{irr}}
{\displaystyle {\dot {S}}_{irr}} als Entropieproduktionsstrom bezeichnet.[15]

Aus dem ersten Hauptsatz der Thermodynamik

Δ U = W + Q {\displaystyle \Delta U=W+Q} \Delta U=W+Q

folgt, dass das Produkt ( Q = ) T Δ S {\displaystyle (Q=)\,T\Delta S} (Q=)\,T\Delta


S den nicht verwerteten Anteil („Abwärme“) bei der isothermen Erzeugung von Arbeit
W {\displaystyle W} W aus vorhandener innerer Energie Δ U {\displaystyle \Delta
U} \Delta U darstellt. Der Maximalwert dieser Arbeit ist die sogenannte Freie
Energie

Δ F = Δ U − T Δ S {\displaystyle \Delta F=\Delta U-T\Delta S} \Delta F = \Delta


U - T \Delta S.

Dies ist eine äquivalente Form des 2. Hauptsatzes.

Eine Konsequenz dessen ist die Unmöglichkeit eines Perpetuum Mobile 2. Art.
Clausius formulierte:

„Es existiert kein Kreisprozess, dessen einzige Wirkung darin besteht, Wärme
von einem kälteren Reservoir zu einem wärmeren Reservoir zu transportieren.“

Offenbar hätte man sonst eine unerschöpfliche Energiequelle konstruiert. Wäre es


nämlich möglich, einen solchen Kreisprozess zu konstruieren, könnte man dem warmen
Reservoir unentwegt Energie entnehmen und damit Arbeit verrichten. Die dissipierte
Arbeit würde dann dem kalten Reservoir zugeführt und käme über den erwähnten
Kreisprozess wieder dem warmen Reservoir zugute. Äquivalent dazu ist die
Formulierung von William Thomson, dem späteren Lord Kelvin:

„Es existiert kein Kreisprozess, der eine Wärmemenge aus einem Reservoir
entnimmt und vollständig in Arbeit verwandelt.“

Ein idealer, jederzeit umkehrbarer Prozess ohne Reibungsverluste wird auch


reversibel genannt. Oft bleibt die Entropie während eines Prozesses unverändert, Δ
S = 0 {\displaystyle \Delta S=0} \Delta S=0, bekanntes Beispiel ist die adiabate
Kompression und Expansion im Zyklus einer Carnot-Maschine. Man nennt
Zustandsänderungen mit konstanter Entropie auch isentrop, allerdings sind nicht
alle isentropen Zustandsänderungen adiabatisch. Ist ein Prozess adiabatisch und
reversibel, folgt jedoch stets, dass er auch isentrop ist.

Wird in einem Kreisprozess bei der Temperatur T h {\displaystyle T_{\rm {h}}}


T_{\rm h} die Wärme Q h {\displaystyle Q_{\rm {h}}} Q_{\rm h} aufgenommen und die
Wärmemenge Q l {\displaystyle Q_{\rm {l}}} Q_{\rm l} bei T l {\displaystyle T_{\rm
{l}}} T_{\rm l} wieder abgegeben und erfolgen Wärmeaufnahme und Abgabe reversibel,
so gilt, dass sich die Entropie dabei nicht ändert:

∮ ⁡d S = 0 {\displaystyle \oint {\rm {d}}S=0} {\displaystyle \oint {\rm


{d}}S=0}; oder Q h T h = Q l T l {\displaystyle {\frac {Q_{\rm {h}}}{T_{\rm
{h}}}}={\frac {Q_{\rm {l}}}{T_{\rm {l}}}}\,} {\displaystyle {\frac {Q_{\rm {h}}}
{T_{\rm {h}}}}={\frac {Q_{\rm {l}}}{T_{\rm {l}}}}\,}.

Daraus lassen sich die maximale verrichtete Arbeit W = Q h − Q l {\displaystyle


W=Q_{\rm {h}}-Q_{\rm {l}}} W = Q_{\rm h} - Q_{\rm l} und der maximale Wirkungsgrad
η {\displaystyle \eta } \eta , der so genannte Carnot-Wirkungsgrad, ableiten:

η = W Q h = T h − T l T h . {\displaystyle \eta ={\frac {W}{Q_{\rm


{h}}}}={\frac {T_{\rm {h}}-T_{\rm {l}}}{T_{\rm {h}}}}\,.} {\displaystyle \eta
={\frac {W}{Q_{\rm {h}}}}={\frac {T_{\rm {h}}-T_{\rm {l}}}{T_{\rm {h}}}}\,.}

Der carnotsche Wirkungsgrad stellt für alle Wärmekraftmaschinen das Maximum an


Arbeitsausbeute dar. Reale Maschinen haben meistens einen erheblich geringeren
Wirkungsgrad. Bei ihnen wird ein Teil der theoretisch verfügbaren Arbeit
dissipiert, z. B. durch Reibung. Folglich entsteht in einer realen Maschine
Entropie und es wird mehr Wärme an das kalte Reservoir abgeführt als notwendig. Sie
arbeitet also irreversibel.

Der dritte Hauptsatz (der so genannte „Nernstsche Wärmesatz“) legt die Entropie
einer perfekt kristallinen Substanz, bei der beispielsweise keine Spinentartung
auftritt, am absoluten Nullpunkt als Null fest:

S ( T = 0 ) ≡ 0 . {\displaystyle S(T=0)\equiv 0\,.} S(T=0) \equiv 0\,.

Eine Folgerung ist beispielsweise, dass die Wärmekapazität eines Systems bei tiefen
Temperaturen verschwindet, und vor allem, dass der absolute Temperaturnullpunkt
nicht erreichbar ist (das gilt auch bei Spinentartung).
Erfüllt eine Substanz nicht die Bedingung perfekt kristallin (wenn z. B. mehrere
Konfigurationen vorliegen oder es sich um ein Glas handelt), kann ihr auch am
absoluten Nullpunkt eine Entropie zugeschrieben werden (Nullpunktsentropie).
Partielle Ableitungen der Entropie

Aus dem 2. Hauptsatz folgen Aussagen über die partiellen Ableitungen der Entropie,
z. B. nach der Temperatur T {\displaystyle T} T oder dem Volumen V {\displaystyle
V} V. Mit dem zweiten Hauptsatz gilt zunächst, dass bei reversiblen
Zustandsänderungen d S = δ Q r e v e r s i b e l T {\displaystyle \mathrm {d}
S={\tfrac {\delta Q_{\mathrm {reversibel} }}{T}}} {\displaystyle \mathrm {d}
S={\tfrac {\delta Q_{\mathrm {reversibel} }}{T}}} ist. Zusammen mit dem ersten
Hauptsatz folgt daraus d S = d U − δ W T , {\displaystyle \mathrm {d} S={\tfrac
{\mathrm {d} U-\delta W}{T}},} {\displaystyle \mathrm {d} S={\tfrac {\mathrm {d}
U-\delta W}{T}},} weil nach dem ersten Hauptsatz für die Innere Energie U
{\displaystyle U} U gilt, dass die Summe der dem betrachteten System zugeführten
Arbeit δ W {\displaystyle \delta W} \delta W und der zugeführten Wärme δ Q
{\displaystyle \delta Q} \delta Q ( einzeln keine Zustandsfunktionen! ) eine
Zustandsfunktion ergibt, eben die „Innere Energie“ des Systems. Dabei wurde
vorausgesetzt, dass die Änderungen von Volumen und Temperatur adiabatisch-langsam
erfolgen, sodass keine irreversiblen Prozesse erzeugt werden.

Also

d S = 1 T ∂ U ( T , V ) ∂ V d V + 1 T ∂ ( U ( T , V ) + p ⋅ V ( T ) ) ∂ T d T ,
{\displaystyle \mathrm {d} S={\frac {1}{T}}{\frac {\partial U(T,V)}{\partial V}}\,
{\mathrm {d} V}+{\frac {1}{T}}{\frac {\partial (U(T,V)+p\cdot V(T))}{\partial
T}}\,\mathrm {d} T,} {\displaystyle \mathrm {d} S={\frac {1}{T}}{\frac {\partial
U(T,V)}{\partial V}}\,{\mathrm {d} V}+{\frac {1}{T}}{\frac {\partial (U(T,V)+p\cdot
V(T))}{\partial T}}\,\mathrm {d} T,}

wobei δ W = − p d V {\displaystyle \delta W=-p\,\mathrm {d} V} {\displaystyle


\delta W=-p\,\mathrm {d} V} eingesetzt wurde.

⇒ ∂ S ∂ V = 1 T ∂ U ( T , V ) ∂ V {\displaystyle \Rightarrow {\frac {\partial


S}{\partial V}}={\frac {1}{T}}{\frac {\partial U(T,V)}{\partial V}}}
\Rightarrow\frac{\partial S}{\partial V}=\frac{1}{T}{\frac{\partial U(T,V)}
{\partial V} } bzw.
∂ S ∂ T = 1 T ∂ ( U ( T , V ) + p ⋅ V ( T ) ) ∂ T {\displaystyle {\frac
{\partial S}{\partial T}}={\frac {1}{T}}{\frac {\partial (U(T,V)+p\cdot V(T))}
{\partial T}}} {\frac {\partial S}{\partial T}}={\frac {1}{T}}{\frac {\partial
(U(T,V)+p\cdot V(T))}{\partial T}}.

Ähnliche Beziehungen ergeben sich, wenn das System außer von der Dichte bzw. vom
Volumen noch von weiteren Variablen abhängt, z. B. von elektrischen oder
magnetischen Momenten.

Aus dem 3. Hauptsatz folgt, dass sowohl ∂ S ∂ T {\displaystyle {\tfrac {\partial S}


{\partial T}}} {\displaystyle {\tfrac {\partial S}{\partial T}}} als auch ∂ S ∂ V
{\displaystyle {\tfrac {\partial S}{\partial V}}} {\displaystyle {\tfrac {\partial
S}{\partial V}}} für T → 0 {\displaystyle T\to 0} T\to 0 verschwinden müssen, und
zwar hinreichend rasch, was (wie man zeigen kann) nur erfüllt ist, wenn für tiefe
Temperaturen nicht die klassische Physik, sondern die Quantenphysik gilt.
Statistische Physik

In der u. a. von James Maxwell begründeten statistischen Mechanik wird das


Verhalten makroskopischer thermodynamischer Systeme durch das mikroskopische
Verhalten seiner Komponenten, also Elementarteilchen und daraus zusammengesetzter
Systeme wie Atome und Moleküle, erklärt. Bezüglich der Entropie stellt sich die
Frage, wie sie hier gedeutet werden kann, und ob der zweite Hauptsatz aus einer
mikroskopischen zeitumkehrinvarianten Theorie hergeleitet werden kann.

Ein Mikrozustand ist klassisch gegeben durch Angabe aller Orte und Impulse der zum
System zählenden Teilchen. Ein solcher Mikrozustand ( q → , p → ) {\displaystyle
({\vec {q}},{\vec {p}})} {\displaystyle ({\vec {q}},{\vec {p}})} ist demnach ein
Punkt in einem 6N-dimensionalen Raum, der in diesem Zusammenhang Phasenraum genannt
wird. Die kanonischen Gleichungen der klassischen Mechanik beschreiben die
zeitliche Evolution des Systems, die Phasentrajektorie. Alle unter gegebenen
makroskopischen Randbedingungen, wie z. B. Gesamtenergie E {\displaystyle E} E,
Volumen V {\displaystyle V} V und Teilchenzahl N {\displaystyle N} N, erreichbaren
Phasenpunkte bilden ein zusammenhängendes Phasenraumvolumen Ω {\displaystyle \Omega
} \Omega .

Um 1880 konnte Ludwig Boltzmann auf mikroskopischer Ebene eine Größe finden, die
die Definition der thermodynamischen Entropie erfüllt:

S = k B ln Ω {\displaystyle S=k_{\mathrm {B} }\ln \,\Omega } S=k_{{\mathrm


{B}}}\ln \,\Omega

Die Konstante k B {\displaystyle k_{\mathrm {B} }} k_{\mathrm {B} } ist die


Boltzmannkonstante. Die Entropie ist also proportional zum Logarithmus des zu den
Werten der thermodynamischen Variablen gehörigen Phasenraumvolumens.

Eine äquivalente Formel lautet

S = − k B ∫ w ln ⁡( w ) d Ω {\displaystyle S=-k_{\mathrm {B} }\int


w\,\ln(w)\mathrm {d} \Omega } {\displaystyle S=-k_{\mathrm {B} }\int
w\,\ln(w)\mathrm {d} \Omega }

(mit w {\displaystyle w} w der Wahrscheinlichkeit für den Mikrozustand bei Kenntnis


der zum thermodynamischen System gehörigen Variablen, und dem Integral über den
Phasenraum). Sie führt – wenn man mit d 3 N q d 3 N p {\displaystyle \mathrm {d}
^{3N}q\;\mathrm {d} ^{3N}p} {\displaystyle \mathrm {d} ^{3N}q\;\mathrm {d} ^{3N}p}
das natürliche Maß auf dem Phasenraum benutzt und die Wahrscheinlichkeit in
Abwesenheit anderer Information als konstant ansieht, ( w = 1 / Ω {\displaystyle
w=1/\Omega } {\displaystyle w=1/\Omega } mit dem Phasenraumvolumen Ω {\displaystyle
\Omega } \Omega , das zu den Werten der thermodynamischen Variablen gehört) –
sofort auf die „Boltzmann-Formel“ (da die Integration unabhaengig von w
{\displaystyle w} w ist: S = − k B w ln ⁡( w ) ∫ d Ω = k B ln Ω {\displaystyle S=-
k_{\mathrm {B} }w\,\ln(w)\mathrm {\int } d\Omega =k_{\mathrm {B} }\ln \,\Omega }
{\displaystyle S=-k_{\mathrm {B} }w\,\ln(w)\mathrm {\int } d\Omega =k_{\mathrm
{B} }\ln \,\Omega } und w = 1 / Ω = const {\displaystyle w=1/\Omega
={\text{const}}} {\displaystyle w=1/\Omega ={\text{const}}}). Ihre Ähnlichkeit mit
Shannons Ausdruck für die Information legt nahe, die Entropie als das
Informationsdefizit über den Mikrozustand zu interpretieren, das mit der Kenntnis
der makroskopischen Variablen verbunden ist. Je größer die Entropie ist, desto
weniger weiß man über den mikroskopischen Zustand, desto weniger Informationen sind
über das System bekannt.

Letzteres wurde von E.T. Jaynes unter dem Stichwort „informationstheoretische


Entropie“ zu einem Konzept ausgearbeitet, die Entropie als epistemische (er nannte
es „anthropomorph“) Größe zu verstehen. Etwa in folgendem Zitat:

“For example, I have been asked several times whether, in my opinion, a


biological system, say a cat, which converts inanimate food into a highly organized
structure and behavior, represents a violation of the second law. The answer I
always give is that, until we specify the set of parameters which define the
thermodynamic state of the cat, no definite question has been asked!”
„Zum Beispiel bin ich mehrmals gefragt worden, ob meiner Meinung nach ein
biologisches System, etwa eine Katze, die unbelebte Nahrung in hoch organisierte
Struktur und Verhalten verwandelt, eine Verletzung des zweiten Hauptsatzes
darstellt. Die Antwort, die ich immer gebe, ist, dass, solange wir den Satz an
Parametern, die den thermodynamischen Zustand der Katze festlegen, nicht
spezifizieren, keine eindeutige Frage gestellt wurde.“

– E. T. Jaynes[16]

Es wird deutlich, dass die Entropie – wie überhaupt ein thermodynamisches System –
erst durch eine Auswahl an Variablen definiert und von diesen abhängig ist. Einem
Mikrozustand kann sie nicht zugeordnet werden. Kritisiert wird daran, dass hier die
Entropie den Rang einer subjektiven Größe zu haben scheint, was in einer objektiven
Naturbeschreibung nicht angemessen ist.
Beweis des zweiten Hauptsatzes

Vor allem Boltzmann versuchte, den 2. Hauptsatz, (dass die Entropie nur zunehmen
kann), statistisch herzuleiten. Die anschauliche Vorstellung ist die, dass etwa bei
einem Mischungsvorgang etwas sehr Wahrscheinliches passiert, während der umgekehrte
Vorgang einer Entmischung sehr unwahrscheinlich wäre. Dies galt es mathematisch zu
präzisieren, mit seinem H-Theorem hatte er hier einen Teilerfolg. Allerdings wird
mit dem „Loschmidtschen Umkehreinwand“ verdeutlicht, dass mikroskopisch jeder
Vorgang genauso rückwärts laufen könnte und daher ein zeitgerichtetes Gesetz
mikroskopisch grundsätzlich nicht hergeleitet werden kann. Auch der Wiederkehrsatz
stellt die Möglichkeit eines solchen Gesetzes in Frage.

Im informationstheoretischen Konzept verstanden bedeutet der 2. Hauptsatz, dass die


Information über den Mikrozustand bei Beobachtung der makroskopischen Variablen nur
abnehmen kann. Hier ist der Beweis viel einfacher möglich:

Nach dem Satz von Liouville bleibt das Phasenraumvolumen der mit einem Anfangswert
der thermodynamischen Variablen verbundenen Mikrozustände bei der Zeitentwicklung
konstant.[17] Wenn man noch voraussetzt, dass die Beschreibung durch die
thermodynamischen Variablen eindeutig ist, das heißt alle Mikrozustände
makroskopisch gesehen beim selben Endzustand landen, kann also das
Phasenraumvolumen der mit diesem Endwert der thermodynamischen Variablen
verbundenen Mikrozustände nicht kleiner sein als das anfängliche Phasenraumvolumen.
Es kann aber größer sein, da nicht notwendigerweise alle Mikrozustände
„angesteuert“ werden. Die Entropie kann also nur zunehmen.

Man kann das anders formulieren. Man unterscheidet zwischen von Neumann oder "fine-
grained" oder "entanglement" Entropie (also der von Mikrophysik, d. h.
wellenmechanisch korrelierten Systemen) und thermischer Entropie (also der Entropie
in klassischer, makroskopischer Thermodynamik, auch genannt "coarse-grained"
Entropie). Ohne Korrelation ist die entanglement Entropie ( S = k B ln ⁡N
{\displaystyle S=k_{B}\ln N} {\displaystyle S=k_{B}\ln N}) null (jeweils nur ein
Zustand, N = 1 , {\displaystyle N=1,} {\displaystyle N=1,} der "reine Zustand").
Mit entanglement (Korrelation) stehen mehr Zustände zur Verfügung, und die
entanglement Entropie ist größer als null. In der Makrophysik betrachtet man
Phasenraumbereiche, wie das Kugelvolumen ("coarse-graining") um einen Punkt, also
nicht einzelne Punkte bzw. Mikrozustände. Der mit Anfangsbedingungen definierte
Bereich des Phasenraums eines Systems wird demzufolge von Kugelvolumen bedeckt, die
mehr Phasenraumpunkte umfassen als im mikroskopischen Anfangszustand. Damit ist die
"fine-grained" Entropie immer kleiner als die "coarse-grained" Entropie. Dies ist
die Aussage des 2. Hauptsatzes. Als Information bezeichnet man die Differenz
zwischen coarse-grained Entropie und fine-grained Entropie. Details findet man im
Buch von Susskind und Lindesay.[18]

Die zeitliche Asymmetrie des zweiten Hauptsatzes betrifft hier also die Kenntnis
des Systems, nicht die Ontologie des Systems selbst. Dadurch werden die
Schwierigkeiten, aus einer bezüglich Zeitumkehr symmetrischen Theorie ein
asymmetrisches Gesetz zu erhalten, vermieden. Allerdings geht in den Beweis auch
die Eindeutigkeit der thermodynamischen Beschreibung ein, die auf stochastischen
Argumenten beruht. Um die zeitliche Asymmetrie des Weltgeschehens zu verstehen, ist
weiterhin ein Bezug zum Anfangszustand des Universums nötig.
Entropie als „Maß der Unordnung“
Das Bild stellt vereinfacht die Zustände eines Systems dar, bei dem vier Atome
jeweils entweder auf der rechten oder der linken Seite eines Behälters sein können.
Die Spalten sind nach der Gesamtzahl der Teilchen auf der rechten bzw. linken Seite
sortiert. W gibt dabei die Anzahl der Möglichkeiten in der jeweiligen Kategorie an
und ist das im vorigen Abschnitt als Ω {\displaystyle \Omega } \Omega bezeichnete
Phasenraumvolumen.

Eine anschauliche, aber wissenschaftlich nicht exakte Deutung der Entropie ist es,
sie als Maß der Unordnung zu verstehen, siehe z. B. das Chemiebuch von Holleman-
Wiberg.[19] Insbesondere beim Betrachten des Bechers im Beispiel über Mischentropie
sieht das rechte Bild mit der vollständigen Vermischung für die meisten
ordentlicher aus, als das linke mit den Schlieren, weshalb es dann unverständlich
erscheint, dieses als den unordentlicheren Zustand mit höherer Entropie zu
bezeichnen.

Diese Definition lässt sich allerdings anhand des rechts stehenden Bildes[20] mit
den bisherigen Definitionen in Einklang bringen. Das Bild stellt einen Behälter
dar, in dem sich vier Atome befinden, die entweder auf der rechten oder auf der
linken Seite des Behälters sein können. Wenn man annimmt, dass alle 16 Zustände
gleich wahrscheinlich sind, sind die Wahrscheinlichkeiten, für die einzelnen
Spalten gerade mit p = W 16 {\displaystyle p={\frac {W}{16}}} {\displaystyle
p={\frac {W}{16}}} gegeben, wobei das W {\displaystyle W} W aus dem Bild gerade die
Anzahl der Zustände in den jeweiligen Spalten bezeichnet.

Nehmen wir nun an, dass wir makroskopisch unterscheiden könnten, wie viele Atome
sich auf der linken Seite befinden. Die erste Spalte hat N = 4 Atome links, die
zweite hat N = 3 Atome links usw. Die Wahrscheinlichkeit, dass sich alle vier Atome
auf der linken Seite befinden, wäre als Beispiel daher gerade p = 1 16
{\displaystyle p={\frac {1}{16}}} {\displaystyle p={\frac {1}{16}}}, während die
mittlere Spalte eine höhere Wahrscheinlichkeit von p = 6 16 {\displaystyle p={\frac
{6}{16}}} {\displaystyle p={\frac {6}{16}}} besitzt. Mit der Formel S = k B ln W
{\displaystyle S=k_{\mathrm {B} }\ln \,W} {\displaystyle S=k_{\mathrm {B} }\ln \,W}
hat der makroskopische Zustand mit N = 2 also die höchste Entropie.

In diesem Bild erkennt man nun aber auch deutlich, dass die erste und letzte Spalte
ordentlicher sind als die dazwischenliegenden Fälle mit höherer Entropie. Es können
nun folgende Feststellungen gemacht werden: wenn alle 16 Zustände gleich
wahrscheinlich sind und man beginnt mit dem Zustand N = 4, ist es sehr
wahrscheinlich, bei der nächsten Betrachtung einen der Zustände höherer Entropie
vorzufinden. Allerdings kann das System auch von der mittleren Spalte in die erste
oder letzte übergehen; es ist nur unwahrscheinlicher, den Zustand N = 4 mit
niedriger Entropie vorzufinden als den Zustand mit N = 2. In diesem rein
statistischen Sinne kann das System also auch spontan in einen Zustand niedrigerer
Entropie wechseln, es ist nur unwahrscheinlich, dass er das tut.

Dies ist immer noch der Fall, wenn man 10 23 {\displaystyle 10^{23}} 10^{{23}}
Atome in einem Behälter betrachtet. Die Wahrscheinlichkeit, dass diese spontan in
den Zustand niedrigerer Entropie wechseln, bei dem sich alle Atome links befinden
ist nicht auszuschließen, aber sehr unwahrscheinlich.
Entropie als mengenartige Größe

In manchen Lehrwerken zur Physik, insbesondere denen des Karlsruher Physikkurses,


wird eine Vorstellung der Entropie als eine mengenartige, extensive Größe in den
Vordergrund gestellt. Mengenartige Größen können fließen oder in Körpern enthalten
sein. Für manche mengenartige Größen gilt ein Erhaltungssatz, für die Entropie aber
nicht. Von zwei ansonsten gleichen Körpern enthält derjenige mehr Entropie, dessen
Temperatur höher ist. Fasst man zwei Körper zu einem einzigen System zusammen, ist
die Gesamtentropie die Summe der Entropien beider Körper.[11][21]

Stehen zwei Körper unterschiedlicher Temperatur miteinander in wärmeleitendem


Kontakt, verursacht die Temperaturdifferenz einen Entropiestrom. Aus dem wärmeren
Körper fließt Entropie ab, wodurch sich dessen Temperatur absenkt. Der kältere
Körper nimmt diese Entropie (und die zusätzlich in diesem Prozess neu erzeugte
Entropie) auf, wodurch seine Temperatur steigt. Der Prozess kommt zum Erliegen,
wenn die Temperaturen beider Körper gleich geworden sind.

Als mengenartige Größe ist die Entropie zum Beispiel mit der elektrischen Ladung
vergleichbar (für die allerdings ein strikter Erhaltungssatz gilt): Ein geladener
Kondensator enthält elektrische Ladung, und damit auch elektrische Energie. Beim
Entladevorgang fließt über den Stromkreis nicht nur elektrische Ladung von der
einen Kondensatorplatte auf die andere, sondern es fließt auch Energie vom
Kondensator zu einem Verbraucher, wo sie in andere Energieformen umgewandelt werden
kann. Entsprechend wird bei der Wärmeübertragung von einem heißen auf einen kalten
Körper außer der thermischen Energie noch eine andere mengenartige Größe
übertragen: die Entropie. Genauso wie der Potentialunterschied zwischen den
Kondensatorplatten – sprich: die elektrische Spannung – den elektrischen Strom
antreibt, sorgt der Temperaturunterschied zwischen den beiden Reservoirs für einen
Entropiestrom. Befindet sich zwischen den beiden Körpern eine Wärmekraftmaschine,
kann ein Teil der Wärme in eine andere Energieform umgewandelt werden. Die
Wärmeübertragung lässt sich also rein formal analog zu einem elektrischen
Stromkreis beschreiben, wobei allerdings die während des Vorgangs neu erzeugte
Entropie zusätzlich zu berücksichtigen ist.[11][22]

Eine Energieübertragung – also die Arbeit W {\displaystyle W} W oder die Wärme Q


{\displaystyle Q} Q – lässt sich als das Produkt aus der Änderung einer
mengenartigen extensiven Größe mit einer konjugierten intensiven Größe schreiben.
Beispiele für solche Paare sind die elektrische Ladung q {\displaystyle q} q und
das elektrische Potential φ {\displaystyle \varphi } \varphi oder das Volumen und
der (negative) Druck eines Gases. Durch Zufuhr der extensiven Größe steigt (im
Allgemeinen) die intensive Größe. Fügt man beispielsweise eine kleine Ladungsmenge
d q {\displaystyle \mathrm {d} q} {\mathrm d}q einer Kondensatorplatte zu, die sich
auf dem Potential φ {\displaystyle \varphi } \varphi befindet, verrichtet man an
der Kondensatorplatte die Arbeit δ W = φ d q {\displaystyle \delta W=\varphi
\,\mathrm {d} q} {\displaystyle \delta W=\varphi \,\mathrm {d} q} und erhöht damit
das Potential der Platte. Entsprechendes gilt auch für andere Größenpaare. Für
thermische Vorgänge entspricht nun die Temperatur dem Potential und die Entropie
der Ladung: Wenn man einem Körper die Entropiemenge d S {\displaystyle \mathrm {d}
S} \mathrm d S hinzufügt, wird die Wärme δ Q = T d S {\displaystyle \delta
Q=T\,\mathrm {d} S} {\displaystyle \delta Q=T\,\mathrm {d} S} übertragen und es
steigt (außer bei Phasenumwandlung) die Temperatur T {\displaystyle T} T.[11]

Die Entropie ist zwar keine Erhaltungsgröße wie die elektrische Ladung, denn
Entropie kann erzeugt werden. Nach dem zweiten Hauptsatz der Thermodynamik kann sie
aber nicht vernichtet werden. Es gilt also Δ S ≥ 0 {\displaystyle \Delta S\geq
0} \Delta S\geq 0. Solange in einem abgeschlossenen System die Entropie gleich
bleibt ( Δ S = 0 ) {\displaystyle (\Delta S=0)} (\Delta S=0), sind alle Vorgänge,
die sich in dem System abspielen, umkehrbar (= reversibel). Sobald jedoch Entropie
erzeugt wird ( Δ S > 0 ) {\displaystyle (\Delta S>0)} (\Delta S>0), was z. B. durch
Reibung, durch Erwärmung eines ohmschen Widerstandes oder durch Mischungsvorgänge
geschehen kann, gibt es kein Zurück mehr, ohne dass durch äußeres Zutun Entropie
abfließen kann. Man spricht dann von irreversiblen Vorgängen.
Eine weitere Besonderheit der Entropie ist, dass man einem Körper nicht beliebig
viel Entropie entziehen kann. Während man der Platte eines Kondensators Ladung
zuführen und wegnehmen kann, wodurch das Potential positiv oder negativ wird, gibt
es für die Entropieentnahme eine natürliche Grenze, nämlich den absoluten Nullpunkt
der Temperatur. Insbesondere kann die absolute Temperatur nie negativ werden.
Anwendungsbeispiele
Mischung von warmem und kaltem Wasser

Die Zunahme der Entropie wird an einem System, das mit der Umgebung weder Masse
noch Energie austauscht (abgeschlossenes System), durch die Vermischung von zwei
Wassermengen unterschiedlicher Temperatur gezeigt. Da es sich um einen isobaren
Vorgang handelt, wird für die Energiebilanz die Zustandsgröße Enthalpie verwendet.

Zustandsgrößen für Wasser nach den Gleichungen aus: Properties of Water and Steam
Industrie-Standard IAPWS-IF97

System10: Masse m10 = 1 kg, Druck = 1 bar, Temperatur = 10 °C, Enthalpie h10 =
42,12 kJ/kg, Entropie s10 = 151,1 J/kg K; System30: Masse m30 = 1 kg, Druck = 1
bar, Temperatur = 30 °C, Enthalpie h30 = 125,83 kJ/kg, Entropie s30 = 436,8 J/kg K

Irreversible Mischung

Der thermodynamische Zustand der irreversiblen Mischung (adiabat, keine Abgabe von
Arbeit) ergibt sich aus dem Energieerhaltungssatz:

HM = H10 + H30, hM = (m10*h10 + m30*h30)/(m10 + m30), hM = 83,97 kJ/kg

Mit den Zustandsgrößen Enthalpie und Druck ergeben sich weitere Zustandsgrößen des
Mischungszustandes:

Temperatur tM = 19,99 °C (293,14 K), Entropie sM = 296,3 J/kg K

Reversible Mischung

Bei einer reversiblen Vermischung (dSirr = 0) nimmt die Entropie des Gesamtsystems
nicht zu, sie ergibt sich aus der Summe der Entropien der Teilsysteme:

SM = S10 + S30 + dSirr, sM = 293,9 J/kg K

Mit den Zustandsgrößen Entropie und Druck ergeben sich weitere Zustandsgrößen des
Mischungszustandes:

Temperatur tM = 19,82 °C (292,97 K), Enthalpie hM = 83,26 kJ/kg

Das Gesamtsystem ist in diesem Fall nicht mehr abgeschlossen, sondern tauscht mit
der Umgebung Arbeit aus.

Differenzen zwischen irreversibler und reversibler Mischung: Entropie: 2,4 J/kg K,


Enthalpie: 0,71 kJ/kg, Temperatur: 0,17 K

Nach der irreversiblen Mischung ist die Entropie des Gesamtsystems um 2,4 J/kg K
größer als beim reversiblen Vorgang. Die reversible Mischung könnte durch den
Einsatz einer Carnot-Maschine erreicht werden. Dabei würde dem Teilsystem mit der
höheren Temperatur eine unendlich kleine Menge Energie entnommen. In Form von Wärme
wird diese Energie an der Systemgrenze bei einer unendlich kleinen
Temperaturdifferenz an die Carnot-Maschine übertragen. Auf entsprechende Weise wird
die Energie dem Teilsystem mit der tieferen Temperatur zugeführt. Die Temperaturen
der beiden Teilsysteme würden sich dadurch immer weiter angleichen und der Carnot-
Faktor der Maschine von anfänglich 0,066 gegen Null streben. Die Carnot-Maschine
würde dabei dem Gesamtsystem die sonst entwertete Enthalpiedifferenz von 0,71 kJ/kg
als mechanische Arbeit entnehmen. Im irreversiblen Fall entspricht diese Energie
der innerhalb des Systems dissipierten Arbeit entsprechend Gleichung (3). Durch die
dissipierte Arbeit wird die produzierte Entropie vom absoluten Nullpunkt auf die
Temperatur von 19,99 °C angehoben.
Mischungsentropie
Die Mischungsentropie charakterisiert den „gut durchmischten“ Zwei-Flüssigkeits-
Zustand im rechten Glas
→ Hauptartikel: „Mischungsentropie eines idealen Gasgemischs“ im Artikel Ideales
Gas

Das Bild rechts zeigt die Mischung einer braunen Farbe in Wasser. Zu Beginn ist die
Farbe ungleichmäßig verteilt. Nach längerem Warten nimmt das Wasser eine
gleichmäßige Färbung an.

Die Entropie ist ein Maß der Unwissenheit, d. h. der Unkenntnis darüber, in welchem
mikroskopischen Zustand sich das betrachtete System befindet. Als Maß der Unordnung
muss man auf die Begrifflichkeit achten. So ist im Bildbeispiel die Flüssigkeit im
rechten Glas zwar „ordentlicher“ verrührt, aber durch die große Durchmischung von
Wasser- und Farbteilchen herrscht dort eine größere Unordnung. Es gibt dort mehr
mikroskopisch mögliche Zustände, in denen das Glas sein könnte. Mithin ist dort die
Entropie höher als im linken Glas. Von der Farbe wissen wir, dass sie im rechten
Glas überall im Wasser verteilt ist. Das linke Bild sagt uns mehr. Wir können
Bereiche ausmachen, in denen Farbe in hoher Konzentration anzutreffen ist, oder
Bereiche, die frei sind von Farbe.

Josiah Willard Gibbs wies auf den Widerspruch hin, dass der Entropiezuwachs auch
auftreten sollte, wenn statt der Tinte Wasser ins Wasserglas gegossen wird
(Gibbssches Paradoxon).

Die Zahl der Anordnungen der Farbmoleküle am Anfang ist deutlich geringer als die,
wenn sich die Farbe im gesamten Volumen verteilen kann. Denn die Farbmoleküle sind
nur auf wenige Bereiche konzentriert. Im rechten Bild können sie sich im gesamten
Glas aufhalten. Die Entropie ist hier größer, weshalb das System im Laufe der Zeit
dieser Gleichverteilung zustrebt.[23]
Entropiezunahme bei irreversibler und reversibler isothermer Expansion

Es gibt zwei Experimente, in denen, vom gleichen Anfangszustand ausgehend, über


eine isotherme Expansion der gleiche Endzustand erreicht wird und bei Vergrößerung
des Volumens dieselbe Entropieänderung eintritt. Eines ist der Gay-Lussac-Versuch,
er dient als Modell für die Vorstellung des Entropiebegriffs nach Boltzmann. Das
zweite Experiment, an dem man die Formulierung der Entropie nach Clausius
nachvollziehen kann, ist die isotherme Ausdehnung im ersten Schritt des Carnot-
Zyklus.
Irreversible Expansion, thermodynamisch
Gay-Lussac-Versuch. Der Versuch mit einem idealen Gas in einem abgeschlossenen
System zeigt, dass sich nach dem Druck- und Temperaturausgleich die
Anfangstemperatur einstellt ( t 2 = t 1 {\displaystyle t_{2}=t_{1}} t_2 = t_1)

Die nebenstehende Abbildung zeigt das Überströmexperiment von Gay-Lussac. Wenn man
von einem ideal abgeschlossenen System ausgeht, besagt der erste Hauptsatz der
Thermodynamik, dass sich die Gesamtenergie des Systems nicht ändert ( d U = 0
{\displaystyle \mathrm {d} U=0} \mathrm{d}U=0). Für ein ideales Gas gilt daher,
dass beim Überströmen in ein größeres Volumen insgesamt keine Temperaturänderung
stattfindet.

Da die Entropie eine Zustandsgröße ist, ist sie wegunabhängig. Anstatt den Hahn zu
öffnen, kann man sich auch vorstellen, dass das Gas langsam expandiert, indem es
eine Trennwand nach rechts schiebt. Für eine infinitesimale Verschiebung vergrößert
sich das Volumen um d V {\displaystyle \mathrm {d} V} \mathrm {d} V, die Entropie
steigt um d S = δ Q T {\displaystyle \mathrm {d} S={\frac {\delta Q}{T}}}
{\displaystyle \mathrm {d} S={\frac {\delta Q}{T}}}. Aus dem ersten Hauptsatz d U =
δ Q + δ W {\displaystyle \mathrm {d} U=\delta Q+\delta W} \mathrm{d}U = \delta Q
+ \delta W folgt wegen d U = 0 {\displaystyle \mathrm {d} U=0} \mathrm{d}U = 0,
dass sämtliche vom Gas geleistete Expansionsarbeit ihm wieder in Form von Wärme
zugutekommen muss. Es gilt also δ Q = − δ W {\displaystyle \delta Q=-\delta W}
{\displaystyle \delta Q=-\delta W}. Daraus ergibt sich δ Q = − ( − p d V )
{\displaystyle \delta Q=-(-p\mathrm {d} V)} {\displaystyle \delta Q=-(-p\mathrm {d}
V)} und somit

d S = p T d V {\displaystyle \mathrm {d} S={\frac {p}{T}}\mathrm {d} V}


{\mathrm {d}}S={\frac {p}{T}}{\mathrm {d}}V

Aus der Zustandsgleichung für ideale Gase ( N {\displaystyle N\,} N\, ist die
Anzahl der Gasatome):

p = k B N T V {\displaystyle p={\frac {k_{\mathrm {B} }NT}{V}}} p={\frac


{k_{{\mathrm {B}}}NT}{V}}

folgt:

d S = k B N V d V {\displaystyle \mathrm {d} S={\frac {k_{\mathrm {B} }N}


{V}}\mathrm {d} V} {\mathrm {d}}S={\frac {k_{{\mathrm {B}}}N}{V}}{\mathrm {d}}V.

Hieraus ergibt sich durch Integration:

Δ S = ∫ S 1 S 2 d S = ∫ V 1 V 2 k B N V d V = k B N ln ⁡( V 2 / V 1 )
{\displaystyle \Delta S=\int _{S_{1}}^{S_{2}}\mathrm {d} S=\int _{V_{1}}^{V_{2}}
{\frac {k_{\mathrm {B} }N}{V}}\mathrm {d} V=k_{\mathrm {B} }N\ln(V_{2}/V_{1})}
{\displaystyle \Delta S=\int _{S_{1}}^{S_{2}}\mathrm {d} S=\int _{V_{1}}^{V_{2}}
{\frac {k_{\mathrm {B} }N}{V}}\mathrm {d} V=k_{\mathrm {B} }N\ln(V_{2}/V_{1})}.

Für ein Mol eines Gases ergibt sich bei Verdopplung des Volumens

Δ S = 1 m o l ⋅ N A k B ln ⁡2 = 5 , 76 J / K {\displaystyle \Delta S=1\,\mathrm


{mol} \cdot N_{\mathrm {A} }k_{\mathrm {B} }\ln 2=5{,}76\,\mathrm {J/K} }
{\displaystyle \Delta S=1\,\mathrm {mol} \cdot N_{\mathrm {A} }k_{\mathrm {B} }\ln
2=5{,}76\,\mathrm {J/K} }

durch Einsetzen von Zahlenwerten für die Boltzmannkonstante k B = 1,380 7 ⋅ 10 − 23


J / K {\displaystyle k_{\mathrm {B} }=1{,}3807\cdot 10^{-23}\,\mathrm {J/K} }
k_{{\mathrm {B}}}=1{,}3807\cdot 10^{{-23}}\,{\mathrm {J/K}} und Avogadro-Zahl N A =
6,022 0 ⋅ 10 23 m o l − 1 {\displaystyle N_{\mathrm {A} }=6{,}0220\cdot
10^{23}\,\mathrm {mol} ^{-1}} {\displaystyle N_{\mathrm {A} }=6{,}0220\cdot
10^{23}\,\mathrm {mol} ^{-1}}.
Irreversible Expansion, statistisch

Die Überlegung geht vom Überströmversuch nach Gay-Lussac aus. Ein Hahn wird
geöffnet und ein ideales Gas breitet sich spontan über das doppelte Volumen aus.
Nach Boltzmann erhält man über die statistischen Gewichte (=Anzahl der
Mikrozustände) vor und nach der Expansion die jeweils entsprechenden Entropiewerte:
Sind n {\displaystyle n\,} n\, Moleküle auf zwei Raumhälften so verteilt, dass sich
in der einen Hälfte n 1 {\displaystyle n_{1}} n_{1} und in der anderen n 2
{\displaystyle n_{2}} n_{2} Moleküle befinden, dann ist das statistische Gewicht
dieses Makrozustands

W ( n 1 , n 2 ) = n ! n 1 ! n 2 ! {\displaystyle W(n_{1},n_{2})={\frac {n!}


{n_{1}!\,n_{2}!}}} W(n_{1},n_{2})={\frac {n!}{n_{1}!\,n_{2}!}}

und die Entropie dieses Zustands S ( n 1 , n 2 ) = k B ⋅ ln W {\displaystyle


S(n_{1},n_{2})=k_{\mathrm {B} }\cdot \ln \,W} S(n_{1},n_{2})=k_{{\mathrm {B}}}\cdot
\ln \,W. Befindet sich ein ganzes Mol ( n = N A {\displaystyle n=N_{\mathrm {A} }}
n = N_\mathrm{A}) in einer Hälfte (und in der anderen nichts), dann ist

W ( N A , 0 ) = N A ! N A ! 0 ! = 1 {\displaystyle W(N_{\mathrm {A} },0)={\frac


{N_{\mathrm {A} }!}{N_{\mathrm {A} }!\,0!}}=1} W(N_{{\mathrm {A}}},0)={\frac
{N_{{\mathrm {A}}}!}{N_{{\mathrm {A}}}!\,0!}}=1

und die Entropie

S ( N A , 0 ) = k B ⋅ ln ⁡1 = 0 {\displaystyle S(N_{\mathrm {A} },0)=k_{\mathrm


{B} }\cdot \ln 1=0} {\displaystyle S(N_{\mathrm {A} },0)=k_{\mathrm {B} }\cdot \ln
1=0}.

Bei gleichmäßiger Aufteilung wird

W ( N A 2 , N A 2 ) = 6 ⋅ 10 23 ! 3 ⋅ 10 23 ! 3 ⋅ 10 23 ! {\displaystyle
W\left({\frac {N_{\mathrm {A} }}{2}},{\frac {N_{\mathrm {A} }}{2}}\right)={\frac
{6\cdot 10^{23}!}{3\cdot 10^{23}!\,3\cdot 10^{23}!}}} W\left({\frac {N_{{\mathrm
{A}}}}{2}},{\frac {N_{{\mathrm {A}}}}{2}}\right)={\frac {6\cdot 10^{{23}}!}{3\cdot
10^{{23}}!\,3\cdot 10^{{23}}!}}.

Die Fakultät kann man mit der Stirling-Formel annähern, wobei man sich auf n ! ≈ n
n {\displaystyle n!\approx n^{n}} n! \approx n^n beschränken kann. Der Logarithmus
von n n {\displaystyle n^{n}} n^n ist n ⋅ ln n {\displaystyle n\cdot \ln \,n}
n\cdot \ln \,n. Damit wird

ln ⁡( 6 ⋅ 10 23 ! ) ≈ 6 ⋅ 10 23 ⋅ ln ( 6 ⋅ 10 23 ) {\displaystyle \ln(6\cdot
10^{23}!)\approx 6\cdot 10^{23}\cdot \ln \,(6\cdot 10^{23})} {\displaystyle
\ln(6\cdot 10^{23}!)\approx 6\cdot 10^{23}\cdot \ln \,(6\cdot 10^{23})}

und

ln ⁡[ W ( N A 2 , N A 2 ) ] ≈ 6 ⋅ 10 23 ⋅ ln ⁡( 6 ⋅ 10 23 ) − 2 ⋅ 3 ⋅ 10 23 ⋅
ln ⁡( 3 ⋅ 10 23 ) = 6 ⋅ 10 23 ⋅ ( ln ⁡6 − ln ⁡3 ) {\displaystyle \ln
\left[W\left({\frac {N_{\mathrm {A} }}{2}},{\frac {N_{\mathrm {A} }}
{2}}\right)\right]\approx 6\cdot 10^{23}\cdot \ln(6\cdot 10^{23})-2\cdot 3\cdot
10^{23}\cdot \ln(3\cdot 10^{23})=6\cdot 10^{23}\cdot (\ln 6-\ln 3)}
{\displaystyle \ln \left[W\left({\frac {N_{\mathrm {A} }}{2}},{\frac {N_{\mathrm
{A} }}{2}}\right)\right]\approx 6\cdot 10^{23}\cdot \ln(6\cdot 10^{23})-2\cdot
3\cdot 10^{23}\cdot \ln(3\cdot 10^{23})=6\cdot 10^{23}\cdot (\ln 6-\ln 3)} .

Man erhält für die Entropie nach der Expansion

S = k B ⋅ ln ⁡[ W ( N A 2 , N A 2 ) ] = 5 , 76 J / K {\displaystyle
S=k_{\mathrm {B} }\cdot \ln \left[W\left({\frac {N_{\mathrm {A} }}{2}},{\frac
{N_{\mathrm {A} }}{2}}\right)\right]=5{,}76\,\mathrm {J/K} } {\displaystyle
S=k_{\mathrm {B} }\cdot \ln \left[W\left({\frac {N_{\mathrm {A} }}{2}},{\frac
{N_{\mathrm {A} }}{2}}\right)\right]=5{,}76\,\mathrm {J/K} }.
Δ S = 5 , 76 J / K − 0 = 5 , 76 J / K {\displaystyle \Delta S=5{,}76\,\mathrm
{J/K} -0=5{,}76\,\mathrm {J/K} } {\displaystyle \Delta S=5{,}76\,\mathrm {J/K}
-0=5{,}76\,\mathrm {J/K} }.

Da die Teilchen keine Anziehungskräfte besitzen und die Wände des Gefäßes starr
sind, wird keine Arbeit geleistet, auch nicht gegen einen äußeren Luftdruck. Die
Moleküle prallen zwar gegen die Wand und werden reflektiert, verlieren dabei jedoch
keine Energie. Das System ist während des Überströmens nicht im Gleichgewicht.
Reversible isotherme Expansion

Das zweite Experiment entspricht der isothermen Ausdehnung im ersten Schritt des
Carnot-Zyklus. Wärme wird von außen auf die Substanz übertragen. Damit wird Arbeit
geleistet, indem die ihr entsprechende Energie im Lauf der Expansion abgegeben wird
an eine angeschlossene Mechanik, die sie als potenzielle Energie extern speichert.
Davon verbleibt nichts im Medium und das System ist stets im Gleichgewicht. Der
Vorgang ist umkehrbar. Clausius hat nun die Änderung der Entropie unter
Einbeziehung dieser zugeführten Wärme formuliert als Δ S = Q r e v T {\displaystyle
\Delta S={\frac {Q_{\mathrm {rev} }}{T}}} {\displaystyle \Delta S={\frac
{Q_{\mathrm {rev} }}{T}}}. Mit Q r e v {\displaystyle Q_{\mathrm {rev} }}
{\displaystyle Q_{\mathrm {rev} }} = n R T ⋅ ln ⁡V 2 V 1 {\displaystyle
=nRT\cdot \ln {\frac {V_{\mathrm {2} }}{V_{\mathrm {1} }}}} {\displaystyle
=nRT\cdot \ln {\frac {V_{\mathrm {2} }}{V_{\mathrm {1} }}}} erhält man im
reversiblen Fall für ein Mol ebenfalls Δ S = 5 , 76 J / K {\displaystyle \Delta
S=5{,}76\,\mathrm {J/K} } {\displaystyle \Delta S=5{,}76\,\mathrm {J/K} }.
Numerische Äquivalenz der Ergebnisse

Zur Boltzmann-Konstanten k B {\displaystyle k_{\mathrm {B} }} k_{\mathrm {B} }: In


der Überlegung nach Boltzmann anhand des Überströmversuchs kommt erst einmal weder
eine Wärme noch eine Temperatur vor, also keine dimensionsbehaftete Größe, sondern
nur der Logarithmus dimensionsloser statistischer Gewichte, ln ⁡W {\displaystyle
\ln W} {\displaystyle \ln W}. Da aber die Entropieänderung dieselbe ist (gleicher
Anfangs- und Endzustand; Zustandsfunktion) wie im reversiblen Fall, führte Planck
die Konstante k B {\displaystyle k_{\mathrm {B} }} k_\mathrm B ein. Mit ihr erhält
man für die Änderung der Entropie bei der irreversiblen isothermen Expansion
dasselbe numerische Ergebnis mit der gleichen Einheit J/K wie für die reversible
aus dem Experiment, bei dem Wärme zugeführt wird. Dies ist im realen Experiment
allerdings erst dann der Fall, wenn das System das Gleichgewicht, also das maximale
statistische Gewicht nach der Boltzmann-Verteilung erreicht hat.[24]
Biomembranen

Gibt man Lipide, bei Lebewesen beispielsweise als Bausteine der Biomembranen
vorkommend, in Wasser, so bilden sich spontan geschlossene Membranstrukturen,
sogenannte Vesikel. Da hier Temperatur und Druck gegeben sind (Wärmebad und
Druckensemble) ist das thermodynamische Potential, das ein Minimum anstrebt die
freie Enthalpie Δ G = Δ H − T Δ S {\displaystyle \Delta G=\Delta H-T\Delta S}
\Delta G = \Delta H - T\Delta S. Die Enthalpie Δ H {\displaystyle \Delta H} \Delta
H lässt sich experimentell nachweisen, ist also messbar und ist positiv. Da der
Prozess spontan abläuft, muss aber Δ G {\displaystyle \Delta G} \Delta G negativ
sein; d. h., die Entropie muss steigen. Dies ist auf den ersten Blick verwirrend,
da die Entropie meistens die Ursache dafür ist, dass sich Stoffe vermischen
(Mischungsentropie). Die Entropiezunahme liegt in einer besonderen Eigenschaft des
Wassers begründet. Es bildet zwischen den einzelnen Wassermolekülen
Wasserstoffbrückenbindungen aus, die ständig fluktuieren und somit einen hohen
Beitrag zur Entropie des Wassers leisten. Um die langen Fettsäureketten der Lipide
entsteht bei Lösung in Wasser ein größerer Bereich, in dem keine
Wasserstoffbrückenbindungen mehr gebildet werden können. In den Bereichen um die
Fettsäureketten herum fehlt der Entropiebeitrag der Wasserstoffbrücken, so dass die
Entropie insgesamt abnimmt. Diese Abnahme ist erheblich größer als die durch das
bloße Vermischen des Wassers und des Lipids zu erwartende Zunahme. Wenn sich die
Fettsäureketten zusammenlagern, können mehr Wasserstoffbrücken gebildet werden, und
die Entropie steigt. Man könnte dies auch so formulieren, dass die Fähigkeit des
Wassers, fluktuierende Wasserstoffbrücken zu bilden, die Lipide aus der Lösung
treibt. Letztlich ist diese Eigenschaft auch mit die Ursache für die schlechte
Löslichkeit vieler unpolarer Stoffe, die die Bildung von
Wasserstoffbrückenbindungen stören.
Berechnung und Verwendung tabellierter Entropiewerte
Die molare Entropie Smol bei einer bestimmten Temperatur T2 und bei konstantem
Druck p erhält man mit Hilfe der molaren Wärmekapazität cp(T) durch Integration vom
absoluten Nullpunkt bis zur aktuellen Temperatur:

S m o l = ∫ 0 T 2 {\displaystyle S_{\mathrm {mol} }=\int _{0}^{T_{2}}}


{\displaystyle S_{\mathrm {mol} }=\int _{0}^{T_{2}}} c p T d T = ∫ 0 T 2 c p d
( ln T ) {\displaystyle {\frac {c_{p}}{T}}\ \mathrm {d} T=\int
_{0}^{T_{2}}c_{p}\ \mathrm {d} (\ln \,T)} {\displaystyle {\frac {c_{p}}{T}}\
\mathrm {d} T=\int _{0}^{T_{2}}c_{p}\ \mathrm {d} (\ln \,T)}

Dazu kommen noch Entropieanteile bei Phasenübergängen. Nach Planck wird die
Entropie ideal kristallisierter, reiner Festkörper am absoluten Nullpunkt gleich
null gesetzt (Gemische oder frustrierte Kristalle behalten dagegen eine
Restentropie). Unter Standardbedingungen spricht man von der Standardentropie S0.
Auch nach der statistischen Betrachtungsweise hängen Entropiewert und
Wärmekapazität miteinander zusammen: Eine hohe Wärmekapazität bedeutet, dass ein
Molekül viel Energie speichern kann, und das kann z. B. auf einer großen Zahl
niedrig liegender und daher leicht erreichbarer Energieniveaus beruhen.
Entsprechend viele unterschiedliche Verteilungsmöglichkeiten auf diese Niveaus gibt
es dann auch für die Moleküle und das führt auch auf einen hohen Entropiewert für
den wahrscheinlichsten Zustand.

In elektrochemischen Reaktionen ergibt sich die Reaktionsentropie ∆S aus der


gemessene Änderung von dE (elektromotorische Kraft) mit der Temperatur:

Δ S = z ⋅ F ⋅ ( d E d T ) p {\displaystyle \Delta S=z\cdot F\cdot {\bigg (}


{\frac {\mathrm {d} E}{\mathrm {d} T}}{\bigg )}_{p}} {\displaystyle \Delta S=z\cdot
F\cdot {\bigg (}{\frac {\mathrm {d} E}{\mathrm {d} T}}{\bigg )}_{p}} (z =
Ladungszahl, F = Faraday-Konstante)

Die Entropieänderung bei idealen Mischungen erhält man mit Hilfe der Molenbrüche xi
der beteiligten Substanzen:

Δ S i d = − R ⋅ ∑ i = 1 k x i ⋅ ln x i {\displaystyle \Delta S_{\mathrm


{id} }\ =\ -R\cdot \sum _{i=1}^{k}x_{i}\cdot \ln \,x_{i}} \Delta S_{{{\mathrm
{id}}}}\ =\ -R\cdot \sum _{{i=1}}^{k}x_{i}\cdot \ln \,x_{i}

wobei sich in realen Mischungen noch eine Zusatzentropie durch die Veränderung der
zwischenmolekularen Kräfte beim Mischen ergibt.

Entstehen bei einer chemischen Reaktion neue Moleküle, dann tritt die höchste
Entropie in einem ganz bestimmten Gleichgewichtszustand auf, bei dem sich die
Moleküle sowohl auf die Edukt- wie auch auf die Produktniveaus verteilen können.
Über die folgende Beziehung, in der die Differenzen der Standard-Entropiewerte ∆S0
der beteiligten Substanzen eine wesentliche Rolle spielen, kann die
Gleichgewichtskonstante K berechnet werden:

ln K = − Δ H 0 − T ⋅ Δ S 0 R T {\displaystyle \ln \,K=-{\frac {\Delta H^{0}-


T\cdot \Delta S^{0}}{RT}}} \ln \,K=-{\frac {\Delta H^{0}-T\cdot \Delta S^{0}}{RT}}

(das ∆ bedeutet in diesem Fall die Änderung der Größe bei vollständigem
Reaktionsablauf). Woran man bei einem spontanen Vorgang (z. B. chemischen
Reaktionen, Lösungs- und Mischungsvorgängen, Einstellung von Phasengleichgewichten
und deren Temperaturabhängigkeit, Osmose u. a.) die Intensität dieses Vorgangs
abschätzen kann, das ist die Zunahme der gesamten Entropie zwischen Anfangs- und
Gleichgewichtszustand, die der Reaktanten und die der Umgebung zusammengenommen (→
chemisches Gleichgewicht). Die spontane Zunahme der Entropie wiederum ist eine
Folge der ständigen Bewegung der Moleküle.
Kurz: Die Standard-Entropie von Stoffen kann aus dem Verlauf der Wärmekapazität mit
der Temperatur berechnet werden. Die Kenntnis tabellierter Entropiewerte ermöglicht
(zusammen mit den Reaktionsenthalpien) die Voraussage des chemischen
Gleichgewichts.
Quantenmechanik

In der Quantenstatistik ist ein Mikrozustand ein reiner Zustand, der durch einen
Vektor | n ⟩ {\displaystyle |n\rangle } |n\rangle im Hilbertraum H {\displaystyle
{\mathcal {H}}} \mathcal{H} des Vielteilchensystems gegeben ist. Wie in der
klassischen statistischen Mechanik ist dies ein Raum mit außerordentlich vielen
Dimensionen, selbst wenn dem einzelnen Teilchen nur wenige verschiedene
Energieeigenzustände zur Verfügung stehen. Zum Beispiel gibt es bei der
magnetischen Kernresonanz für jeden Protonenspin nur zwei Energieeigenzustände,
damit aber einen Hilbertraum mit doppelt so vielen Dimensionen, wie Protonen in der
Probe sind (etwa 10 20 {\displaystyle 10^{20}} {\displaystyle 10^{20}} in einem
kleinen Wassertröpfchen). Der zugehörige Makrozustand ist ein gemischter Zustand,
der durch einen statistischen Operator oder auch Dichteoperator beschrieben wird.

Dieser enthält alle Informationen über das System, die durch eine ideale Messung
zugänglich sind (das ist viel weniger als bei dem reinen Zustand | n ⟩
{\displaystyle |n\rangle } |n\rangle, dem Mikrozustand). Der Makrozustand ist
klassisch gegeben durch ein Ensemble von denjenigen Mikrozuständen, die mit | n ⟩
{\displaystyle |n\rangle } |n\rangle bestimmte „typische makroskopische Größen“
gemein haben, wie z. B. Energie, Volumen und Teilchenzahl. Die Verteilung der
Mikrozustände im Phasenraum ist klassisch durch eine Verteilungsfunktion gegeben.
An deren Stelle tritt in der quantenmechanischen Beschreibung der Dichteoperator:

ρ = ∑ i p i | i ⟩ ⟨ i | {\displaystyle \rho =\sum _{i}p_{i}|i\rangle \langle


i|} \rho =\sum _{i}p_{i}|i\rangle \langle i|.

Falls die Zustände | i ⟩ {\displaystyle |i\rangle } |i\rangle alle orthogonal sind,


ist p i {\displaystyle p_{i}} p_{i} die Wahrscheinlichkeit, dass sich das
betrachtete System im „reinen“ quantenmechanischen Zustand | i ⟩ {\displaystyle |
i\rangle } |i\rangle befindet.

Der Erwartungswert einer Observablen auf dem durch den Dichteoperator beschriebenen
Zustandsgemisch ist gegeben durch eine Spurbildung:

⟨ A ⟩ = Tr ( ρ A ) {\displaystyle \langle A\rangle =\operatorname {Tr}


\,\left(\rho A\right)} \langle A\rangle =\operatorname {Tr}\,\left(\rho A\right).

Die Spur eines Operators ist folgendermaßen definiert: Tr ( A ) = ∑ m ⟨ m | A | m ⟩


{\displaystyle \operatorname {Tr} \,(A)=\sum \nolimits _{m}\langle m|A|
m\rangle } \operatorname {Tr}\,(A)=\sum \nolimits _{{m}}\langle m|A|m\rangle für
eine beliebige (vollständige) Basis { | m ⟩ } {\displaystyle \left\{|m\rangle
\right\}} \left\{ |m\rangle\right\}.
Von-Neumann-Entropie

Die Von-Neumann Entropie (nach John von Neumann) ist definiert als Erwartungswert
des Dichteoperators:

S = − Tr ⁡( ρ ln ρ ) = − ⟨ ln ρ ⟩ {\displaystyle S=-\operatorname {Tr}


\left(\rho \ln \,\rho \right)=-\langle \ln \,\rho \rangle } {\displaystyle
S=-\operatorname {Tr} \left(\rho \ln \,\rho \right)=-\langle \ln \,\rho \rangle }.

Multipliziert man diese dimensionslose Von-Neumann-Entropie mit der Boltzmann-


Konstanten k B {\displaystyle k_{\mathrm {B} }} k_{\mathrm {B} }, so erhält man
eine Entropie mit der gewöhnlichen Einheit.
Die Entropie ist über die Wahrscheinlichkeiten der einzelnen reinen
quantenmechanischen Zustände | i ⟩ {\displaystyle |i\rangle } |i\rangle im
Makrozustand gegeben durch

S = − k B Tr ⁡( ρ ln ρ ) = − k B ∑ i p i ln p i ( ∗ ) {\displaystyle S=-
k_{\mathrm {B} }\operatorname {Tr} \left(\rho \ln \,\rho \right)=-k_{\mathrm
{B} }\sum _{i}p_{i}\ln \,p_{i}\qquad (*)} {\displaystyle S=-k_{\mathrm
{B} }\operatorname {Tr} \left(\rho \ln \,\rho \right)=-k_{\mathrm {B} }\sum
_{i}p_{i}\ln \,p_{i}\qquad (*)},

wobei p i {\displaystyle p_{i}} p_{i} die Wahrscheinlichkeit ist, im i-ten


Mikrozustand zu sein. Die Wahrscheinlichkeiten p i {\displaystyle p_{i}} p_{i}
können Werte zwischen 0 {\displaystyle 0} {\displaystyle 0} und 1 {\displaystyle 1}
1 annehmen. (Die Singularität des Logarithmus im Falle p i = 0 {\displaystyle
p_{i}=0} p_i=0 ist unerheblich, weil lim x → 0 x ln x = 0 {\displaystyle \lim
_{x\rightarrow 0}x\ln \,x=0} {\displaystyle \lim _{x\rightarrow 0}x\ln \,x=0}.)
Somit ist p i ln p i ≤ 0 {\displaystyle p_{i}\ln \,p_{i}\leq 0} p_{i}\ln
\,p_{i}\leq 0 und die Entropie S = − k B ∑ i p i ln p i ≥ 0 {\displaystyle S=-
k_{\mathrm {B} }\sum \nolimits _{i}p_{i}\ln \,p_{i}\geq 0} S=-k_{{{\mathrm
{B}}}}\sum \nolimits _{{i}}p_{{i}}\ln \,p_{{i}}\geq 0 positiv semidefinit. Liegt
das Gemisch in einem reinen Zustand vor, hat eine dieser Wahrscheinlichkeiten den
Wert 1 {\displaystyle 1} 1, während alle anderen den Wert Null annehmen. In diesem
Fall ist die Entropie Null, hat also den Minimalwert. Positive Werte der Entropie
erhält man, wenn mehr als ein Mikrozustand eine von Null verschiedene
Wahrscheinlichkeit haben.

Als Beispiel nehmen wir ein Spinsystem mit vier Elektronen. Spin und magnetisches
Moment sind antiparallel. Das heißt, das magnetische Moment μ {\displaystyle
\mu } \mu eines nach unten zeigenden Spins besitzt im äußeren Magnetfeld B
{\displaystyle B} B die Energie − μ B {\displaystyle -\mu B} -\mu B. Die Energie E
0 {\displaystyle E_{0}} E_{0} des Systems soll insgesamt − 2 μ B {\displaystyle
-2\mu B} -2\mu B sein. Dies führt zu den vier Mikrozuständen:

[ ↑↓↓↓ ] , [ ↓↑↓↓ ] , [ ↓↓↑↓ ] , [ ↓↓↓↑ ] . {\displaystyle [\uparrow


\downarrow \downarrow \downarrow ]\ ,\quad [\downarrow \uparrow \downarrow
\downarrow ]\ ,\quad [\downarrow \downarrow \uparrow \downarrow ]\ ,\quad
[\downarrow \downarrow \downarrow \uparrow ]\,.} {\displaystyle [\uparrow
\downarrow \downarrow \downarrow ]\ ,\quad [\downarrow \uparrow \downarrow
\downarrow ]\ ,\quad [\downarrow \downarrow \uparrow \downarrow ]\ ,\quad
[\downarrow \downarrow \downarrow \uparrow ]\,.}

Daraus folgt, dass die Spinentartung Ω = 4 {\displaystyle \Omega =4\,} \Omega = 4\,
ist mit p 1 = p 2 = p 3 = p 4 = 1 4 {\displaystyle p_{1}=p_{2}=p_{3}=p_{4}={\frac
{1}{4}}\,} {\displaystyle p_{1}=p_{2}=p_{3}=p_{4}={\frac {1}{4}}\,} und wie oben
auch hier S = k B ⋅ ln Ω {\displaystyle S=k_{\mathrm {B} }\cdot \ln \,\Omega }
{\displaystyle S=k_{\mathrm {B} }\cdot \ln \,\Omega } gilt.

Die obige allgemeine Formel, (*), ist bis auf einen konstanten Faktor identisch mit
der Formel für die Shannon'sche Informationsentropie. Das bedeutet, die
physikalische Entropie ist auch ein Maß für die Information, die einem durch
Kenntnis des Makrozustands zum Mikrozustand fehlt.

S = − k B ∑ i p i ln p i = − k B ∑ i p i log 2 ⁡p i log 2 ⁡e = k B log 2 ⁡e S


Shannon {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\ln \,p_{i}=-k_{\mathrm {B}
}\sum _{i}p_{i}{\frac {\log _{2}p_{i}}{\log _{2}e}}={\frac {k_{\mathrm {B} }}{\log
_{2}e}}S_{\text{Shannon}}} {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\ln
\,p_{i}=-k_{\mathrm {B} }\sum _{i}p_{i}{\frac {\log _{2}p_{i}}{\log _{2}e}}={\frac
{k_{\mathrm {B} }}{\log _{2}e}}S_{\text{Shannon}}}
Eigenschaften der statistischen Entropie eines quantenmechanischen Zustandes

Seien ρ {\displaystyle \rho } \rho und ρ ~ {\displaystyle {\tilde {\rho }}}


\tilde{\rho} Dichteoperatoren auf dem Hilbertraum H {\displaystyle {\mathcal
{H}}} \mathcal{H}.

Gibbs-Ungleichung

S ( ρ ) = − k B Tr ⁡( ρ ln ρ ) ≤ − k B Tr ⁡( ρ ln ρ ~ ) {\displaystyle S(\rho )
=-k_{\mathrm {B} }\operatorname {Tr} \left(\rho \ln \,\rho \right)\leq -k_{\mathrm
{B} }\operatorname {Tr} \left(\rho \ln \,{\tilde {\rho }}\right)} S(\rho )=-
k_{{\mathrm {B}}}\operatorname {Tr}\left(\rho \ln \,\rho \right)\leq -k_{{\mathrm
{B}}}\operatorname {Tr}\left(\rho \ln \,{\tilde {\rho }}\right)

Invarianz unter unitären Transformationen von ρ {\displaystyle \rho \,} \rho\,


(mit U U † = 1 {\displaystyle UU^{\dagger }=1} U U^\dagger = 1)

S ( U ρ U † ) = S ( ρ ) {\displaystyle S(U\rho U^{\dagger })=S(\rho )} S(U \rho


U^\dagger)=S(\rho)

Minimum

S ( ρ ) ≥ 0 {\displaystyle S(\rho )\geq 0} S(\rho)\geq 0


Minimum wird bei reinen Zuständen ρ = | Ψ ⟩ ⟨ Ψ | {\displaystyle \rho =|\Psi
\rangle \langle \Psi |} \rho =|\Psi \rangle \langle \Psi | angenommen

Maximum

S ( ρ ) ≤ k B ln ( dim ⁡H ) {\displaystyle S(\rho )\leq k_{\mathrm {B} }\ln \,


(\operatorname {dim} {\mathcal {H}})} S(\rho )\leq k_{{\mathrm {B}}}\ln \,
(\operatorname {dim}{\mathcal {H}})
Maximum wird angenommen, wenn alle möglichen Zustandsvektoren mit gleicher
Wahrscheinlichkeit 1 / dim ⁡H {\displaystyle 1/\operatorname {dim} {\mathcal {H}}}
1/\operatorname {dim}{\mathcal {H}} auftreten

Konkavität

S ( λ ρ + ( 1 − λ ) ρ ~ ) ≥ λ S ( ρ ) + ( 1 − λ ) S ( ρ ~ ) {\displaystyle
S\left(\lambda \rho +(1-\lambda ){\tilde {\rho }}\right)\geq \lambda S(\rho )
+\left(1-\lambda \right)S\left({\tilde {\rho }}\right)}
S\left(\lambda\rho+(1-\lambda)\tilde{\rho}\right)\geq\lambda S(\rho)
+\left(1-\lambda\right)S\left(\tilde{\rho}\right) mit 0 ≤ λ ≤ 1 {\displaystyle
0\leq \lambda \leq 1} 0 \leq \lambda \leq 1

Dreiecksungleichung

Sei ρ {\displaystyle \rho \,} \rho\, Dichteoperator auf H = H a ⊗ H b


{\displaystyle {\mathcal {H}}={\mathcal {H}}_{a}\otimes {\mathcal {H}}_{b}}
\mathcal{H}=\mathcal{H}_{a}\otimes\mathcal{H}_{b} und ρ a {\displaystyle \rho
_{a}\,} \rho_a\, bzw. ρ b {\displaystyle \rho _{b}\,} \rho_b\, reduzierte
Dichteoperatoren auf H a {\displaystyle {\mathcal {H}}_{a}} \mathcal{H}_{a} bzw. H
b {\displaystyle {\mathcal {H}}_{b}} \mathcal{H}_{b}
| S ( ρ a ) − S ( ρ b ) | ≤ S ( ρ ) ≤ S ( ρ a ) + S ( ρ b ) {\displaystyle |
S(\rho _{a})-S(\rho _{b})|\leq S(\rho )\leq S(\rho _{a})+S(\rho _{b})} |
S(\rho_{a})-S(\rho_{b})|\leq S(\rho)\leq S(\rho_{a})+S(\rho_{b})

Bekenstein-Hawking-Entropie von Schwarzen Löchern


→ Hauptartikel: Bekenstein-Hawking-Entropie
Jacob Bekenstein[25] stellte in seiner Doktorarbeit Ähnlichkeiten zwischen der
Physik Schwarzer Löcher und der Thermodynamik heraus. Unter anderem verglich er den
Zweiten Hauptsatz der Thermodynamik Δ S ≥ 0 {\displaystyle \Delta S\geq 0} \Delta
S\geq 0 damit, dass die Oberfläche von Schwarzen Löchern mit einfallender Materie
anscheinend immer anwächst und keine Materie entweichen kann. Es ergab sich als
Formel für die Entropie

S S L = k B c 3 A 4 ℏ G {\displaystyle S_{\mathrm {SL} }={\frac {k_{\mathrm {B}


}c^{3}A}{4\hbar G}}} {\displaystyle S_{\mathrm {SL} }={\frac {k_{\mathrm {B} }
c^{3}A}{4\hbar G}}},

Hier ist A {\displaystyle A} A die Oberfläche des Ereignishorizonts, G


{\displaystyle G} G die Gravitationskonstante, c {\displaystyle c} c die
Lichtgeschwindigkeit und k B {\displaystyle k_{\mathrm {B} }} k_{\mathrm {B} } die
Boltzmannkonstante.

Stephen Hawking kritisierte daran, dass damit das Schwarze Loch auch eine
Temperatur besitzen müsse. Ein Körper mit einer nicht verschwindenden Temperatur
emittiert jedoch eine Schwarzkörperstrahlung, die der Annahme widerspricht, dass
aus dem Schwarzen Loch nichts mehr entweicht. Hawking löste dieses Paradoxon durch
die Entdeckung der nach ihm benannten Hawking-Strahlung auf: In der
quantenmechanischen Beschreibung des Vakuums sind ständig Vakuumfluktuationen aus
Teilchen-Antiteilchen-Paaren vorhanden. Wenn bei einer Paarbildung knapp außerhalb
des Ereignishorizonts eines der beiden Partnerteilchen vom Schwarzen Loch
„eingefangen“ wird, das andere aber entkommt, entspricht dies physikalisch einer
thermischen Strahlung des Schwarzen Lochs.[26][27] Zur Realität solcher thermischer
Strahlung ist zu sagen, dass Beobachter in unterschiedlichen Bezugssystemen
unterschiedliche Beobachtungen machen, also Temperatur 0 {\displaystyle 0}
{\displaystyle 0} oder Eigentemperatur. Erst die Entdeckung von Hawking, dass ein
Beobachter, der vom einem schwarzen Loch mit Ereignishorizont bei r = 2 M G / c 2
{\displaystyle r=2MG/c^{2}} {\displaystyle r=2MG/c^{2}} weit entfernt ist, die
Schwarzschild-Temperatur

T = ℏ c 3 8 π G M k B {\displaystyle T={\frac {\hbar c^{3}}{8\pi GM\,k_{\mathrm


{B} }}}} {\displaystyle T={\frac {\hbar c^{3}}{8\pi GM\,k_{\mathrm {B} }}}}

beobachtet, und Untersuchung einer freien Quantenfeldtheorie in Rindler-Raum-


Koordinaten, führte zu der Erkenntnis der Hawking-Strahlung als Evaporation des
schwarzen Lochs von Teilchen mit niedrigem Drehimpuls, während andere mit höheren
Drehimpulsen von den Wänden des Lochs reflektiert werden.[28]

Das Schwarze Loch kann sich auflösen, wenn die Energie der abgestrahlten Hawking-
Strahlung (durch die die Masse des Schwarzen Lochs abnimmt) für einen ausreichend
langen Zeitraum den Energieinhalt der einfallenden Materie übersteigt.[29]
Literatur

Skripte

Georg Job, Regina Rüffler: Physikalische Chemie. Teil 1: Grundzüge der


Stoffdynamik. Eduard-Job-Stiftung für Thermo- und Stoffdynamik, September 2008,
abgerufen am 10. Dezember 2014 (darin insbesondere Kapitel 2).
F. Herrmann: Thermodynamik. (PDF; 12,87 MB) Physik III. Abteilung für Didaktik
der Physik, Universität Karlsruhe, September 2003, abgerufen am 10. Dezember 2014.

Lehrbücher und Übersichtsartikel

Klaus Stierstadt, Günther Fischer: Thermodynamik: Von der Mikrophysik zur


Makrophysik (Kap. 5). Springer, Berlin, New York 2010, ISBN 978-3-642-05097-8
(eingeschränkte Vorschau in der Google-Buchsuche).
R. Frigg, C. Werndl: Entropy – A Guide for the Perplexed (PDF; 301 kB). In: C.
Beisbart, S. Hartmann (Hrsg.): Probabilities in Physics. Oxford University Press,
Oxford 2010. (Überblick über die verschiedenen Entropiebegriffe und deren
Verknüpfungen).
G. Adam, O. Hittmair: Wärmetheorie. 4. Auflage. Vieweg, Braunschweig 1992, ISBN
3-528-33311-1.
Richard Becker: Theorie der Wärme. 3., erg. Auflage. Springer, 1985, ISBN 3-
540-15383-7.
Arieh Ben-Naim: Statistical Thermodynamics Based on Information: A Farewell to
Entropy. 2008, ISBN 978-981-270-707-9.
Johan Diedrich Fast: Entropie. Huethig, 1982, ISBN 3-87145-299-8.
Ulrich Nickel: Lehrbuch der Thermodynamik. Eine anschauliche Einführung. 3.,
überarbeitete Auflage. PhysChem, Erlangen 2019, ISBN 978-3-937744-07-0.
E. P. Hassel, T. V. Vasiltsova, T. Strenziok: Einführung in die Technische
Thermodynamik. FVTR GmbH, Rostock 2010, ISBN 978-3-941554-02-3.
Arnold Sommerfeld: Vorlesungen über theoretische Physik – Thermodynamik und
Statistik. Nachdruck der 2. Auflage. Harri Deutsch, 1988, ISBN 3-87144-378-6.
Leonhard Susskind and James Lindesay: An Introduction to BLACK HOLES,
INFORMATION and the STRING THEORY REVOLUTION, World Scientific, 2005, ISBN 978-981-
256-083-4.
Andre Thess: Das Entropieprinzip – Thermodynamik für Unzufriedene. Oldenbourg-
Wissenschaftsverlag, 2007, ISBN 978-3-486-58428-8.
Wolfgang Glöckner, Walter Jansen, Hans Joachim Bader (Hrsg.): Handbuch der
experimentellen Chemie. Sekundarstufe II. Band 7: Mark Baumann: Chemische
Energetik. Aulis Verlag Deubner, Köln 2007, ISBN 978-3-7614-2385-1.
André Thess: Was ist Entropie? Eine Antwort für Unzufriedene. In: Forschung im
Ingenieurwesen. Band 72, Nr. 1, 17. Januar 2008, S. 11–17, doi:10.1007/s10010-007-
0063-7.

Populärwissenschaftliche Darstellungen

Arieh Ben-Naim: Entropy Demystified – The Second Law Reduced to Plain Common
Sense. World Scientific, Expanded Ed., New Jersey 2008, ISBN 978-981-283-225-2.
(populärwissenschaftliche, aber exakte Erklärung auf Grundlage der statistischen
Physik).
H. Dieter Zeh: Entropie. Fischer, Stuttgart 2005, ISBN 3-596-16127-4.
Eric Johnson: Anxiety and the Equation: Understanding Boltzmann's Entropy. The
MIT Press, Cambridge, Massachusetts 2018, ISBN 978-0-262-03861-4.
Jeremy Rifkin, Ted Howard: Entropy: A New World View. Viking Press, New York
1980 (dt.: Entropie: Ein neues Weltbild. Hofmann & Campe, Hamburg 1984).

Weblinks
Commons: Entropie – Sammlung von Bildern, Videos und Audiodateien
WiktionaryWiktionary: Entropie – Bedeutungserklärungen, Wortherkunft, Synonyme,
Übersetzungen
Wikibooks: Entropie – Lern- und Lehrmaterialien
Wikiquote: Entropie – Zitate

Was ist Entropie? aus der Fernseh-Sendereihe alpha-Centauri (ca. 15 Minuten).


Erstmals ausgestrahlt am 4. Aug. 2004.
Tomasz Downarowicz: Entropy. In: Scholarpedia. (englisch, inkl.
Literaturangaben)
Martin Buchholz: Entropie – Von Kühltürmen und der Unumkehrbarkeit der Dinge
Siegerbeitrag der Deutschen Meisterschaft im Science Slam 2010 auf Youtube
Ulf von Rauchhaupt: Zeit, Tod und schmutziges Geschirr Artikel in der
Frankfurter Allgemeinen Zeitung über Ludwig Boltzmann und die Entropie
Thomas Neusius: Entropie und Richtung der Zeit Kursmaterial, beginnend auf
Schulniveau
Owen Maroney: Information Processing and Thermodynamic Entropy. In: Edward N.
Zalta (Hrsg.): Stanford Encyclopedia of Philosophy.
Nico G. van Kampen: Entropie (PDF; 18 kB) kurze, gut verständliche Erläuterung
W. A. Kreiner: Thermodynamik und Informationstheorie – Deutungen und
Bedeutungsunterschiede im Entropiebegriff. doi:10.18725/OPARU-4097 Eine
vergleichende Gegenüberstellung.
Video: Konzept der Entropie nach CLAUSIUS und BOLTZMANN – wie viel Chaos steckt
in einem System?. Jakob Günter Lauth (SciFox) 2013, zur Verfügung gestellt von der
Technischen Informationsbibliothek (TIB), doi:10.5446/15662.

Einzelnachweise und Anmerkungen


Richard Becker: Theorie der Wärme. Springer, Heidelberg 2013, S. 253
(books.google.de [abgerufen am 16. Juni 2015] Nachdruck von 1961).
Antoine Laurent Lavoisier: Oeuvres de Lavoisier: Traité élémentaire de chimie,
opuscules physiques et chimiques, Band 1. Ministre de L’instruction Publique et des
Cultes, 1864 (Seite 410, Original der Bayerischen Staatsbibliothek, digitalisiert
8. Dez. 2009 – Registereintrag aus dem Jahr 1789).
Roger Hahn: Pierre Simon Laplace, 1749–1827: A Determined Scientist. Harvard
University Press, 2005, ISBN 0-674-01892-3 (eingeschränkte Vorschau in der Google-
Buchsuche).
Joseph Black: Lectures on the elements of Chemistry. Edinburgh, 1807 (Original von
Michigan State University, digitalisiert 16. Okt. 2013 in der Google-Buchsuche –
posthume Veröffentlichung von Vorlesungen aus dem Jahr 1760).
Pierre Kerszberg: Natural philosophy. In: Knud Haakonssen (Hrsg.): The Cambridge
History of Eighteenth-Century Philosophy. Band 1. Cambridge University Press, 2006,
ISBN 0-521-86743-6 (eingeschränkte Vorschau in der Google-Buchsuche).
James D. Stein: Cosmic Numbers: The Numbers That Define Our Universe. Basic Books,
2011 (eingeschränkte Vorschau in der Google-Buchsuche).
Sadi Carnot: Réflexions sur la puissance motrice du feu et sur les machines propres
à développer cette puissance. Bachelier, 1824 (Original von Lyon Public Library,
digitalisiert 29. Sept. 2014 in der Google-Buchsuche).
Rudolf Clausius: Über verschiedene, für die Anwendung bequeme Formen der
Hauptgleichungen der mechanischen Wärmetheorie. In: Annalen der Physik und Chemie.
Band 125, 1865, S. 353–400 (Textarchiv – Internet Archive [abgerufen am 24. April
2019] auch Vortrag vor der Zürcher Naturforschenden Gesellschaft).
Rudolf Clausius: Über den zweiten Hauptsatz der mechanischen Wärmetheorie. 1867
(Original von Michigan State University, digitalisiert 29. Juni 2007 in der Google-
Buchsuche – Vortrag, gehalten in einer allgemeinen Sitzung der 41. Versammlung
deutscher Naturforscher und Aerzte zu Frankfurt am Main am 23. September 1867).
Hugh Longbourne Callendar: Proceedings of the Royal Society of London. Series A:
Containing Papers of a Mathematical and Physical Character. Band 134, Nr. 825, 2.
Januar 1932, S. xxv (Snippet in der Google-Buchsuche).
Gottfried Falk, Wolfgang Ruppel: Energie und Entropie. Springer-Verlag, 1976, ISBN
3-540-07814-2.
Tomasz Downarowicz: Entropy. In: Scholarpedia. Band 2, Nr. 11, 2007, S. 3901,
doi:10.4249/scholarpedia.3901 (revision #126991).
Roman Frigg and Charlotte Werndl: Entropy – A Guide for the Perplexed. (PDF; 294
kB) Juni 2010, abgerufen am 12. Dezember 2014 (englisch).
Beim 1. Hauptsatz der Thermodynamik tritt im Gegensatz zum 2. Hauptsatz ein solcher
„integrierender Faktor“ nicht auf. Der 1. Hauptsatz besagt, dass die Summe (!) der
zugeführten Arbeit, δ W {\displaystyle \delta W} \delta W und der zugeführten Wärme
δ Q {\displaystyle \delta Q} \delta Q immer das vollständige Differential d U
{\displaystyle \mathrm {d} U} \mathrm d U einer Zustandsfunktion U {\displaystyle
U} U ergibt, der sogenannten Inneren Energie, obwohl die zwei einzelnen
Differentiale nicht vollständig sind. Bei der Funktion U {\displaystyle U} U wird
im Gegensatz zu S {\displaystyle S} S auch nicht unterschieden, ob die Wärmezufuhr
reversibel oder irreversibel erfolgt.
Hans Dieter Baehr, Stephan Kabelac: Thermodynamik – Grundlagen und technische
Anwendungen. 16. Auflage. Springer Vieweg, Braunschweig 2016, ISBN 978-3-662-49567-
4, 3.1.2 Die Formulierung des 2. Hauptsatzes durch Postulate und 3.1.3 Die
Entropiebilanzgleichung für geschlossene Systeme, S. 92–101.
E. T. Jaynes: Gibbs vs. Boltzmann Entropies. In: American Journal of Physics. Band
33 (Ausgabe 5), 1965. S. 398
H.J.W. Müller-Kirsten, Basics of Statistical Physics, 2nd edition, World Scientific
2013, ISBN 978-981-4449-53-3, pp. 28–30.
L. Susskind and J. Lindesay: An Introduction to BLACK HOLES, INFORMATION and the
STRING THEORY REVOLUTION. World Scientific 2005, ISBN 978-981-256-083-4, S. 69–77.
A. F. Holleman, E. Wiberg, N. Wiberg: Lehrbuch der Anorganischen Chemie. 101.
Auflage. Walter de Gruyter, Berlin 1995, ISBN 3-11-012641-9, S. 54.
W. A. Kreiner: Entropie – was ist das? Ein Überblick. doi:10.18725/OPARU-2609
F. Herrmann: Physik III – Thermodynamik, Skripten zur Experimentalphysik. (PDF;
12,9 MB) 2003, abgerufen am 12. Januar 2015.
Friedrich Herrmann: Der Karlsruher Physikkurs. 9. Auflage. Teil 1: Energie Impuls
Entropie. Aulis Verlag, 2010, ISBN 978-3-7614-2517-6.
Dem entspricht die Clausius’sche Gleichung (2), die auch folgendermaßen in Worte
gefasst werden kann: „In einem abgeschlossenen Thermodynamischen System nimmt die
Entropie solange zu, bis Gleichgewicht erreicht ist“.
Wedler, G.: Lehrbuch der Physikalischen Chemie. Verlag Chemie, Weinheim, Deerfield
Beach, Basel 1982. ISBN 3-527-25880-9. Kap. 4.2, S. 632.
Jacob D. Bekenstein: Black holes and entropy. In: Phys.Rev. D, Nr. 7, 1973, S.
2333–2346 (phys.huji.ac.il [PDF; abgerufen am 9. Dezember 2014]).
Stephen W. Hawking: Particle Creation by Black Holes. In: Commun. Math. Phys. Band
43, 1975, S. 199–220, doi:10.1007/BF02345020.
Susskind, Lindesay, An Introduction to Black Holes, Information and the String
Theory Revolution: The Holographic Universe. World Scientific, Singapur 2004, S.
39–42.
Susskind, Lindesay, An Introduction to Black Holes, Information and the String
Theory Revolution: The Holographic Universe. World Scientific, Singapur 2004, S.
48–49

Stephen W. Hawking: Eine kurze Geschichte der Zeit. 1. Auflage. Rowohlt Verlag,
1988, ISBN 3-498-02884-7 (eingeschränkte Vorschau in der Google-Buchsuche).

Kategorien:

Thermodynamische ZustandsgrößePhysikalische Größenart

Navigationsmenü

Nicht angemeldet
Diskussionsseite
Beiträge
Benutzerkonto erstellen
Anmelden

Artikel
Diskussion

Lesen
Bearbeiten
Quelltext bearbeiten
Versionsgeschichte

Suche

Hauptseite
Themenportale
Zufälliger Artikel
Mitmachen

Artikel verbessern
Neuen Artikel anlegen
Autorenportal
Hilfe
Letzte Änderungen
Kontakt
Spenden

Werkzeuge

Links auf diese Seite


Änderungen an verlinkten Seiten
Spezialseiten
Permanenter Link
Seiteninformationen
Wikidata-Datenobjekt
Artikel zitieren

In anderen Projekten

Commons
Wikibooks

Drucken/exportieren

Buch erstellen
Als PDF herunterladen
Druckversion

In anderen Sprachen

Boarisch
Dansk
English
Español
Français
Italiano
Nederlands
Русский
Türkçe

Links bearbeiten

Diese Seite wurde zuletzt am 29. April 2020 um 13:43 Uhr bearbeitet.
Abrufstatistik · Autoren

Der Text ist unter der Lizenz „Creative Commons Attribution/Share Alike“
verfügbar; Informationen zu den Urhebern und zum Lizenzstatus eingebundener
Mediendateien (etwa Bilder oder Videos) können im Regelfall durch Anklicken dieser
abgerufen werden. Möglicherweise unterliegen die Inhalte jeweils zusätzlichen
Bedingungen. Durch die Nutzung dieser Website erklären Sie sich mit den
Nutzungsbedingungen und der Datenschutzrichtlinie einverstanden.
Wikipedia® ist eine eingetragene Marke der Wikimedia Foundation Inc.

Datenschutz
Über Wikipedia
Impressum
Entwickler
Statistiken
Stellungnahme zu Cookies
Mobile Ansicht

Wikimedia Foundation
Powered by MediaWiki

Das könnte Ihnen auch gefallen