Sie sind auf Seite 1von 6

DOI: 10.1002/piuz.

201201298

Informationstheoretischer Zugang zur Entropie

Entropie entmystifiziert
H AYE H INRICHSEN

Entropie gilt als eine schwierig zu vermittelnde physikalische raum Ω, endlich ist, wobei |Ω| die Anzahl der Zustände
bezeichnet. Ein Lichtschalter besitzt beispielsweise den
Größe, da sie sich einer direkten Anschaulichkeit zu entziehen Zustandsraum Ω = {aus, ein} mit |Ω| = 2 Zuständen, ein
scheint. Wenn man sich diesem Begriff jedoch von einer Würfel dagegen den Zustandsraum Ω = {1, 2, 3, 4, 5, 6} mit
informationstheoretischen Perspektive her nähert, werden |Ω| = 6 Zuständen. In diesem abgesteckten Rahmen be-
ginnen wir mit der folgenden verbalen Definition:
viele Zusammenhänge leichter verständlich. „Die Information oder Entropie H eines Systems ist die
minimale Anzahl von Bits, die man benötigt, um dessen
Zustand vollständig zu charakterisieren.“

W ohl kaum ein physikalischer Begriff ist so schwierig


zu vermitteln wie der der Entropie. Im Gegensatz zu
Größen wie zum Beispiel Energie und Impuls, die an Ein-
Anschaulich ausgedrückt ist also die Information oder En-
tropie nichts anders als die minimale Länge einer Datei, die
benötigt wird, um ein System oder einen Sachverhalt voll-
zelsystemen messbar sind und eine gewisse Anschaulichkeit ständig zu beschreiben. Es ist dabei wesentlich, dass die
besitzen, ist Entropie als „Maß für Unordnung“ komplexer Länge der Beschreibungsdatei minimal ist. Man eliminiert
Systeme sehr viel schwerer fassbar. Der bisweilen sogar also zuvor alle möglichen Redundanzen der Zustandsbe-
mystifizierte Begriff der Entropie ist in der Anfangszeit selbst schreibung, indem man die Datei durch ideale Kompressi-
von Physikern nur zögerlich akzeptiert worden. Als Claude on auf kürzeste Länge bringt. Alternativ formuliert ist die En-
Shannon, der US-amerikanische Pionier der Informations- tropie die minimale Anzahl binärer Ja-nein-Fragen, die not-
theorie, 1948 einen theoretischen Grenzwert für den In- wendig sind, um den aktuellen Zustand des Systems in
formationsverlust in Telefonleitungen fand und nach einer Erfahrung zu bringen.
passenden Bezeichnung für diese Größe suchte, soll ihm Ein zusammengesetztes System kann man beschreiben,
sein Mathematikerkollege John von Neumann geraten ha- indem man zunächst seine Teile beschreibt und dann die
ben: entsprechenden Dateien aneinander hängt. Wenn die Teil-
„You should call it entropy. [...] Nobody knows what en- systeme unabhängig voneinander sind, wird man diese zu-
tropy really is, so in a debate you will always have the sammengesetzte Datei nicht weiter komprimieren können.
advantage.“ [1] Damit ist intuitiv klar, dass die Information H eine extensi-
Entropie wird in der Physik traditionell als thermodynami- ve, das heißt, additive Größe ist.
sche Größe eingeführt, womit sich aber gerade Anfänger Die so definierte Information oder Entropie hat aller-
häufig schwer tun. Die heutige Welt ist jedoch von der In- dings nichts mit dem alltäglichen Informationsbegriff zu
formationstechnologie geprägt, und in ihr gehören Begrif- tun, mit dem die individuell wahrgenommene Bedeutung ei-
fe wie Gigabyte zur Alltagssprache. Folglich ist es mögli- ner Nachricht umschrieben wird. Eine sinnlose Folge zu-
cherweise leichter, den Entropiebegriff zunächst informati- fälliger Wörter beispielsweise besitzt nach der obigen De-
onstheoretisch zu motivieren und erst darauf aufbauend die finition eine hohe Information, da eine große Datenmenge
Verbindung zur Physik herzustellen. In der Tat ist nämlich erforderlich ist, um sie zu beschreiben. Und doch hat sie für
Entropie nichts anderes als ein Informationsmaß, und die- uns keine Bedeutung und damit keine verwertbare Infor-
se Perspektive kann erheblich dazu beitragen, den Entro- mation im landläufigen Sinne.
piebegriff leichter zugänglich zu machen [2]. Dieser Artikel
setzt sich mit der Frage auseinander, wie ein solcher didak- Quantifizierung in Bit
tischer Zugang aussehen könnte. Ein System, das in nur einem einzigen Zustand sein kann,
ist bereits vollständig charakterisiert und besitzt demzufol-
Qualitative Definition ge die Entropie H = 0. Ein binäres System mit zwei mögli-
Im Folgenden betrachten wir Systeme im Rahmen der klas- chen Zuständen wie etwa ein Lichtschalter wird dagegen
sischen Physik, deren Mikrozustand wir unabhängig vom bekanntlich durch ein einzelnes Bit (Binary digit) charak-
Beobachter eindeutig charakterisieren können. Der Ein- terisiert.
fachheit halber wollen wir annehmen, dass die Menge der Das Bit als elementares Informationsquantum spielt die
möglichen Zustände eines solchen Systems, der Zustands- Rolle einer fundamentalen „Maßeinheit“ für Information,

Online-Ausgabe unter:
246 Phys. Unserer Zeit 5/2012 (43) © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
wileyonlinelibrary.com
ENTROPIE PHYSIKDIDAK TIK

von der die in der Informationstechnologie gebräuchlichen


Einheiten abgeleitet sind. Dabei entspricht 1 Byte gerade 8
Bit. Die Entropie wird also grundsätzlich in der Einheit bit
gemessen. Da diese Einheit universell ist, also nicht durch
ein in Paris hinterlegtes „Ur-Bit“ festgelegt werden muss,
lässt man sie auch häufig weg und behandelt die Entropie
als dimensionslose Größe.

Ungeradzahlige Entropie
Da man mit n bit bekanntlich 2n verschiedene Bitmuster bil-
den kann, ist sofort klar, dass ein System mit 2n Zuständen
mit einer n-Bit-Datei vollständig beschrieben werden kann.
In diesem Fall ist also H = n. Was passiert aber, wenn die
Anzahl der Zustände keine Zweierpotenz ist? Um bei-
spielsweise die sechs möglichen Zustände eines Würfels
zu beschreiben, wären 3 bit erforderlich, wobei von den
23 = 8 möglichen Bitmuster zwei gar nicht gebraucht wer- Abb. 1 Fünf Würfel befinden sich in einem der 7776 möglichen Zustände. Dieser
den. Der Informationsgehalt sollte in diesem Fall also einen Zustand kann durch die Angabe von 13 Bit vollständig charakterisiert werden.
nicht ganzzahligen Wert zwischen 2 und 3 annehmen. Damit entfallen auf jeden Würfel im Mittel 2,6 Bit.
Um diesen Wert zu berechnen, betrachten wir ein zu-
sammengesetztes System bestehend aus N unterscheidba-
ren Würfeln, das in 6N möglichen Zuständen sein kann (Ab- Die in der Physik gebräuchliche Entropiedefinition
bildung 1). Zu seiner Beschreibung sind n bit erforderlich.
Dabei ist n die kleinste ganze Zahl, für die 2n ≥ 6N bezie- S = kB ln|Ω|
hungsweise n log 2 ≥ N log 6 ist. Die mittlere Anzahl der
erforderlichen Bits pro Würfel n/N ist also für gegebenes N unterscheidet sich von der obigen Definition nur durch ei-
die kleinste rationale Zahl mit der Eigenschaft nen konstanten Faktor kB ln 2, durch den die Entropie die
Einheit J/K erhält, – ein historisch bedingter Unfall, auf den
n log 6
≥ = log2 6. wir später bei der Diskussion des Temperaturbegriffs zu-
N log 2
rückkommen werden.
Für große N lässt sich diese Ungleichung immer schärfer ab-
schätzen, die Redundanz also immer weiter reduzieren. Da- Entropie eines Gases
mit konvergiert n/N für N → ∞ gegen die mittlere Entropie Die Entropie eines Gases ist nach den bisherigen Überle-
pro Würfel H = log2 6 ≈ 2, 585 (Tabelle 1). gungen die Informationsmenge, die benötigt wird, um den
Auf diese Weise lässt sich gut motivieren, dass die In- mikroskopischen Zustand des Gases vollständig zu be-
formation oder Entropie eines Systems durch schreiben. Sie muss also sämtliche Positionen und die Ge-
schwindigkeiten der Teilchen zu einem gegebenen Zeit-
H = log2|Ω| punkt erfassen. Im Rahmen der klassischen Physik ist dies
allerdings unmöglich, da diese Größen reelle Zahlen mit un-
gegeben ist. Mit dieser Formel lässt sich die Additivität der endlich vielen Nachkommastellen sind, die von sich aus be-
Entropie sofort verifizieren: Da man beim Zusammensetzen reits unendlich viel Information beinhalten.
von Teilsystemen zu einem Gesamtsystem die Anzahl der Dieses Problem konnte erst im Rahmen der Quanten-
möglichen Zustände miteinander multiplizieren muss, setzt theorie gelöst werden, in der die Genauigkeit von Ort und
sich die Gesamtentropie wegen des Logarithmus additiv aus Impuls durch die Unschärferelation Δx ·Δp ≥ h begrenzt
den Einzelentropien zusammen. wird. Näherungsweise kann man sich deshalb den Phasen-
raum des Systems in Zellen der Größe h3 unterteilt vor-
TA B . 1 ZAHL DER WÜRFEL stellen, wobei jede Zelle einen Zustand repräsentiert. Die
Anzahl der möglichen Zustände eines Teilchens erhält man
Zahl der Anzahl der erforderliche Bits pro also, indem man das vom System beanspruchte Phasen-
Würfel N Zustände 6N Bits n Würfel n/N raumvolumen Φ durch h3 teilt.
1 6 3 3 Die tatsächliche Entropie pro Teilchen in einem Gas ist
2 36 6 3 aber sehr viel geringer (siehe „Entropie von Gasen“ auf
3 216 8 2,666 S. 248). Ursache dafür ist ein weiterer quantenmechani-
4 1296 11 2,75 scher Effekt. Anders als in der klassischen Physik sind quan-
5 7776 13 2,6 tenmechanische Teilchen nämlich nicht unterscheidbar,
∞ ∞ ∞ ∼ 2,585 sondern können umgeordnet werden, ohne dass sich dabei

© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 5/2012 (43) Phys. Unserer Zeit 247
der physikalische Zustand des Systems ändert. Die kombi- ABB. 2 E N T RO PI E E I N E S W Ü R F E L S
natorische Anzahl der Zustände des Gesamtsystems ist also
noch durch die Anzahl der möglichen Permutationen zu di- 3
vidieren.
2,5
Informationsreduktion durch Vorkenntnis

Mittlere Entropie H
Bislang sind wir davon ausgegangen, dass der Systemzustand 2
vor der Charakterisierung gänzlich unbekannt ist, der Be-
obachter also über keinerlei Vorkenntnisse verfügt. Ist er da- 1,5
gegen schon im Besitz einer Teilinformation über das Sys-
1
tem, reduziert sich die Entropie, da nun zur Charakterisie-
rung des Zustands eine geringere Datenmenge ausreicht.
0,5
Ein solches Vorwissen kann in einer Einschränkung des
Zustandsraums bestehen. Wenn beispielsweise bereits be- 0
kannt sein sollte, dass ein Würfelwurf eine gerade Augen- 1 10 100 1000
Wurfanzahl n
anzahl ergeben hat, halbiert sich die Anzahl der noch ver-
bleibenden Möglichkeiten, womit sich die Entropie um 1 Bit
Numerische Abschätzung der Entropie eines Würfels.
reduziert.
Eine partielle Vorkenntnis kann aber auch in Form ei-
ner Wahrscheinlichkeitsverteilung vorliegen. Dieser Fall tritt Zeichen in einem Text oftmals vorher bekannt. Schon Samu-
immer dann auf, wenn eine große Anzahl gleichartiger Sys- el Morse erkannte, dass Buchstaben wie E und T häufiger
teme zu charakterisieren ist. So ist etwa die Häufigkeit der vorkommen als beispielsweise X und Q. Damit war es effi-
zienter, die häufig auftretenden Zeichen durch besonders
kurze Morse-Codes zu repräsentieren (Tabelle 2). Je selte-
ner ein Buchstabe auftritt, umso mehr Information wird al-
E N T RO PI E VO N G A S E N
| so in solchen „entropieoptimierten“ Codes benötigt, um
diesen zu charakterisieren.

Wie viele Gigabyte enthält ein –p und +p bewegt, erhält man das
Heliumballon? Phasenraumvolumen
Individuelle Entropie
In der chemischen Literatur findet Um diesen Effekt quantitativ zu verstehen, kehren wir zum
man, dass ein Mol Helium (22,4 Liter) Φ ≈ Vmol (2p)3 ≈ 1,3 · 10–70 (Js)3. abstrakten Zustandsraum Ω zurück. Wir wollen von ihm
bei Zimmertemperatur die Entropie nun annehmen, dass die Zustände i ∈ Ω mit bestimmten
S = 126 J/K besitzt [3]. Mit der Boltz- Um den Quantenzustand eines einzel- Wahrscheinlichkeiten pi ∈[0, 1] auftreten, deren Gesamt-
mann-Konstante kB = 1,38 · 10–23 J/K nen Teilchens anzugeben, wäre also
lässt sich diese Angabe umrechnen in eine Information von etwa log2 (Φ/h3)
summe gleich 1 ist. Die Wahrscheinlichkeiten können dem-
einen Informationsgehalt von ≈ 99 Bit erforderlich, wobei h3 die nach reelle Zahlen sein, aber diese kann man beliebig ge-
Größe einer Zelle (eines Zustands) des nau durch einen Bruch annähern. Deshalb wollen wir zu-
1
H= S ≈ 1,3 ⋅ 1025 bit. Phasenraums ist. Der tatsächliche dem annehmen, dass die Wahrscheinlichkeiten rationale
kB ln 2
Wert ist aber sehr viel geringer, da die Zahlen sind, die wir auf einen gemeinsamen Hauptnenner
Das ist etwa 5000 Mal mehr als die Teilchen quantenmechanisch ununter-
Kapazität aller bislang weltweit scheidbar sind, die kombinatorische
m bringen, so dass pi = mi /m ist. Wir stellen uns nun eine
produzierten Speichermedien! Die Anzahl der Zustände also noch durch fiktive Menge mit m Elementen vor, in dem der Zustand i
Entropie pro Teilchen ist allerdings die Anzahl der möglichen Permutatio- genau mi mal vorkommt (siehe „Individuelle und mittlere
überraschend gering und beträgt nur nen der NA = 6,023 · 1023 Teilchen zu Entropie“ auf S. 251). In dieser fiktiven Menge entsprechen
etwa dividieren ist: die Häufigkeiten der Zustände exakt den vorgegebenen
1 ⎛Φ ⎞ A
N
H Wahrscheinlichkeiten.
≈ 22 bit. Ω ≈
NA ! ⎜⎝ h3 ⎟⎠
NA .

Die Entropie pro Teilchen lässt sich mit TA B . 2 M O R S E- CO D E


Entropie eines Mols Helium der Stirlingschen Formel n! ≈ nn/en
Helium ist ein einatomiges Gas, in abschätzen:
dem die Teilchen bei Raumtemperatur
Buchstabe Häufigkeit Morse-Code
H Φ
typische Impulse von der Größenord- ≈ log2 3 − log2 NA + log2 e ≈ 21 bit. Die drei häufigsten Buchstaben im Englischen:
NA h
nung E 12,702 % ·
Dieses Ergebnis stimmt recht gut mit T 9,056 % –
p ≈ 2mE = 3mkBT ≈ 9 ⋅ 10−
24
kg m/s dem obigen Umrechnungsresultat A 8,167 % ·–
H/NA ≈ 22 Bit überein, obwohl die
Die drei seltensten Buchstaben im Englischen:
besitzen. Stellt man sich nun den Rechnung stark vereinfacht ist und
X 0,150 % –··–
Impulsraum als Würfel vor, in dem der Impulsraum in Wirklichkeit eine
sich jede Komponente zwischen kompliziertere Struktur besitzt. Q 0,095 % ––·–
Z 0,074 % ––··

248 Phys. Unserer Zeit 5/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
ENTROPIE PHYSIKDIDAK TIK

n n
Wir wählen nun ein Element dieser fiktiven Menge zu- H ≈ – ∑ i log2 i
i ∈Ω
n n
fällig aus. Um anzugeben, um welches der m Elemente es
sich handelt, wären nach den bisherigen Überlegungen erhält. Diese Abschätzung wird im Limes n → ∞ exakt, wäh-
log2 m bit notwendig. Da aber nur der Zustand i von Inte- rend man für eine endliche Anzahl von Versuchen statisti-
resse ist, kann auf die Information zur Identifizierung des sche Abweichungen erwartet. Abbildung 2 demonstriert
Elements innerhalb der Teilmenge von mi Elementen ver- dies am Beispiel eines Würfels. Die abgeschätzte Entropie
zichtet werden, so dass log2 mi bit überflüssig sind. Für die nach n Würfen ist durch rote Punkte dargestellt. Wie man
Charakterisierung des Zustands i ist also eine Information sehen kann, nähert sich die Abschätzung für große n dem
von schon diskutierten theoretischen Wert H = log2 6 ≈ 2, 585
(grüne Line). Bei Wiederholung dieses Experiments würden
Hi = log2 m – log2 mi = log2 (m/mi) bit die roten Punkte anders verteilt sein, die entsprechenden
Mittelwerte sind in der Abbildung als gestrichelte
notwendig. Wegen pi = mi /m ist daher rote Linie visualisiert.
der individuelle Informationsge- In Abbildung 2 fällt zudem auf,
halt eines bestimmten Zustan- dass die roten Punkte sich dem
des oder Zeichens gegeben Grenzwert von unten nähern: Abb. 3 Dynamik
komplexer Syste-
durch Die tatsächliche Entropie
me. Dynamik
wird also numerisch stets eines komplexen
Hi = – log2 pi . systematisch unterschätzt. Für Systems durch
eine einzige Stichprobe n = 1 ist zufällige Sprünge
So sind beispielsweise zur Charak- die abgeschätzte Entropie sogar im- im Zustandsraum
Ω.
terisierung des Buchstabens E, der mit pE mer exakt gleich null. Dieser systematische
= 0,127 am wahrscheinlichsten ist, nur etwa 3 bit erfor- Fehler wird hervorgerufen durch die Nichtlinearität des Lo-
derlich, für das seltene Z dagegen ungefähr 10 bit. garithmus. Auch Fachleuten ist oft nicht bekannt, dass sich
dieser systematische Fehler durch einfache Korrekturterme
Mittlere Entropie in der Abschätzung erheblich reduzieren lässt. Der ameri-
Oft ist man nicht an der individuellen Entropie eines ein- kanische Psychologe George Miller [4], der auch mathema-
zelnen Zustandes, sondern an dem Mittelwert tisch arbeitete, führte die Abschätzungsformel

|Ω| n n
H = ∑ pi Hi = − ∑ pi log2 pi H ≈ – ∑ i log2 i
i ∈Ω i ∈Ω 2n ⋅ ln2 i ∈Ω n n

interessiert. Diese sogenannte Shannon-Entropie gibt an, ein. Damit lassen sich so bereits erheblich bessere Ergeb-
wie viele Bit im Durchschnitt notwendig sind, um ein Zei- nisse erzielen, die in der Abbildung blau dargestellt sind.
chen oder einen Zustand zu charakterisieren (siehe „Indi-
viduelle und mittlere Entropie“). In der Informationstheo- Statistische Physik
rie dient dieser Wert als untere Schranke für die erforderli- Entropie als Maß für die Information, die zur Beschreibung
che Bandbreite eines Übertragungskanals. eines Systems notwendig ist, hat zunächst keine direkte
Der obige Ausdruck ist undefiniert, so- physikalische Bedeutung. Zu einem physi-
bald eine der Wahrscheinlichkeiten kalischen Konzept wird die Entro-
gleich null ist, weil dann der Lo- pie erst durch die chaotische
garithmus divergiert. Da aber und damit zufällige Dynamik
solche Zustände nicht auftre- komplexer Systeme. Im Zu-
ten, tragen sie nicht zur Sum- standsraum Ω kann man
me bei. Wir können deshalb sich eine solche Dynamik als
Abb. 4 Erhal-
solche Zustände bei der Sum- zufälliges, spontanes Sprin-
tungsgrößen.
mation ausschließen oder die gen von Zustand zu Zustand Zustandsraum
Konvention 0 log2 0 = 0 benutzen. vorstellen (Abbildung 3). Befindet mit vier Energie-
sich das System beispielsweise im Zu- sektoren.
Numerische Abschätzung stand i, springt es spontan mit einer bestimmten
Die Entropie eines Systems kann numerisch abgeschätzt Übergangsrate wi → j ≥ 0, also einer gewissen Wahr-
werden, indem man eine Stichprobe von n zufälligen Zu- scheinlichkeit pro Zeiteinheit, in den Zustand j.
ständen nimmt, von denen sich ni im Zustand i befinden. Ein komplexes physikalisches System ist folglich durch
Mit Hilfe eines solchen „Samplings“ können die Wahr- seinen Zustandsraum und seine Übergangsraten bestimmt.
scheinlichkeiten pi durch die relativen Häufigkeiten ni /n ap- Wie man diese Vorstellung mit Hilfe der Chaostheorie und
proximiert werden, so dass man für die mittlere Entropie Quantenmechanik begründen kann, ist Gegenstand aktuel-
die Abschätzung ler Forschung.

© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 5/2012 (43) Phys. Unserer Zeit 249
Zweiter Hauptsatz und Gibbssches Postulat dung 4). In jedem dieser Sektoren ist der zweite Hauptsatz
Die Übergangsraten unterliegen einer wesentlichen, quan- weiterhin gültig, im Gleichgewicht erreicht also das System
tenmechanisch begründbaren Einschränkung, auf der im dort die maximal mögliche Entropie:
Prinzip die gesamte Thermodynamik beruht:
„In einem abgeschlossenen System sind die Über- HE = log2|ΩE|.
gangsraten symmetrisch: wi → j = wj → i .“
Wegen dieser Symmetrie sind Übergänge in beide Richtun- Was ist Temperatur?
gen gleich wahrscheinlich, es gibt also keine Vorzugsrich- Durch die Erhaltungsgröße E wird die Entropie des Systems
tung. Vielmehr diffundiert das System orientierungslos energieabhängig und bekommt erst dadurch eine physika-
durch seinen eigenen Zustandsraum. Bei bekanntem An- lische Bedeutung. Durch Zufuhr von Energie erhöht sich
fangszustand wird so durch jeden zufälligen Sprung der ak- nämlich die Anzahl der Zustände des Vielteilchensystems,
tuelle Aufenthaltsort des Systems unklarer, die zur Lokali- damit wächst auch die zu seiner Charakterisierung benö-
sierung notwendige Information wird also immer umfang- tigte Information. Die Energiemenge, die zugeführt werden
reicher. Damit ist es intuitiv klar – wenn auch nicht so muss, um die Information um 1 bit zu erhöhen, wird als
einfach zu beweisen –, dass die mittlere Entropie bei einem Temperatur bezeichnet:
solchen „Random walk“ im Zustandsraum nur
ΔE
zunehmen kann. Dies ist die zentrale Aussage T = .
ΔH
des zweiten Hauptsatzes der Thermodynamik:
„In einem abgeschlossenen System kann Da die Temperatur in Kelvin gemessen wird
die mittlere Entropie nicht abnehmen.“ und die Entropie in der Physik eingeführt wur-
Das immer geringer werdende Wissen über de, bevor ihr Informationscharakter bekannt
den aktuellen Zustand des Systems manifes- war, hat man ihr wegen der obigen Beziehung
tiert sich in einer zeitabhängigen Wahr- die physikalische Einheit Joule/Kelvin zuge-
scheinlichkeitsverteilung pi(t), die immer un- wiesen. Erreicht wird dies durch einen di-
schärfer wird. Deren Zeitentwicklung folgt da- mensionsbehafteten Vorfaktor, der Boltzmann-
bei der sogenannten Mastergleichung : Konstante, die man deshalb wie eingangs er-
wähnt als historischen Unfall betrachten kann.
d
dt i ( ) ( )
p t = ∑ w j →i p j (t ) – wi → j pi (t ) .
j ∈Ω
Wollte man darauf verzichten, müsste man al-
lerdings die Temperatur in J/bit messen. Wohl
kaum jemand würde jedoch wie auf dem in
Nach sehr langer Zeit werden die Wahr- Abbildung 5 gezeigten Thermometer die
scheinlichkeiten zeitunabhängig. Sie erreichen Raumtemperatur als 4 · 10–21 J/bit oder 200
einen stationären Gleichgewichtszustand, in eV/kB angeben.
dem die linke Seite der Mastergleichung gleich Ein System, das durch Energiezufuhr seine
Null ist. Damit die rechte Seite ebenfalls gleich Entropie stark erhöhen kann, wird Energie ger-
Null ist, müssen bei symmetrischen Raten alle ne aufnehmen – aber nur sehr ungern wieder
Wahrscheinlichkeiten gleich groß sein. Zudem abgeben. Solche Systeme nennen wir kalt. Im
setzen wir voraus, dass das System ergodisch Gegensatz dazu wird ein System, dessen En-
Abb. 5 Thermo-
meter mit zwei ist: Das Netz der möglichen Sprünge ist darin tropie bei Energiezufuhr nur wenig ansteigt,
verschiedenen so dicht geknüpft, dass alle Zustände tatsäch- Energie bereitwilliger abgeben. Solche Syste-
Skalen. lich erreicht werden können. Unter dieser Vo- me empfinden wir als heiß.
raussetzung werden wir auf das Gibbssche
Postulat geführt: Entropie als treibende Kraft
„In einem abgeschlossenen System im Gleichgewicht Man stelle sich eine Fliege vor, die im Zimmer ziellos umher
sind alle Zustände gleich wahrscheinlich und demzu- fliegt. Wenn sie durch das offene Fenster nach draußen ge-
folge ist die Entropie H = log2|Ω| maximal.“ langt, ist es sehr unwahrscheinlich, dass sie in den Raum zu-
rückkehrt. Das liegt nicht etwa daran, dass sie das Fenster
Erhaltungsgrößen von nun an meiden würde, sondern es gibt draußen einfach
Der zweite Hauptsatz wäre so gut wie bedeutungslos, wenn viel mehr mögliche Aufenthaltsorte als drinnen. Dieser sta-
es keine Erhaltungsgrößen gäbe. Wie in allen Bereichen der tistische Effekt scheint die Fliege wie eine Kraft aus dem
Physik spielen nämlich Symmetrien und die dazugehörigen Raum nach draußen zu ziehen. Dabei gibt es keine konkre-
Erhaltungsgrößen auch hier eine zentrale Rolle. te physikalische Kraft, die auf die Fliege in dieser Weise wirkt.
Als Beispiel betrachten wir ein abgeschlossenes System Alle thermodynamischen Vorgänge sind von solchen en-
mit Energieerhaltung. Da jedem Zustand eine bestimmte tropischen Kräften getrieben. Sie bewegen sich folglich im-
Energie E zugeordnet ist, zerfällt der Zustandsraum Ω nun mer in diejenige Richtung, in der das Gesamtsystem seine
in Sektoren ΩE von Zuständen gleicher Energie E (Abbil- Entropie erhöhen kann. Als Beispiel betrachten wir zwei

250 Phys. Unserer Zeit 5/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
ENTROPIE PHYSIKDIDAK TIK

ABB. 6 W Ä R M E F LU S S
I N D I V I D U E L L E U N D M I T T L E R E E N T RO PI E

A B
|
Die individuelle und mittlere Entropie Individuelle Entropien:
Energie EA Energie EB an einem Beispiel. HA = –log21/2 = 1 bit
Entropie HA Entropie HB HB = –log21/3 = 1,585 bit
Zustandsraum: Ω = { , , } HC = –log21/6 = 2,585 bit

Wahrscheinlichkeiten: Mittlere Entropie:


Zwischen zwei thermisch gekoppelten Systemen fließt
1 1 1
Wärme immer so, dass sich die Gesamtentropie erhöht. pA = , pB = , pC =
2 3 H= ∑ pi Hi = 1,459 bit.
6 i= A,B,C

Fiktive Menge mit entsprechenden


Systeme A und B, die über eine Wärmebrücke Energie aus- Häufigkeiten:
tauschen können (Abbildung 6). Der Energieaustausch fluk-
tuiert und ist prinzipiell in beiden Richtungen möglich. Im
Mittel wird jedoch diejenige Richtung bevorzugt sein, in
der sich die Entropie des Gesamtsystems erhöhen lässt. So
kommt es zu einem makroskopisch sichtbaren Energiefluss.

Thermisches Gleichgewicht Zusammenfassung


Der gerichtete Energiefluss kann nur aufrecht erhalten wer- Entropie ist eine thermodynamische Größe, die gerade An-
den, solange sich dabei die Entropie des Gesamtsystems er- fängern schwierig zu vermitteln ist. Es bietet sich deshalb an,
höht. Der Vorgang endet also, wenn beim Transport einer den Begriff der Entropie zunächst informationstheoretisch zu
kleinen Energiemenge ΔE von A nach B (Abbildung 6) der motivieren. Mit diesem Rüstzeug kann man sich physikali-
Entropiegewinn auf der einen Seite durch einen Entro- schen Fragestellungen aus dem Blickwinkel der statistischen
pieverlust auf der anderen Seite kompensiert wird, also Mechanik nähern.
ΔHA = –ΔHB. Da andererseits aber auch ΔEA = –ΔEB ist, er-
halten wir Stichworte
Entropie, Informationstheorie, individuelle Entropie, mitt-
ΔE ΔE
= ⇔ TA = TB . lere Entropie, statistische Physik, Temperatur, zweiter Haupt-
Δ HA Δ HB
satz, Gibbsches Postulat, Wärme, thermisches Gleichge-
Der gerichtete Wärmeaustausch endet also, wenn beide Sys- wicht.
teme die gleiche Temperatur erreichen.
Literatur
Wärmebad [1] M. Tribus, E.C. McIrvine, Sci. Am. 1971, 9, 224.
[2] Zum Beispiel: T. M. Cover, J. A. Thomas, Elements of Information
Eine besondere Situation entsteht, wenn eines der beiden
Theory“, Wiley, New York 2006.
Systeme, beispielsweise B, sehr groß ist. Bei Energieaus- [3] chemistrytable.webs.com/enthalpyentropyandgibbs.htm.
tausch mit einem solchen Wärmebad wird sich dessen En- [4] weitere Literaturhinweise in: arxiv.org/abs/0804.4561.
tropie ändern, während die Temperaturänderung vernach-
lässigbar klein bleibt. So wird es möglich, die differentielle Der Autor
Beziehung ΔEA = –ΔEB = –TB ΔHB zu integrieren: Haye Hinrichsen ist seit 2003 Professor für Theoreti-
sche Physik an der Universität Würzburg. Sein
Hauptinteresse gilt der statistischen Physik im
EA = const – TB HB . Nichtgleichgewicht.

Damit definieren wir die freie Energie Anschrift


Prof. Dr. Haye Hinrichsen
Fakultät für Physik und Astronomie
FA = EA – TB HA = const – TB (HA + HB)
Universität Würzburg – Campus Süd
97074 Würzburg.
und können leicht erkennen, dass eine Maximierung der hinrichsen@physik.uni-wuerzburg.de
Entropie des Gesamtsystems HA + HB mit einer Minimierung
von F gleichbedeutend ist. Mit diesem Trick integriert man
den Effekt des Wärmereservoirs in einem thermodynami-
schen Potential F.

© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 5/2012 (43) Phys. Unserer Zeit 251

Das könnte Ihnen auch gefallen