Beruflich Dokumente
Kultur Dokumente
Informationstheoretischer Zugang Zur Entropie - Entropie Entmystifiziert - H. Hinrichsen
Informationstheoretischer Zugang Zur Entropie - Entropie Entmystifiziert - H. Hinrichsen
201201298
Entropie entmystifiziert
H AYE H INRICHSEN
Entropie gilt als eine schwierig zu vermittelnde physikalische raum Ω, endlich ist, wobei |Ω| die Anzahl der Zustände
bezeichnet. Ein Lichtschalter besitzt beispielsweise den
Größe, da sie sich einer direkten Anschaulichkeit zu entziehen Zustandsraum Ω = {aus, ein} mit |Ω| = 2 Zuständen, ein
scheint. Wenn man sich diesem Begriff jedoch von einer Würfel dagegen den Zustandsraum Ω = {1, 2, 3, 4, 5, 6} mit
informationstheoretischen Perspektive her nähert, werden |Ω| = 6 Zuständen. In diesem abgesteckten Rahmen be-
ginnen wir mit der folgenden verbalen Definition:
viele Zusammenhänge leichter verständlich. „Die Information oder Entropie H eines Systems ist die
minimale Anzahl von Bits, die man benötigt, um dessen
Zustand vollständig zu charakterisieren.“
Online-Ausgabe unter:
246 Phys. Unserer Zeit 5/2012 (43) © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
wileyonlinelibrary.com
ENTROPIE PHYSIKDIDAK TIK
Ungeradzahlige Entropie
Da man mit n bit bekanntlich 2n verschiedene Bitmuster bil-
den kann, ist sofort klar, dass ein System mit 2n Zuständen
mit einer n-Bit-Datei vollständig beschrieben werden kann.
In diesem Fall ist also H = n. Was passiert aber, wenn die
Anzahl der Zustände keine Zweierpotenz ist? Um bei-
spielsweise die sechs möglichen Zustände eines Würfels
zu beschreiben, wären 3 bit erforderlich, wobei von den
23 = 8 möglichen Bitmuster zwei gar nicht gebraucht wer- Abb. 1 Fünf Würfel befinden sich in einem der 7776 möglichen Zustände. Dieser
den. Der Informationsgehalt sollte in diesem Fall also einen Zustand kann durch die Angabe von 13 Bit vollständig charakterisiert werden.
nicht ganzzahligen Wert zwischen 2 und 3 annehmen. Damit entfallen auf jeden Würfel im Mittel 2,6 Bit.
Um diesen Wert zu berechnen, betrachten wir ein zu-
sammengesetztes System bestehend aus N unterscheidba-
ren Würfeln, das in 6N möglichen Zuständen sein kann (Ab- Die in der Physik gebräuchliche Entropiedefinition
bildung 1). Zu seiner Beschreibung sind n bit erforderlich.
Dabei ist n die kleinste ganze Zahl, für die 2n ≥ 6N bezie- S = kB ln|Ω|
hungsweise n log 2 ≥ N log 6 ist. Die mittlere Anzahl der
erforderlichen Bits pro Würfel n/N ist also für gegebenes N unterscheidet sich von der obigen Definition nur durch ei-
die kleinste rationale Zahl mit der Eigenschaft nen konstanten Faktor kB ln 2, durch den die Entropie die
Einheit J/K erhält, – ein historisch bedingter Unfall, auf den
n log 6
≥ = log2 6. wir später bei der Diskussion des Temperaturbegriffs zu-
N log 2
rückkommen werden.
Für große N lässt sich diese Ungleichung immer schärfer ab-
schätzen, die Redundanz also immer weiter reduzieren. Da- Entropie eines Gases
mit konvergiert n/N für N → ∞ gegen die mittlere Entropie Die Entropie eines Gases ist nach den bisherigen Überle-
pro Würfel H = log2 6 ≈ 2, 585 (Tabelle 1). gungen die Informationsmenge, die benötigt wird, um den
Auf diese Weise lässt sich gut motivieren, dass die In- mikroskopischen Zustand des Gases vollständig zu be-
formation oder Entropie eines Systems durch schreiben. Sie muss also sämtliche Positionen und die Ge-
schwindigkeiten der Teilchen zu einem gegebenen Zeit-
H = log2|Ω| punkt erfassen. Im Rahmen der klassischen Physik ist dies
allerdings unmöglich, da diese Größen reelle Zahlen mit un-
gegeben ist. Mit dieser Formel lässt sich die Additivität der endlich vielen Nachkommastellen sind, die von sich aus be-
Entropie sofort verifizieren: Da man beim Zusammensetzen reits unendlich viel Information beinhalten.
von Teilsystemen zu einem Gesamtsystem die Anzahl der Dieses Problem konnte erst im Rahmen der Quanten-
möglichen Zustände miteinander multiplizieren muss, setzt theorie gelöst werden, in der die Genauigkeit von Ort und
sich die Gesamtentropie wegen des Logarithmus additiv aus Impuls durch die Unschärferelation Δx ·Δp ≥ h begrenzt
den Einzelentropien zusammen. wird. Näherungsweise kann man sich deshalb den Phasen-
raum des Systems in Zellen der Größe h3 unterteilt vor-
TA B . 1 ZAHL DER WÜRFEL stellen, wobei jede Zelle einen Zustand repräsentiert. Die
Anzahl der möglichen Zustände eines Teilchens erhält man
Zahl der Anzahl der erforderliche Bits pro also, indem man das vom System beanspruchte Phasen-
Würfel N Zustände 6N Bits n Würfel n/N raumvolumen Φ durch h3 teilt.
1 6 3 3 Die tatsächliche Entropie pro Teilchen in einem Gas ist
2 36 6 3 aber sehr viel geringer (siehe „Entropie von Gasen“ auf
3 216 8 2,666 S. 248). Ursache dafür ist ein weiterer quantenmechani-
4 1296 11 2,75 scher Effekt. Anders als in der klassischen Physik sind quan-
5 7776 13 2,6 tenmechanische Teilchen nämlich nicht unterscheidbar,
∞ ∞ ∞ ∼ 2,585 sondern können umgeordnet werden, ohne dass sich dabei
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 5/2012 (43) Phys. Unserer Zeit 247
der physikalische Zustand des Systems ändert. Die kombi- ABB. 2 E N T RO PI E E I N E S W Ü R F E L S
natorische Anzahl der Zustände des Gesamtsystems ist also
noch durch die Anzahl der möglichen Permutationen zu di- 3
vidieren.
2,5
Informationsreduktion durch Vorkenntnis
Mittlere Entropie H
Bislang sind wir davon ausgegangen, dass der Systemzustand 2
vor der Charakterisierung gänzlich unbekannt ist, der Be-
obachter also über keinerlei Vorkenntnisse verfügt. Ist er da- 1,5
gegen schon im Besitz einer Teilinformation über das Sys-
1
tem, reduziert sich die Entropie, da nun zur Charakterisie-
rung des Zustands eine geringere Datenmenge ausreicht.
0,5
Ein solches Vorwissen kann in einer Einschränkung des
Zustandsraums bestehen. Wenn beispielsweise bereits be- 0
kannt sein sollte, dass ein Würfelwurf eine gerade Augen- 1 10 100 1000
Wurfanzahl n
anzahl ergeben hat, halbiert sich die Anzahl der noch ver-
bleibenden Möglichkeiten, womit sich die Entropie um 1 Bit
Numerische Abschätzung der Entropie eines Würfels.
reduziert.
Eine partielle Vorkenntnis kann aber auch in Form ei-
ner Wahrscheinlichkeitsverteilung vorliegen. Dieser Fall tritt Zeichen in einem Text oftmals vorher bekannt. Schon Samu-
immer dann auf, wenn eine große Anzahl gleichartiger Sys- el Morse erkannte, dass Buchstaben wie E und T häufiger
teme zu charakterisieren ist. So ist etwa die Häufigkeit der vorkommen als beispielsweise X und Q. Damit war es effi-
zienter, die häufig auftretenden Zeichen durch besonders
kurze Morse-Codes zu repräsentieren (Tabelle 2). Je selte-
ner ein Buchstabe auftritt, umso mehr Information wird al-
E N T RO PI E VO N G A S E N
| so in solchen „entropieoptimierten“ Codes benötigt, um
diesen zu charakterisieren.
Wie viele Gigabyte enthält ein –p und +p bewegt, erhält man das
Heliumballon? Phasenraumvolumen
Individuelle Entropie
In der chemischen Literatur findet Um diesen Effekt quantitativ zu verstehen, kehren wir zum
man, dass ein Mol Helium (22,4 Liter) Φ ≈ Vmol (2p)3 ≈ 1,3 · 10–70 (Js)3. abstrakten Zustandsraum Ω zurück. Wir wollen von ihm
bei Zimmertemperatur die Entropie nun annehmen, dass die Zustände i ∈ Ω mit bestimmten
S = 126 J/K besitzt [3]. Mit der Boltz- Um den Quantenzustand eines einzel- Wahrscheinlichkeiten pi ∈[0, 1] auftreten, deren Gesamt-
mann-Konstante kB = 1,38 · 10–23 J/K nen Teilchens anzugeben, wäre also
lässt sich diese Angabe umrechnen in eine Information von etwa log2 (Φ/h3)
summe gleich 1 ist. Die Wahrscheinlichkeiten können dem-
einen Informationsgehalt von ≈ 99 Bit erforderlich, wobei h3 die nach reelle Zahlen sein, aber diese kann man beliebig ge-
Größe einer Zelle (eines Zustands) des nau durch einen Bruch annähern. Deshalb wollen wir zu-
1
H= S ≈ 1,3 ⋅ 1025 bit. Phasenraums ist. Der tatsächliche dem annehmen, dass die Wahrscheinlichkeiten rationale
kB ln 2
Wert ist aber sehr viel geringer, da die Zahlen sind, die wir auf einen gemeinsamen Hauptnenner
Das ist etwa 5000 Mal mehr als die Teilchen quantenmechanisch ununter-
Kapazität aller bislang weltweit scheidbar sind, die kombinatorische
m bringen, so dass pi = mi /m ist. Wir stellen uns nun eine
produzierten Speichermedien! Die Anzahl der Zustände also noch durch fiktive Menge mit m Elementen vor, in dem der Zustand i
Entropie pro Teilchen ist allerdings die Anzahl der möglichen Permutatio- genau mi mal vorkommt (siehe „Individuelle und mittlere
überraschend gering und beträgt nur nen der NA = 6,023 · 1023 Teilchen zu Entropie“ auf S. 251). In dieser fiktiven Menge entsprechen
etwa dividieren ist: die Häufigkeiten der Zustände exakt den vorgegebenen
1 ⎛Φ ⎞ A
N
H Wahrscheinlichkeiten.
≈ 22 bit. Ω ≈
NA ! ⎜⎝ h3 ⎟⎠
NA .
248 Phys. Unserer Zeit 5/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
ENTROPIE PHYSIKDIDAK TIK
n n
Wir wählen nun ein Element dieser fiktiven Menge zu- H ≈ – ∑ i log2 i
i ∈Ω
n n
fällig aus. Um anzugeben, um welches der m Elemente es
sich handelt, wären nach den bisherigen Überlegungen erhält. Diese Abschätzung wird im Limes n → ∞ exakt, wäh-
log2 m bit notwendig. Da aber nur der Zustand i von Inte- rend man für eine endliche Anzahl von Versuchen statisti-
resse ist, kann auf die Information zur Identifizierung des sche Abweichungen erwartet. Abbildung 2 demonstriert
Elements innerhalb der Teilmenge von mi Elementen ver- dies am Beispiel eines Würfels. Die abgeschätzte Entropie
zichtet werden, so dass log2 mi bit überflüssig sind. Für die nach n Würfen ist durch rote Punkte dargestellt. Wie man
Charakterisierung des Zustands i ist also eine Information sehen kann, nähert sich die Abschätzung für große n dem
von schon diskutierten theoretischen Wert H = log2 6 ≈ 2, 585
(grüne Line). Bei Wiederholung dieses Experiments würden
Hi = log2 m – log2 mi = log2 (m/mi) bit die roten Punkte anders verteilt sein, die entsprechenden
Mittelwerte sind in der Abbildung als gestrichelte
notwendig. Wegen pi = mi /m ist daher rote Linie visualisiert.
der individuelle Informationsge- In Abbildung 2 fällt zudem auf,
halt eines bestimmten Zustan- dass die roten Punkte sich dem
des oder Zeichens gegeben Grenzwert von unten nähern: Abb. 3 Dynamik
komplexer Syste-
durch Die tatsächliche Entropie
me. Dynamik
wird also numerisch stets eines komplexen
Hi = – log2 pi . systematisch unterschätzt. Für Systems durch
eine einzige Stichprobe n = 1 ist zufällige Sprünge
So sind beispielsweise zur Charak- die abgeschätzte Entropie sogar im- im Zustandsraum
Ω.
terisierung des Buchstabens E, der mit pE mer exakt gleich null. Dieser systematische
= 0,127 am wahrscheinlichsten ist, nur etwa 3 bit erfor- Fehler wird hervorgerufen durch die Nichtlinearität des Lo-
derlich, für das seltene Z dagegen ungefähr 10 bit. garithmus. Auch Fachleuten ist oft nicht bekannt, dass sich
dieser systematische Fehler durch einfache Korrekturterme
Mittlere Entropie in der Abschätzung erheblich reduzieren lässt. Der ameri-
Oft ist man nicht an der individuellen Entropie eines ein- kanische Psychologe George Miller [4], der auch mathema-
zelnen Zustandes, sondern an dem Mittelwert tisch arbeitete, führte die Abschätzungsformel
|Ω| n n
H = ∑ pi Hi = − ∑ pi log2 pi H ≈ – ∑ i log2 i
i ∈Ω i ∈Ω 2n ⋅ ln2 i ∈Ω n n
interessiert. Diese sogenannte Shannon-Entropie gibt an, ein. Damit lassen sich so bereits erheblich bessere Ergeb-
wie viele Bit im Durchschnitt notwendig sind, um ein Zei- nisse erzielen, die in der Abbildung blau dargestellt sind.
chen oder einen Zustand zu charakterisieren (siehe „Indi-
viduelle und mittlere Entropie“). In der Informationstheo- Statistische Physik
rie dient dieser Wert als untere Schranke für die erforderli- Entropie als Maß für die Information, die zur Beschreibung
che Bandbreite eines Übertragungskanals. eines Systems notwendig ist, hat zunächst keine direkte
Der obige Ausdruck ist undefiniert, so- physikalische Bedeutung. Zu einem physi-
bald eine der Wahrscheinlichkeiten kalischen Konzept wird die Entro-
gleich null ist, weil dann der Lo- pie erst durch die chaotische
garithmus divergiert. Da aber und damit zufällige Dynamik
solche Zustände nicht auftre- komplexer Systeme. Im Zu-
ten, tragen sie nicht zur Sum- standsraum Ω kann man
me bei. Wir können deshalb sich eine solche Dynamik als
Abb. 4 Erhal-
solche Zustände bei der Sum- zufälliges, spontanes Sprin-
tungsgrößen.
mation ausschließen oder die gen von Zustand zu Zustand Zustandsraum
Konvention 0 log2 0 = 0 benutzen. vorstellen (Abbildung 3). Befindet mit vier Energie-
sich das System beispielsweise im Zu- sektoren.
Numerische Abschätzung stand i, springt es spontan mit einer bestimmten
Die Entropie eines Systems kann numerisch abgeschätzt Übergangsrate wi → j ≥ 0, also einer gewissen Wahr-
werden, indem man eine Stichprobe von n zufälligen Zu- scheinlichkeit pro Zeiteinheit, in den Zustand j.
ständen nimmt, von denen sich ni im Zustand i befinden. Ein komplexes physikalisches System ist folglich durch
Mit Hilfe eines solchen „Samplings“ können die Wahr- seinen Zustandsraum und seine Übergangsraten bestimmt.
scheinlichkeiten pi durch die relativen Häufigkeiten ni /n ap- Wie man diese Vorstellung mit Hilfe der Chaostheorie und
proximiert werden, so dass man für die mittlere Entropie Quantenmechanik begründen kann, ist Gegenstand aktuel-
die Abschätzung ler Forschung.
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 5/2012 (43) Phys. Unserer Zeit 249
Zweiter Hauptsatz und Gibbssches Postulat dung 4). In jedem dieser Sektoren ist der zweite Hauptsatz
Die Übergangsraten unterliegen einer wesentlichen, quan- weiterhin gültig, im Gleichgewicht erreicht also das System
tenmechanisch begründbaren Einschränkung, auf der im dort die maximal mögliche Entropie:
Prinzip die gesamte Thermodynamik beruht:
„In einem abgeschlossenen System sind die Über- HE = log2|ΩE|.
gangsraten symmetrisch: wi → j = wj → i .“
Wegen dieser Symmetrie sind Übergänge in beide Richtun- Was ist Temperatur?
gen gleich wahrscheinlich, es gibt also keine Vorzugsrich- Durch die Erhaltungsgröße E wird die Entropie des Systems
tung. Vielmehr diffundiert das System orientierungslos energieabhängig und bekommt erst dadurch eine physika-
durch seinen eigenen Zustandsraum. Bei bekanntem An- lische Bedeutung. Durch Zufuhr von Energie erhöht sich
fangszustand wird so durch jeden zufälligen Sprung der ak- nämlich die Anzahl der Zustände des Vielteilchensystems,
tuelle Aufenthaltsort des Systems unklarer, die zur Lokali- damit wächst auch die zu seiner Charakterisierung benö-
sierung notwendige Information wird also immer umfang- tigte Information. Die Energiemenge, die zugeführt werden
reicher. Damit ist es intuitiv klar – wenn auch nicht so muss, um die Information um 1 bit zu erhöhen, wird als
einfach zu beweisen –, dass die mittlere Entropie bei einem Temperatur bezeichnet:
solchen „Random walk“ im Zustandsraum nur
ΔE
zunehmen kann. Dies ist die zentrale Aussage T = .
ΔH
des zweiten Hauptsatzes der Thermodynamik:
„In einem abgeschlossenen System kann Da die Temperatur in Kelvin gemessen wird
die mittlere Entropie nicht abnehmen.“ und die Entropie in der Physik eingeführt wur-
Das immer geringer werdende Wissen über de, bevor ihr Informationscharakter bekannt
den aktuellen Zustand des Systems manifes- war, hat man ihr wegen der obigen Beziehung
tiert sich in einer zeitabhängigen Wahr- die physikalische Einheit Joule/Kelvin zuge-
scheinlichkeitsverteilung pi(t), die immer un- wiesen. Erreicht wird dies durch einen di-
schärfer wird. Deren Zeitentwicklung folgt da- mensionsbehafteten Vorfaktor, der Boltzmann-
bei der sogenannten Mastergleichung : Konstante, die man deshalb wie eingangs er-
wähnt als historischen Unfall betrachten kann.
d
dt i ( ) ( )
p t = ∑ w j →i p j (t ) – wi → j pi (t ) .
j ∈Ω
Wollte man darauf verzichten, müsste man al-
lerdings die Temperatur in J/bit messen. Wohl
kaum jemand würde jedoch wie auf dem in
Nach sehr langer Zeit werden die Wahr- Abbildung 5 gezeigten Thermometer die
scheinlichkeiten zeitunabhängig. Sie erreichen Raumtemperatur als 4 · 10–21 J/bit oder 200
einen stationären Gleichgewichtszustand, in eV/kB angeben.
dem die linke Seite der Mastergleichung gleich Ein System, das durch Energiezufuhr seine
Null ist. Damit die rechte Seite ebenfalls gleich Entropie stark erhöhen kann, wird Energie ger-
Null ist, müssen bei symmetrischen Raten alle ne aufnehmen – aber nur sehr ungern wieder
Wahrscheinlichkeiten gleich groß sein. Zudem abgeben. Solche Systeme nennen wir kalt. Im
setzen wir voraus, dass das System ergodisch Gegensatz dazu wird ein System, dessen En-
Abb. 5 Thermo-
meter mit zwei ist: Das Netz der möglichen Sprünge ist darin tropie bei Energiezufuhr nur wenig ansteigt,
verschiedenen so dicht geknüpft, dass alle Zustände tatsäch- Energie bereitwilliger abgeben. Solche Syste-
Skalen. lich erreicht werden können. Unter dieser Vo- me empfinden wir als heiß.
raussetzung werden wir auf das Gibbssche
Postulat geführt: Entropie als treibende Kraft
„In einem abgeschlossenen System im Gleichgewicht Man stelle sich eine Fliege vor, die im Zimmer ziellos umher
sind alle Zustände gleich wahrscheinlich und demzu- fliegt. Wenn sie durch das offene Fenster nach draußen ge-
folge ist die Entropie H = log2|Ω| maximal.“ langt, ist es sehr unwahrscheinlich, dass sie in den Raum zu-
rückkehrt. Das liegt nicht etwa daran, dass sie das Fenster
Erhaltungsgrößen von nun an meiden würde, sondern es gibt draußen einfach
Der zweite Hauptsatz wäre so gut wie bedeutungslos, wenn viel mehr mögliche Aufenthaltsorte als drinnen. Dieser sta-
es keine Erhaltungsgrößen gäbe. Wie in allen Bereichen der tistische Effekt scheint die Fliege wie eine Kraft aus dem
Physik spielen nämlich Symmetrien und die dazugehörigen Raum nach draußen zu ziehen. Dabei gibt es keine konkre-
Erhaltungsgrößen auch hier eine zentrale Rolle. te physikalische Kraft, die auf die Fliege in dieser Weise wirkt.
Als Beispiel betrachten wir ein abgeschlossenes System Alle thermodynamischen Vorgänge sind von solchen en-
mit Energieerhaltung. Da jedem Zustand eine bestimmte tropischen Kräften getrieben. Sie bewegen sich folglich im-
Energie E zugeordnet ist, zerfällt der Zustandsraum Ω nun mer in diejenige Richtung, in der das Gesamtsystem seine
in Sektoren ΩE von Zuständen gleicher Energie E (Abbil- Entropie erhöhen kann. Als Beispiel betrachten wir zwei
250 Phys. Unserer Zeit 5/2012 (43) www.phiuz.de © 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
ENTROPIE PHYSIKDIDAK TIK
ABB. 6 W Ä R M E F LU S S
I N D I V I D U E L L E U N D M I T T L E R E E N T RO PI E
A B
|
Die individuelle und mittlere Entropie Individuelle Entropien:
Energie EA Energie EB an einem Beispiel. HA = –log21/2 = 1 bit
Entropie HA Entropie HB HB = –log21/3 = 1,585 bit
Zustandsraum: Ω = { , , } HC = –log21/6 = 2,585 bit
© 2012 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 5/2012 (43) Phys. Unserer Zeit 251