Sie sind auf Seite 1von 400



Brian Christian | Tom Griffiths

ALGORITHMEN
FÜR DEN ALLTAG
Die Wissenschaft der perfekten Entscheidung –
vom Aufräumen bis zur Partnersuche


Bibliografische Information der Deutschen Nationalbibliothek


Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen
Nationalbibliografie. Detaillierte bibliografische Daten sind im Internet über
http://dnb.d-nb.de abrufbar.

Für Fragen und Anregungen


info@rivaverlag.de

1. Auflage 2020
© 2020 by riva Verlag, ein Imprint der Münchner Verlagsgruppe GmbH
Nymphenburger Straße 86
D-80636 München
Tel.: 089 651285-0
Fax: 089 652096

Die amerikanische Originalausgabe erschien 2016 bei Henry Holt and Company, LLC,
New York, USA, unter dem Titel Algorithms to Live By. The Computer Science of Human De­
cisions. Copyright © 2016 by Brian Christian and Tom Griffiths. All rights reserved.

Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Über-
setzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form (durch Fotokopie, Mi-
krofilm oder ein anderes Verfahren) ohne schriftliche Genehmigung des Verlages reprodu-
ziert oder unter Verwendung elektronischer Systeme gespeichert, verarbeitet, vervielfältigt
oder verbreitet werden.

Übersetzung: Stephan Gebauer


Umschlaggestaltung: Marc-Torben Fischer
Umschlagabbildung: grmarc/Shutterstock, Oxanne/Shutterstock
Layout & Satz: Helmut Schaffer, Hofheim a. Ts.
Druck: GGP Media GmbH, Pößneck
Printed in Germany

ISBN Print 978-3-7423-1131-3


ISBN E-Book (PDF) 978-3-7453-0784-9
ISBN E-Book (EPUB, Mobi) 978-3-7453-0785-6

Weitere Informationen zum Verlag finden Sie unter

www.rivaverlag.de
Beachten Sie auch unsere weiteren Verlage unter www.m-vg.de
INHALTSVERZEICHNIS

EINLEITUNG … 6

1 OPTIMAL STOPPEN … 14

2 ERKUNDEN UND VERWERTEN … 42

3 SORTIEREN … 76

4 ZWISCHENSPEICHERN … 107

5 ABLAUFPLANUNG … 131

6 DIE BAYESSCHE REGEL … 161

7 ÜBERANPASSUNG … 187

8 ENTSPANNUNG … 211

9 ZUFÄLLIGKEIT … 227

10 VERNETZUNG … 254

11 SPIELTHEORIE … 283

SCHLUSS … 315

BIBLIOGRAFIE … 323

DANKSAGUNGEN … 345

ÜBER DIE AUTOREN … 348

ANMERKUNGEN … 349
EINLEITUNG
ALGORITHMEN FÜRS LEBEN

S
tellen wir uns vor, jemand sucht eine Wohnung in San Francisco – in keiner
amerikanischen Stadt dürfte es derart schwierig sein, eine Unterkunft zu
finden. Der boomende Technologiesektor und das strenge Baurecht haben
dafür gesorgt, dass die Stadt an der Pazifikküste so teuer wie New York ist und
einen härter umkämpften Wohnungsmarkt hat als die Stadt am anderen Ende
des Kontinents. Neue Wohnungsanzeigen verschwinden nach wenigen Minuten
wieder, Sammelbesichtigungen arten zu Massenaufläufen aus, und oft landen die
Schlüssel in den Händen dessen, der es schafft, dem Vermieter als Erster einen
Scheck über die Kaution in die Hand zu drücken.
Auf einem derart erbittert umkämpften Markt hat man kaum Zeit für jene Art
von Recherche und Überlegung, die in der Theorie das Verhalten des rationalen
Konsumenten prägen sollte. Anders als Besucher eines Einkaufszentrums oder
Online-Kunden, die verschiedene Optionen vergleichen können, bevor sie eine
Entscheidung fällen, muss sich ein Neuankömmling in San Francisco augenblick-
lich entscheiden: Er kann diese Wohnung nehmen und darauf verzichten, andere
Optionen zu sehen, oder er kann sich für immer von dieser Wohnung verabschieden.
Nehmen wir der Einfachheit halber an, dass der Wohnungssuchende nur ein
Ziel hat: Er will seine Chance erhöhen, sich die beste verfügbare Wohnung zu
sichern. Er will das doppelte Bedauern darüber, zwischen der Skylla der »ent-
gangenen Gelegenheit« und der Charybdis der »nie gesehenen Möglichkeit« ge-
fangen zu werden, auf das absolute Mindestmaß verringern. Dabei gerät er sofort
in ein Dilemma: Wie kann er wissen, dass die Wohnung, die er gerade besichtigt,
tatsächlich die Beste ist, wenn er keine Vergleichswerte hat, um sie zu beurteilen?

6
Algorithmen fürs Leben

Und wie kann er diese Vergleichswerte finden, ohne sich einige Wohnungen an-
zusehen – und sie sich entgehen zu lassen? Je mehr Information er sammelt, desto
eher wird er das beste Angebot erkennen, wenn er es sieht – aber gleichzeitig wird
es umso wahrscheinlicher, dass er sich dieses Angebot bereits hat entgehen lassen.
Was soll unser Wohnungssuchender also tun? Wie kann er eine fundierte Ent-
scheidung fällen, wenn sich seine Versuche, sich richtig zu informieren, negativ
auf das Ergebnis auswirken? Es ist eine quälende, beinahe paradoxe Situation.
Angesichts eines solchen Problems werden die meisten Leute intuitiv erklären,
dass man ein Gleichgewicht zwischen ausreichender Suche und Entscheidungs-
freudigkeit finden muss – dass man sich genug Wohnungen ansehen muss, um
einen Standard definieren zu können, um an diesem Punkt die Erste zu nehmen,
die diesem Standard entspricht. Und tatsächlich ist die Idee des Gleichgewichts
vollkommen richtig. Aber die meisten Leute können nicht klar bestimmen, worin
das Gleichgewicht besteht. Zum Glück gibt es eine Antwort auf die Frage, wo
wir es finden können.
Die Antwort ist: 37 Prozent.
Um die größte Chance zu haben, die beste Wohnung zu finden, muss der
Wohnungssuchende 37 Prozent der Suche (das heißt elf Tage, wenn er sich einen
Monat Zeit dafür gibt) damit verbringen, unverbindlich Optionen zu prüfen. Das
Scheckheft kann er in dieser Zeit zu Hause lassen, denn es geht nur darum, seinen
Standard festzulegen. Aber wenn er 37 Prozent der Suche hinter sich hat, muss
er das Scheckheft mitnehmen und bereit sein, sich augenblicklich für die erste
Wohnung zu entscheiden, die besser ist als alle, die er bis dahin gesehen hat. Das
ist nicht bloß ein intuitiv befriedigender Kompromiss zwischen unverbindlicher
Suche und dem Wagnis der Entscheidung. Es ist die nachweislich optimale Lösung.
Das wissen wir, weil die Wohnungssuche zu einer Kategorie von
mathematischen Problemen gehört, die als »optimale Stopp-Probleme« bezeichnet
werden. Die 37-Prozent-Regel gibt eine Abfolge einfacher Schritte zur Lösung
solcher Probleme vor – die Informatiker bezeichnen dies als »Algorithmus«.
Und wie sich herausstellt, ist die Wohnungssuche nur eines von vielen optimalen
Stopp-Problemen, die wir im Alltag lösen müssen. Der Frage, ob wir eine von
mehreren Optionen wählen oder ausschließen sollen, begegnen wir in unserem
Leben immer wieder unter verschiedenen Umständen. Wie oft sollen wir um den
Block fahren, bevor wir uns für eine Parklücke entscheiden? Wie lange sollen wir
ein riskantes Geschäft fortsetzen, bevor wir unseren Gewinn einstreichen und

7
Einleitung

aussteigen? Wie lange sollen wir auf ein besseres Angebot für unser Haus oder
unser Auto warten?
Mit demselben Problem sind wir in einem besonders heiklen Bereich
konfrontiert, nämlich bei der Partnersuche. Die optimale Stopp-Theorie ist die
Wissenschaft von der Serienmonogamie.
Es gibt einfache Algorithmen, die uns nicht nur bei der Wohnungssuche,
sondern in allen Lebenssituationen helfen können, in denen wir mit der Frage
konfrontiert sind, welches der geeignete Augenblick ist, um eine Suche zu be-
enden. Derartige Probleme müssen wir jeden Tag lösen – obwohl die Dichter
natürlich mehr über die Irrungen und Wirrungen der Parnersuche als über die
Parkplatzsuche geschrieben haben –, und in einigen Fällen quälen wir uns sehr mit
der Entscheidung. Aber diese Quälerei muss nicht sein. Zumindest mathematisch
sind diese Probleme gelöst.
Jeder gestresste Mieter, Autofahrer und Partnersuchende, den wir in einer
normalen Woche in unserer Umgebung sehen, versucht im Grunde, das Rad neu zu
erfinden. Diese Leute brauchen keinen Therapeuten, sondern einen Algorithmus.
Der Therapeut sagt ihnen, dass sie das richtige Gleichgewicht zwischen Im-
pulsivität und übermäßiger Grübelei finden sollen.
Der Algorithmus sagt ihnen, dass sie das richtige Gleichgewicht bei 37 Pro-
zent finden.

*
Es gibt einige Probleme, mit denen wir alle konfrontiert sind, Probleme, die direkt
der Tatsache entspringen, dass unser Leben räumlich und zeitlich begrenzt ist.
Was sollten wir an einem Tag oder in einem Jahrzehnt tun oder nicht tun? Welches
Maß an Unordnung ist erträglich, und wie viel Ordnung ist übertrieben? Welches
Verhältnis zwischen neuen Erfahrungen und liebgewonnenen Gewohnheiten ist
eine Gewähr für ein erfülltes Leben?
Man könnte meinen, derartige Probleme beträfen nur das menschliche
Leben, aber das stimmt nicht. Seit mehr als einem halben Jahrhundert ringen
die Informatiker mit den Gegenstücken dieser Alltagsprobleme und haben sie
in vielen Fällen gelöst. Wie soll ein Computerprozessor seine »Aufmerksamkeit«
verteilen, um alle Aufgaben, die ihm der Benutzer stellt, mit möglichst geringem
Overhead-Aufwand und in möglichst kurzer Zeit erfüllen zu können? Wann sollte
er von einer Aufgabe zur anderen wechseln, und wie viele Aufgaben sollte er über-

8
Algorithmen fürs Leben

haupt annehmen? Wie kann er seine begrenzten Speicherressourcen am besten


nutzen? Sollte er mehr Daten sammeln oder anhand der Daten, die er bereits hat,
eine Entscheidung fällen? Für einen Menschen ist es eine Herausforderung, den
Tag richtig zu nutzen, aber Computer sind in der Lage, Millisekunden effizient
zu nutzen. Und wir können sehr viel daraus lernen, wie sie das tun.
»Algorithmen fürs Leben« mag wie eine sonderbare Juxtaposition klingen. Viele
Leute denken bei dem Wort »Algorithmus« an die unduchschaubare Funktions-
weise von Big Data, an obskure Machenschaften eines allmächtigen Staats und
großer Unternehmen: Algorithmen sind in ihren Augen ein zentraler Bestand-
teil der Infrastruktur der modernen Welt, aber kaum eine Quelle praktischer
Anleitungen für die Bewältigung des menschlichen Alltags. In Wahrheit ist
ein Algorithmus nichts anderes als eine endliche Abfolge von Schritten, die
man befolgen muss, um ein Problem zu lösen, und Algorithmen sind sehr viel
älter als der Computer und keineswegs auf seine Funktionsweise beschränkt.
Algorithmen wurden von Menschen verwendet, lange bevor Maschinen damit
zu arbeiten begannen.
Das Wort »Algorithmus« ist vom Namen des persischen Mathematikers al-
Chwarizmi abgeleitet, der im 9. Jahrhundert ein Buch über Rechenverfahren
schrieb. (Der Titel des Buchs war Hisab Al-dschabr wa’l-muqabala – und das
»Al-Dschabr« ist die Quelle unseres Worts »Algebra«.1) Die ältesten bekannten
mathematischen Algorithmen sind jedoch deutlich älter als al-Chwarizmis Werk:
Auf einer viertausend Jahre alten sumerischen Tontafel, die in der Nähe von Bagdad
gefunden wurde, ist eine Methode für die schriftliche Division beschrieben.2
Algorithmen gibt es jedoch nicht nur in der Mathematik. Wenn man ein Brot
nach Rezept backt, befolgt man einen Algorithmus. Wenn man einen Pullover nach
einem Muster strickt, befolgt man einen Algorithmus. Wenn man einen Feuerstein
mit einer Abfolge präziser Schläge mit einem Stück Holz oder einem Geweihstück
bearbeitet – ein unverzichtbarer Arbeitsschritt bei der Anfertigung von Steinwerk-
zeugen –, befolgt man einen Algorithmus, was zeigt, dass Algorithmen seit der
Steinzeit ein fester Bestandteil der menschlichen Technologie sind.

*
In diesem Buch befassen wir uns mit menschengemachten Algorithmen – mit der
Suche nach besseren Lösungen für die Probleme, mit denen wir Menschen jeden
Tag konfrontiert werden. Die Betrachtung des Alltagslebens durch die Brille

9
Einleitung

der Informatiker hat zahlreiche Auswirkungen. Zunächst einmal liefert sie uns
praktische, konkrete Vorschläge dazu, wie wir bestimmte Probleme lösen können.
Die optimale Stopp-Theorie sagt uns, wie lange wir suchen und wann wir uns ent-
scheiden sollen. Der Explore/Exploit-Tradeoff sagt uns, wie wir ein Gleichgewicht
zwischen der Erkundung von Neuem und der Verwertung des Bekannten herstellen
können. Die Sortiertheorie sagt uns, ob und wie wir unser Büro ordnen sollen. Die
Caching-Theorie sagt uns, wie wir unsere Schränke am besten füllen können. Die
Scheduling-Theorie sagt uns, wie wir uns unsere Zeit einteilen können.
Auf der nächsten Ebene liefert uns die Informatik ein Vokabular zur Be-
schreibung der Grundprinzipien, die in jedem dieser Bereiche am Werk sind.
Wie es Carl Sagan ausgedrückt hat: »Wissenschaft ist weniger das gesammelte
Wissen, sondern vielmehr eine Art zu denken.«3 Selbst dann, wenn das Leben
so chaotisch ist, dass uns eine strikt numerische Analyse oder eine klare Lösung
unmöglich scheint, eröffnen uns Ansätze und Konzepte, die auf eine einfachere
Form eines Problems angewandt werden können, eine Möglichkeit, die grund-
legenden Zusammenhänge zu verstehen und Fortschritte zu erzielen.
Und ganz allgemein kann uns ein Blick durch die Brille des Informatikers viel
über die Natur des menschlichen Verstands, die Bedeutung der Rationalität und
die älteste aller Fragen verraten: Wie sollen wir leben? Indem wir die Kognition
als ein Mittel zur Lösung der grundlegenden Berechnungsprobleme betrachten,
mit denen uns unsere Umwelt konfrontiert, gewinnen wir ein vollkommen anderes
Bild von der menschlichen Rationalität.4
Der Gedanke, das Studium der Abläufe in Computern könne Aufschlüsse
darüber liefern, wie wir denken und entscheiden, was wir glauben und wie wir
uns verhalten sollten, dürfte auf viele Menschen nicht nur wie eine extrem ver-
engte Vorstellung, sondern geradezu irregeleitet wirken. Selbst wenn wir von
der Informatik etwas darüber lernen können, wie wir denken und handeln: Wer
möchte das hören? Wenn man die Künstliche Intelligenz und die Roboter in der
Science-Fiction sieht, wirkt ein solches Leben kaum lebenswert.
Das liegt teilweise daran, dass wir uns, wenn wir an Computer denken, kalte,
mechanische, deterministische Systeme vorstellen: Maschinen, die eine strikt
deduktive Logik anwenden, durch eine vollständige Berechnung aller Optionen
zu ihren Entscheidungen gelangen und genau die richtige Antwort ausspucken,
egal wie lange und mühsam sie darüber nachdenken müssen. Tatsächlich hatte
der Mensch, der sich als Erster einen Computer vorstellte, im Grunde so eine

10
Algorithmen fürs Leben

Maschine im Sinn. Alan Turing definierte das Konzept der Computerberechnung


anhand der Analogie zu einem menschlichen Mathematiker, der eine lange Be-
rechnung sorgfältig Schritt für Schritt durchgeht und zu einem unzweifelhaft
richtigen Ergebnis gelangt.5
Daher kann es überraschend wirken, dass moderne Computer angesichts eines
schwierigen Problems in Wahrheit nicht so vorgehen. Normale Berechnungen
sind natürlich keine Herausforderung für einen modernen Computer. Schwierig
sind für ihn Aufgaben wie die Kommunikation mit Menschen, die Reparatur
beschädigter Dateien oder eine Go-Partie, das heißt Probleme, bei denen es
keine klaren Regeln gibt, ein Teil der benötigten Information fehlt oder die
Ermittlung der exakt richtigen Antwort die Berechnung einer astronomischen
Zahl von Möglichkeiten erfordern würde. Und die Algorithmen, die entwickelt
worden sind, um die schwierigsten Probleme zu lösen, haben den Computer aus
der völligen Abhängigkeit von der erschöpfenden Berechnung befreit. Um Auf-
gaben zu lösen, die sich in der realen Welt stellen, müssen Computer lernen, mit
dem Zufall umzugehen, zwischen Zeitaufwand und Genauigkeit abzuwägen und
mit Annäherungswerten zu arbeiten.
Die Computer werden besser darin, Probleme der realen Welt zu bewältigen,
und arbeiten dabei nicht nur mit Algorithmen, die wir in unserem Alltagsleben
nutzen können: Sie liefern uns auch einen besseren Maßstab für das Verständnis
der menschlichen Kognition. In den vergangenen zwei Jahrzehnten hat uns die
Verhaltensökonomie eine wenig schmeichelhafte Geschichte über das menschliche
Wesen erzählt: Sie sagt uns, dass wir irrational und fehleranfällig sind, was im
Wesentlichen an der störungsanfälligen, idiosynkratischen Hardware des mensch-
lichen Gehirns liegt.6 Diese selbstkritische Sichtweise findet eine wachsende
Anhängerschaft, aber es gibt einige ungeklärte Fragen. Warum bewältigen
Vierjährige zahlreiche kognitive Aufgaben in Bereichen wie Vorstellungskraft,
Sprache und folgerichtiges Denken immer noch besser als Supercomputer, die
viele Millionen Dollar kosten?
Die von der Computerwissenschaft gefundenen Lösungen für Alltagsprobleme
zeichnen ein anderes Bild des menschlichen Verstands. Das Leben ist voller
Probleme, die einfach schwer sind. Und die Fehler, die Menschen bei ihren Ver-
suchen machen, Probleme zu bewältigen, verraten uns in vielen Fällen mehr über
die wesenhafte Vertracktheit des Problems als über die Unzulänglichkeit des
menschlichen Gehirns. Wenn wir die Welt algorithmisch betrachten und etwas

11
Einleitung

über die Grundstruktur unserer Probleme und die Eigenschaften geeigneter


Lösungen in Erfahrung bringen, stellen wir fest, dass unser Verstand in Wahrheit
sehr gut funktioniert, und verstehen besser, warum wir Fehler begehen.
Tatsächlich werden wir Menschen offenbar unentwegt mit einigen der
kniffligsten Probleme konfrontiert, mit denen sich die Informatik beschäftigt. Wir
müssen oft angesichts von Ungewissheit, Zeitmangel, unvollständiger Information
und sich rasch wandelnden Bedingungen Entscheidungen fällen. In manchen
Fällen ist es den Computerwissenschaftlern bisher nicht gelungen, effiziente
Algorithmen zu entwickeln, die stets die richtige Lösung für diese Probleme
liefern. Und in bestimmten Fällen existieren solche Algorithmen vermutlich nicht.
Doch selbst dort, wo keine perfekten Algorithmen gefunden wurden, hat
die Auseinandersetzung mehrerer Generationen von Informatikern mit den
schwierigsten Problemen der realen Welt wichtige Erkenntnisse geliefert. Diese
mühsam gewonnenen Lösungsansätze widersprechen unseren Vorstellungen von
der Rationalität und haben wenig Ähnlichkeit mit den klaren Anweisungen, mit
denen ein Mathematiker versucht, die Welt in eine Ordnung zu zwingen. Diese
Lösungsvorschläge lauten: Prüfe nicht immer sämtliche Optionen. Strebe nicht
unbedingt jedes Mal das scheinbar beste Ergebnis an. Richte gelegentlich ein
Durcheinander an. Reise mit leichtem Gepäck. Lasse Dinge unerledigt. Ver-
traue deinem Gespür und denke nicht zu lange nach. Entspanne dich. Wirf eine
Münze. Vergib, aber vergiss nicht. Bleibe dir treu.
Angesichts dessen wirkt die Aussicht, sich im Leben an den Erkenntnissen
der Informatik zu orientieren, nicht mehr ganz so erschreckend. Und anders als
bei den meisten Ratschlägen ist der Nutzen dieser Empfehlungen bewiesen.

*
So wie die Entwicklung von Algorithmen für Computer ursprünglich ein zwischen
verschiedenen Disziplinen angesiedeltes Forschungsgebiet war – eine sonderbare
Aktivität, die halb Mathematik und halb Ingenieurswissenschaft war –, ist auch
die Entwicklung von Algorithmen für das menschliche Leben ein Gebiet, das in
keiner Disziplin beheimatet ist. Das Algorithmendesign stützt sich heute nicht
mehr ausschließlich auf Informatik, Mathematik und Ingenieurswissenschaft,
sondern auch auf verwandete Gebiete wie Statistik und Operations Research. Und
wenn wir herausfinden wollen, welcher Zusammenhang zwischen für Maschinen
entwickelten Algorithmen und der menschlichen Entscheidungsfindung besteht,

12
Algorithmen fürs Leben

müssen wir auch die Erkenntnisse von Kognitionsforschung, Psychologie, Öko-


nomie und anderen Disziplinen nutzen.
Die Autoren sind mit diesem interdisziplinären Territorium vertraut. Brian
studierte Informatik und Philosophie, bevor er sich der Anglistik zuwandte und
schließlich eine Tätigkeit am Schnittpunkt der drei Felder aufnahm. Tom studierte
Psychologie und Statistik, bevor er Professor an der Universität Berkeley wurde,
wo er sich vor allem mit der Beziehung zwischen der menschlichen Kognition
und den Abläufen in Computern beschäftigt. Aber niemand kann ein Experte
auf sämtlichen Gebieten sein, die für die Entwicklung besserer Algorithmen für
das menschliche Leben wichtig sind. Auf unserer Suche nach Algorithmen fürs
Leben sprachen wir daher mit den Personen, die im letzten halben Jahrhundert
einige der berühmtesten Algorithmen entdeckten. Und wir fragten diese Personen,
die zu den intelligentesten Menschen der Welt zählen, wie sich ihre Forschung
auf ihren Zugang zu ihrem eigenen Leben ausgewirkt hat – von der Partnersuche
bis zur besten Methode, ihre Socken zu sortieren.
Auf den folgenden Seiten werden wir uns mit einigen der größten Heraus-
forderungen beschäftigen, mit denen Computer und der menschliche Geist
konfrontiert sind: Wie kann man begrenzten Platz, begrenzte Zeit, begrenzte
Aufmerksamkeit, unbekannte Unbekannte, unvollständige Information und eine
unvorhersehbare Zukunft bewältigen? Wie kann man das mit Anmut und Zu-
versicht tun? Und wie kann man es in einer Gemeinschaft tun, deren Mitglieder
alle gleichzeitig dasselbe versuchen? Wir werden uns mit der grundlegenden
mathematischen Struktur dieser Herausforderungen befassen und die Frage unter-
suchen, wie Computer – teilweise auf ganz andere Art, als wir uns vorstellen – so
ausgelegt werden, dass sie diese Aufgaben möglichst gut bewältigen können. Und
wir werden mehr darüber lernen, wie der menschliche Verstand funktioniert:
Wir werden uns die verschiedenen, aber eng verflochtenen Wege ansehen, die
er wählt, um diese Probleme in Angriff zu nehmen und diese Beschränkungen
zu bewältigen. So werden wir nicht nur konkrete Lehren für den Umgang mit
alltäglichen Problemen ziehen. Wir werden nicht nur die eleganten Strukturen,
die sich hinter den komplexesten menschlichen Dilemmata verbergen, in einem
neuen Licht sehen und erkennen, dass die Mühen des menschlichen Verstands
und jene des Computers große Ähnlichkeit haben. Wir werden auch, was noch
bedeutsamer ist, ein neues Vokabular für das Verständnis der uns umgebenden
Welt entwickeln und etwas wirklich Neues über uns selbst lernen.

13
1
OPTIMAL STOPPEN
WANN MAN AUFHÖREN SOLLTE ZU SUCHEN

Zwar leiten alle Christen ihre Hochzeitseinladung mit der feierlichen


Erklärung ein, daß sie einem besonderen göttlichen Ratschluß zu-
folge in die Ehe treten. Ich möchte das aber – als Philosoph – gerne
mit Ihnen, dem großen weisen Manne, eingehender besprechen …
Johannes Kepler 7

Wenn Sie Mr. Martin jedem anderen Menschen vorziehen, wenn Sie
ihn netter finden als alle Männer, denen Sie bisher begegnet sind,
warum sollten Sie zögern?
Jane Austen, Emma

D
as Problem ist so alltäglich, dass die Vertrauenslehrer an den amerikanischen
Universitäten eine eigene Bezeichnung dafür haben: Sie nennen es sehr
schonungslos den »turkey drop«.8 Paare, die seit der Schule zusammen sind,
kommen im ersten Studienjahr zu Thanksgiving nach Hause (daher wird »der
Truthahn fallen gelassen«) und machen sich vier Tage später als Singles wieder
auf den Weg zurück ins College.
Brian war beunruhigt, als er sich im ersten Studienjahr an seine Beraterin
wandte. Seine Freundin aus der Highschool studierte an einer anderen Universität,
und es lagen mehrere Bundesstaaten zwischen ihnen. Die Distanz machte den
beiden zu schaffen. Sie mussten sich auch eine komplexere, eher philosophische
Frage stellen: Wie gut war ihre Beziehung eigentlich? Da dies ihre erste Beziehung

14
Das Sekretärinnen-Problem

war, hatten sie keine Vergleichsmöglichkeiten. Brians Beraterin sah darin ein
klassisches Freshman-Dilemma und gab ihm einen überraschend nüchternen
Rat: »Sammeln Sie Daten.«
Jeder, der Serienmonogamie betreibt, ist mit einem grundlegenden, unaus-
weichlichen Problem konfrontiert: An welchem Punkt habe ich genug Menschen
kennengelernt, um zu wissen, welcher am besten zu mir passt? Und was, wenn
mich die Sammlung der für diese Erkenntnis benötigten Daten die Beziehung
zu eben dieser Person kostet? Dies scheint das große Dilemma der Liebe zu sein.
Wie wir gesehen haben, ist dieses Dilemma, diese verzweifelte Frage des
gepeinigten Studienanfängers, das, was die Mathematiker als »optimales Stopp-
Problem« bezeichnen, und möglicherweise gibt es sogar eine Antwort auf diese
Frage: 37 Prozent.
Natürlich kommt es darauf an, welche Annahmen man in Bezug auf die Liebe
anzustellen bereit ist.

DAS SEKRETÄRINNEN-PROBLEM

Bei einem optimalen Stopp-Problem besteht das zentrale Dilemma nicht in der
Frage, welche Option man wählen soll, sondern darin, wie viele Optionen man
in Betracht ziehen soll.9 Mit derartigen Problemen sind nicht nur Verliebte und
Mieter konfrontiert, sondern auch für Autofahrer, Hauseigentümer, Einbrecher
und andere.
Die 37-Prozent-Regel* ist ein Ergebnis der Auseinandersetzung mit dem be-
rühmtesten optimalen Stopp-Problem, das unter der Bezeichnung »Sekretärinnen-
problem« bekannt ist.10 Die Ausgangslage ähnelt der im Dilemma des Wohnungs-
suchenden, mit dem wir uns in der Einleitung beschäftigt haben. Nehmen wir
an, wir führen Bewerbungsgespräche mit einer Reihe von Kandidaten für eine
Sekretärinnenstelle und wollen die Wahrscheinlichkeit maximieren, dass es uns
gelingen wird, die beste Bewerberin auszuwählen. Wir wissen nicht, wie wir die
einzelnen Bewerberinnen benoten sollen, aber wir können problemlos beurteilen,
welche wir bevorzugen. (Ein Mathematiker würde sagen, dass wir nur Zugang
zu den Ordnungszahlen haben, das heißt zum relativen Rang jeder Bewerberin

* Die in diesem Buch behandelten Algorithmen werden fett gedruckt.

15
Optimal stoppen

verglichen mit allen anderen, während uns die Kardinalzahlen, das heißt die
Einstufung in einer allgemeinen Skala, unbekannt sind.) Wir beginnen, die
Bewerberinnen in beliebiger Reihenfolge zu interviewen. Wir können jederzeit
einer Kandidatin die Stelle anbieten, und sie wird den Job garantiert annehmen,
womit die Suche beendet ist. Auf der anderen Seite haben wir in dem Moment, in
dem wir uns entschließen, eine Bewerberin nicht einzustellen, keine Möglichkeit
mehr, zu dieser Kandidatin zurückzukehren.
Es wird allgemein angenommen, dass das Sekretärinnenproblem erstmals im
Februar 1960 in der Zeitschrift Scientific American beschrieben wurde, wo sich
Martin Gardner in seiner beliebten Kolumne zu mathematischen Knobeleien damit
befasste (allerdings ohne auf Sekretärinnen Bezug zu nehmen).11 Die Ursprünge des
Problems sind jedoch überraschend geheimnisvoll.12 Wir stießen bei einer eigenen
Suche eigentlich nur auf Spekulationen, aber dann entschlossen wir uns zu einer
unerwartet praktischen Detektivarbeit: Wir fuhren im Auto nach Stanford, um
im Archiv die Schachteln auszugraben, in denen Gardners Korrespondenz aus
den Fünfziger- und Sechzigerjahren aufbewahrt wird. Die Lektüre von Papier-
korrespondenz hat eine gewisse Ähnlichkeit mit dem Belauschen eines Telefon-
gesprächs: Man hört nur die Person an einem Ende der Leitung sprechen, während
man auf die Äußerungen der anderen Seite nur aus den Worten der belauschten
Person schließen kann. Bei unserer Recherche fanden wir nur die Antworten auf
die Briefe, in denen Gardner vor mehr als einem halben Jahrhundert offenbar über
seine Erkenntnisse zu den Ursprüngen des Problems berichtet hatte. Je mehr wir
lasen, desto verworrener und unklarer wurde die Geschichte.
Der Harvard-Mathematiker Frederick Mosteller berichtete im Jahr 1966,
dass ihm sein Kollege Andrew Gleason elf Jahre früher von dem Problem erzählt
hatte.13 Gleason hatte seinerseits von jemand anderem davon gehört. Leo Moser
von der University of Alberta schrieb in einem Brief, er habe in »einigen Notizen«
von R. E. Gaskell von Boeing davon gelesen, der seinerseits einen Kollegen als
Quelle nannte. Roger Pinkham von der Rutgers University schrieb, er habe erst-
mals im Jahr 1955 von dem Mathematiker J. Shoenfield von der Duke University
über das Problem gehört, »und wenn ich mich richtig erinnere, hatte ihm jemand
in Michigan davon erzählt«.14
Dieser »Jemand« in Michigan war mit einiger Sicherheit ein Mann namens
Merrill Flood. Flood ist außerhalb der Mathematik kaum bekannt, aber wenn
man sich mit der Computerwissenschaft beschäftigt, stößt man fast zwangsläufig

16
Das Sekretärinnen-Problem

auf seinen Einfluss.15 Er war derjenige, der das Problem des Handelsreisenden
bekannt machte (mit dem wir uns in Kapitel 8 eingehender befassen werden), er
entwickelte das Gefangenendilemma (Kapitel 11), und möglicherweise stammt
sogar der Terminus »Software« von ihm. Im Jahr 1958 war Flood nachweislich
der Erste, der die 37-Prozent-Regel beschrieb, und er erklärte, sich seit 1949
mit dem Problem beschäftigt zu haben, wobei er selbst jedoch auf die Beiträge
mehrerer anderer Mathematiker verwies.16
Wie dem auch sei, das Sekretärinnenproblem erwies sich als beinahe perfektes
mathematisches Rätsel: einfach zu erklären, teuflisch schwer zu lösen, mit einer
knappen, prägnanten Antwort und verlockenden Implikationen. Die Folge war,
dass es sich in den Fünfzigerjahren wie ein Buschbrand in der mathematischen
Gemeinde ausbreitete und dank Gardners Kolumne im Jahr 1960 das Interesse
der breiten Öffentlichkeit weckte. In den Achtzigerjahren waren das Problem und
seine Abwandlungen Gegenstand derart vieler Analysen, dass es in wissenschaft-
lichen Arbeiten als eigener Untersuchungsbereich behandelt wurde.
Was die Sekretärinnen anbelangt, so ist es vergnüglich zu beobachten, wie
jedes kulturelle Umfeld formalen Systemen einen eigenen anthropologischen An-
strich gibt. Nehmen wir zum Beispiel das Schachspiel, das wir mit Bildern aus
dem mittelalterlichen Europa verbinden, obwohl das Spiel in Wahrheit seinen Ur-
sprung im Indien des 8. Jahrhunderts hat. Es wurde im 15. Jahrhundert auf plumpe
Art »europäisiert«: Der Schah wurde zum König, der Visier zur Königin und der
Elefant zum Boten/Läufer (im Englischen zum Bischof). Auch die optimalen
Stopp-Probleme gibt es in verschiedenen Inkarnationen, die jeweils Aufschluss
über die zu einer gegebenen Zeit vorherrschenden Bedingungen geben. Im 19. Jahr-
hundert wurden derartige Probleme anhand von barocken Verlosungen und jungen
Frauen veranschaulicht, die einen Gemahl auswählen sollten. Anfang des 20. Jahr-
hundert tauchten Reisende auf, die entlang ihrer Fahrtroute nach Hotels suchten,
und Männer hielten nach einer geeigneten Braut Ausschau. Und in der von Männern
dominierten Bürowelt der Nachkriegszeit suchten Manager eine Sekretärin. Die
erste nachgewiesene Erwähnung des »Sekretärinnenproblems« scheint ein Artikel
aus dem Jahr 1964 zu sein, und irgendwie blieb diese Bezeichnung hängen.17
Woher die 37 Prozent?
Bei der Suche nach einer guten Sekretärin können wir zwei Fehler begehen: Wir
können die Suche zu früh beenden, und wir können sie zu spät beenden. Hören wir
zu früh auf zu suchen, so bleibt die beste Bewerberin unentdeckt. Hören wir zu spät

17
Optimal stoppen

auf zu suchen, so warten wir auf eine bessere Bewerberin, die nicht existiert. Die
optimale Strategie erfordert also, dass wir das richtige Gleichgewicht finden und eine
Gratwanderung zwischen übermäßig langer und unzureichender Suche bewältigen.
Wenn wir uns nur mit der besten Kandidatin zufriedengeben werden, ist klar,
dass wir im Verlauf des Auswahlprozesses nicht einmal daran denken dürfen,
eine Bewerberin einzustellen, die nicht die beste bisher begutachtete ist. Aber es
genügt auch nicht, dass sie die bisher beste ist, denn die erste Bewerberin wird per
definitionem selbstverständlich ebenfalls die bis dahin beste mögliche Wahl sein.
Allgemein dürfen wir annehmen, dass die Wahrscheinlichkeit, dass wir »bisher
beste« Bewerberinnen finden, im Lauf des Auswahlprozesses sinken wird. Zum
Beispiel liegt die Wahrscheinlichkeit, dass die zweite Bewerberin die beste bisher
begutachtete sein wird, bei 50 zu 50, aber bei der fünften Bewerberin sinkt diese
Wahrscheinlichkeit auf 1 zu 5, bei der sechsten auf 1 zu 6 usw. Die Folge ist, dass
die »bisher besten« Bewerberinnen immer beeindruckender sein werden, je länger
die Suche dauert (definitionsgemäß werden sie besser sein als alle, die wir vorher
gesehen haben) – aber auf der anderen Seite werden wir solche Bewerberinnen
immer seltener zu Gesicht bekommen.
Nun wissen wir also, dass es voreilig wäre, würden wir uns für die erste bisher
beste Bewerberin (das heißt für die erste Bewerberin überhaupt) entscheiden.
Wenn es hundert Bewerbungen um den Posten gibt, wäre es auch überhastet,
der nächsten bisher besten Bewerberin die Stelle anzubieten, nur weil sie besser
als die Erste ist. Wie sollen wir also vorgehen?
Es gibt eine Reihe möglicher Strategien. Beispielsweise könnten wir der dritten
Bewerberin, die besser ist als alle zuvor begutachteten, den Posten anbieten – oder
vielleicht der vierten. Oder wir könnten uns für die bisher beste Kandidatin ent-
scheiden, mit der wir sprechen, nachdem wir zahlreiche Bewerberinnen gesehen
haben, die nicht besser als die vorhergehenden waren.
Doch wie sich herausstellt, ist keine dieser relativ vernünftigen Strategien die
beste. Stattdessen ist die optimale Lösung das, was wir als Regel »Erst schauen,
dann die Entscheidung wagen« (Look-Then-Leap) bezeichnen können: Wir legen
einen bestimmten Zeitraum für das »Schauen«, für Datensammlung und Ab-
wägung der Optionen fest und verpflichten uns dazu, in dieser Zeit keine Be-
werberin auszuwählen, so überzeugend sie auch sein mag. Nach Ablauf dieser Zeit
beginnt die »Wagnis«-Phase, in der wir uns augenblicklich für die erste Kandidatin
entscheiden, die besser ist als alle zuvor in der Phase des »Schauens« interviewten.

18
Das Sekretärinnen-Problem

Es ist leicht nachvollziehbar, dass die Regel »Erst schauen, dann die Ent-
scheidung wagen« aus der Beschäftigung mit den kleinsten Pools von Be-
werberinnen hervorgeht. Wenn es nur eine Bewerberin gibt, ist das Problem
leicht zu lösen: Wir stellen sie natürlich ein! Wenn wir zwei Bewerberinnen
haben, liegt die Erfolgschance bei 50 zu 50, egal was wir tun. Wir können die
erste Bewerberin einstellen (die in der Hälfte der Fälle auch die bessere sein wird),
oder wir können die Erste ablehnen und automatisch die Zweite einstellen (die
ebenfalls in der Hälfte der Fälle die bessere sein wird).
In dem Moment, in dem wir eine dritte Bewerberin hinzufügen, wird es
interessant. Wenn wir unsere Sekretärin zufällig auswählen, liegt die Wahrschein-
lichkeit, dass wir auch die Beste finden, bei einem Drittel oder 33 Prozent. Bei
zwei Bewerberinnen war kein besseres Ergebnis möglich als bei einer Zufallsaus-
wahl, aber wie sieht es bei drei Kandidatinnen aus? Wie sich herausstellt, können
wir in diesem Fall die Wahrscheinlichkeit der richtigen Wahl gegenüber einer
zufälligen Entscheidung sehr wohl erhöhen – es hängt nur davon ab, wie wir mit
der zweiten Bewerberin verfahren. Wenn wir mit der ersten Kandidatin sprechen,
haben wir keinerlei Information: Sie ist in jedem Fall die bisher beste Bewerberin.
Wenn uns die dritte Bewerberin gegenübersitzt, haben wir keinerlei Handlungs­
macht mehr: Wir müssen dieser Kandidatin die Stelle anbieten, da wir die beiden
anderen abgelehnt haben. Aber bei der zweiten Bewerberin haben wir ein wenig
von beidem: Wir wissen, dass sie besser oder schlechter als die erste Kandidatin ist,
und wir können wählen, ob wir sie einstellen oder ablehnen wollen. Was geschieht,
wenn wir sie einfach einstellen, sofern sie besser als die erste Bewerberin ist, und
ablehnen, sofern sie schlechter als die Erste ist? Wie sich herausstellt, ist dies die
beste mögliche Strategie, wenn wir es mit drei Bewerberinnen zu tun haben: An-
hand dieser Strategie können wir überraschenderweise bei drei Bewerberinnen
genauso gute Ergebnisse erzielen wie bei zwei Bewerberinnen, da wir in genau
der Hälfte der Fälle die richtige Kandidatin finden werden.*

* Mit dieser Strategie haben wir ein Risiko von 33 Prozent, die beste Bewerberin abzulehnen, und ein
Risiko von 16 Prozent, sie gar nicht erst kennenzulernen. Genauer gesagt, gibt es exakt sechs mögliche
Anordnungen der drei Bewerberinnen abhängig von ihrer Qualität: 1-2-3, 1-3-2, 2-1-3, 2-3-1, 3-1-2
und 3-2-1. Mit der Strategie, die erste Bewerberin nur anzuschauen und die folgende Kandidatin ein-
zustellen, die besser ist, werden wir in drei von sechs Fällen erfolgreich sein (2-1-3, 2-3-1, 3-1-2) und
in den anderen drei scheitern – zweimal, weil wir zu lange suchen (1-2-3, 1-3-2) und einmal, weil wir
nicht lange genug suchen (3-2-1).

19
Optimal stoppen

Wenn wir uns das Szenario mit vier Bewerberinnen ansehen, stellen wir fest,
dass wir immer noch bei der zweiten Bewerberin den Sprung wagen sollten, aber
bei fünf Bewerberinnen sollten wir uns erst bei der Dritten entscheiden.
Wenn der Pool von Bewerberinnen wächst, stabilisiert sich der exakte Punkt,
an dem wir die Linie zwischen Suchen und Springen ziehen sollten, bei 37 Prozent
des Pools* – womit wir bei der 37-Prozent-Regel sind: Wir sollten uns die ersten
37 Prozent der Bewerberinnen ansehen, ohne eine von ihnen auszuwählen, und
von da an bereit sein, uns für die erste Kandidatin zu entscheiden, die besser ist
als alle, die wir bisher gesehen haben.18

Zahl der ­Bewerberinnen Die beste Bewerberin Chance, die beste


­einstellen nach ­Bewerberin zu finden
3 1 (33,33 %) 50 %
4 1 (25 %) 45,83 %
5 2 (40 %) 43,33 %
6 2 (33,33 %) 42,78 %
7 2 (28,57 %) 41,43 %
8 3 (37,5 %) 40,98 %
9 3 (33,33 %) 40,59 %
10 3 (30 %) 39,87 %
20 7 (35 %) 38,42 %
30 11 (36,67 %) 37,86 %
40 15 (37,5 %) 37,57 %
50 18 (36 %) 37,43 %
100 37 (37 %) 37,10 %
1000 369 (36,9 %) 36,81 %

Die optimale Strategie zur Auswahl einer Sekretärin

* Um genau zu sein, sind es etwas weniger als 37 Prozent. Der mathematisch optimale Anteil der Be-
werberinnen, die wir uns ansehen sollten, ist 1/e – dieselbe mathematische Konstante e, die 2,71828…
entspricht und in der Berechnung von Zinseszinsen auftaucht. Aber Sie müssen e nicht auf die zwölfte
Dezimalstelle genau kennen: Alles zwischen 35 Prozent und 40 Prozent ergibt eine Erfolgsquote, die
extrem nahe beim Maximum liegt. Weitere Informationen zu den mathematischen Details finden Sie
in den Anmerkungen am Ende des Buchs.

20
Das Sekretärinnen-Problem

Wie sich herausstellt, haben wir dank dieser optimalen Strategie eine Chance von
37 Prozent, die beste Bewerberin zu finden; eine der auffälligen mathematischen
Symmetrien dieses Problems besteht darin, dass die Strategie selbst und ihre
Erfolgschancen auf denselben Wert hinauslaufen.19 Die obige Tabelle zeigt die
optimale Strategie zur Lösung des Sekretärinnenproblems bei unterschiedlich
vielen Bewerberinnen. Wie wir sehen, nähert sich die Erfolgschance – wie der
geeignete Punkt, an dem man die Suche beenden und sich entscheiden sollte – mit
steigender Zahl von Bewerberinnen 37 Prozent an.
Eine Fehlerquote von 63 Prozent bei Anwendung der besten möglichen Strategie
ist natürlich ernüchternd. Selbst wenn wir angesichts eines Sekretärinnenproblems
die optimale Strategie wählen, werden wir in den meisten Fällen nicht das ge-
wünschte Ergebnis erzielen – das heißt, wir werden nicht die beste Bewerberin
finden. Das ist eine schlechte Nachricht für jene unter uns, die unter der Partner-
suche eine Suche nach »der oder dem Richtigen« verstehen. Aber es gibt einen
Hoffnungsschimmer. Man sollte meinen, dass unsere Chance, die beste Sekretärin
zu finden, stetig sinken wird, je größer das Angebot an Kandidatinnen ist. Wählen
wir unsere Sekretärin zum Beispiel nach dem Zufallsprinzip aus, so haben wir bei
einem Angebot von hundert Bewerberinnen eine Erfolgschance von 1 Prozent.
Bei einem Pool von einer Million Bewerberinnen sinkt die Wahrscheinlichkeit,
zufällig die beste Kandidatin auszuwählen, auf 0,0001 Prozent. Doch bemerkens-
werterweise ändern sich die mathematischen Verhältnisse beim Sekretärinnen-
problem nicht. Wenn wir optimal stoppen, liegt die Wahrscheinlichkeit, die beste
Bewerberin zu finden, bei einem Pool von hundert Bewerberinnen bei 37 Pro-
zent – und bei einem Pool von einer Million Kandidatinnen liegt sie ebenfalls
bei 37 Prozent. Je größer der Pool von Bewerberinnen, desto wichtiger also die
Kenntnis des optimalen Algorithmus. Zwar werden wir die Nadel im Heuhaufen
in der Mehrheit der Fälle nicht finden, aber die optimale Stopp-Strategie bietet
uns die beste Möglichkeit, unsere Chance zu erhöhen, so groß der Heuhaufen
auch sein mag.

21
Optimal stoppen

DER SPRUNG DER LIEBENDEN

Die Liebesleidenschaft unter den Geschlechtern hat sich zu allen


Zeiten als so gleichartig erwiesen, daß sie algebraisch ausgedrückt,
immer als konstante Größe betrachtet wern kann.
Thomas Malthus 20

Ich heiratete den ersten Mann, den ich jemals küsste. Wenn ich das
meinen Kindern erzähle, übergeben sie sich beinahe.
Barbara Bush 21

Lange bevor er Professor für Operations Research an der Carnegie Mellon Uni-
versity wurde, war Michael Trick ein Student auf der Suche nach Liebe.22 »Irgend-
wann wurde mir klar, dass dieses Problem bereits untersucht worden war: Es
war das Sekretärinnenproblem! Ich hatte eine freie Position und eine Reihe von
Kandidatinnen, und mein Ziel war es, die beste Kandidatin für die Position zu
finden.« Also rechnete er sich die Sache durch. Er wusste nicht, wie viele Frauen
er in seinem Leben kennenlernen würde, aber die 37-Prozent-Regel ist durchaus
flexibel: Sie kann auf die Zahl der Bewerber, aber auch auf den Zeitraum der
Suche angewandt werden.23 Ausgehend von der Annahme, dass seine Partner-
suche vom achtzehnten bis zum vierzigsten Lebensjahr dauern würde, ergab die
37-Prozent-Regel ein Alter von 26,1 Jahren als Punkt, an dem er vom Schauen
zum Wagnis übergehen sollte.24 Zufällig war Trick genau in diesem Alter, als er
diesen Lösungsansatz wählte. Als er eine Frau fand, die besser zu ihm passte als
alle, denen er bis dahin begegnet war, wusste er, was er zu tun hatte. Er wagte den
Sprung. »Ich wusste nicht, ob sie die Richtige war (die Annahmen des Modells
gaben mir keine Möglichkeit, das zu bestimmen), aber zweifellos erfüllte sie die
Bedingungen für diesen Schritt des Algorithmus«, schreibt er. »Also machte ich
ihr einen Antrag.«
Und sie lehnte ab.
Die Mathematiker versuchen mindestens seit dem 17. Jahrhundert, romantische
Probleme zu lösen. Der Astronom Johannes Kepler ist heute vor allem für die
Entdeckung bekannt, dass die Umlaufbahnen der Planeten elliptisch sind, und
er spielte eine wichtige Rolle in der »kopernikanischen Revolution«, zu der auch
Galileo und Newton beitrugen und die unsere Vorstellung vom Platz unseres

22
Der Sprung der Liebenden

Planeten im Universum vollkommen veränderte. Aber Kepler hatte auch irdische


Interessen. Nach dem Tod seiner ersten Frau im Jahr 1611 machte er sich auf
eine lange und beschwerliche Suche nach einer neuen Partnerin und machte im
Lauf der Jahre insgesamt elf Frauen den Hof.25 Unter den ersten vier gefiel ihm
die Letzte am besten, obwohl er sich darüber ärgerte, dass ihm durch die Ent-
scheidung »die fünfte entschlüpfte«. Doch als seine Suche beendet schien, »griff
das Schicksal ein: die vierte wurde meines Zögerns müde und versprach sich einem
anderen«. Nun war Kepler »über den Verlust der vierten genau so verärgert wie
über den Verlust der fünften«. Doch sein »Vergleichen und Abwägen« erwies sich
schließlich nicht als Unglück, denn Liebe und Vernunft zwangen ihm eine fünfte
Frau auf, die vorteilhafte Eigenschaften mitbrachte: »Kein unnötiger Stolz, kein
unnütiger Aufwand, Fleiß und einige Kenntnis in der Führung des Haushalts.«26
»Doch ich suchte weiter«, schrieb er.
Keplers Freunde und Bekannte stellten ihm weitere Frauen vor, und er setzte
die Suche (wenn auch halbherzig) fort. Seine Gedanken blieben bei Nummer
Fünf. Nachdem er insgesamt elf Frauen den Hof gemacht hatte, entschloss er
sich, die Suche abzubrechen. Während er sich auf eine Reise nach Regensburg
vorbereitete, kam er auf die fünfte Frau zurück und machte ihr einen Antrag, der
angenommen wurde. Kepler und Susanna Reuttinger heirateten und hatten sechs
Kindern miteinander, zu denen noch die Kinder aus Keplers erster Ehe kamen.
Die Biografen beschreiben das restliche häusliche Leben Keplers als besonders
friedliche und heitere Zeit.
Sowohl Kepler als auch Trick erlebten – auf gegensätzliche Art – am eigenen
Leib, dass das Sekretärinnenproblem die Suche nach der wahren Liebe übermäßig
vereinfacht. Im klassischen Sekretärinnenproblem nehmen die Bewerberinnen
den angebotenen Posten stets an – eine Abfuhr wie jene, die Trick erhielt, ist also
unmöglich. Und im theoretischen Problem gibt es keine Möglichkeit, auf eine
einmal abgelehnte Bewerberin erneut »zurückzukommen«, wie es Kepler tat.
In den Jahrzehnten seit der Einführung des Sekretärinnenproblems ist eine
Vielzahl von Abwandlungen des Szenarios untersucht worden, wobei optimale
Strategien unter verschiedensten Bedingungen entwickelt wurden. Beispielsweise
gibt es für die Möglichkeit der Zurückweisung eine einfache mathematische
Lösung: Man muss frühzeitig und häufig Heiratsanträge machen.27 Wenn die
Chance, dass wir zurückgewiesen werden, bei 50 zu 50 liegt, ergibt dieselbe Art
von mathematischer Analyse, die zur 37-Prozent-Regel führt, dass wir bereits

23
Optimal stoppen

nach Sichtung eines Viertels der Kandidatinnen beginnen sollten, Anträge zu


machen. Werden wir abgelehnt, müssen wir weiter jeder bisher besten Kandidatin
ein Angebot machen, bis uns schließlich eine Frau das Jawort gibt. Mit dieser
Strategie wird die Wahrscheinlichkeit eines Erfolgs – das heißt, die Wahrschein-
lichkeit, dass wir Heiratsanträge machen und von der besten Kandidatin im Pool
das Jawort erhalten werden – insgesamt ebenfalls bei 25 Prozent liegen. Das ist
vermutlich keine so schlechte Chance in einem Szenario, in dem das Hindernis
der Zurückweisung mit der allgemeinen Schwierigkeit verbunden ist, überhaupt
Maßstäbe festzulegen.
Kepler für seinen Teil beklagte sich über die Gefühle, die ihn dazu trieben,
die Suche fortzusetzen, Gefühle, »die ich durch Zögern, durch Vergleichen und
Abwägen der Gründe für und wider mit jedem Tag neu entfachte«. »Konnte nun
mein unruhiges Herz es nicht anders lernen, mit seinem Schicksal zufrieden zu
sein als dadurch, daß es die Unmöglichkeit einsieht, daß nicht alle Wünsche auf
einmal zu erfüllen sind?«28 Auch hier ist die optimale Stopping-Theorie ein ge-
wisser Trost. Rastlosigkeit und Selbstzweifel sind keineswegs Hinweise auf eine
moralische oder psychische Schwäche; vielmehr gehören sie zur besten Strategie
für Szenarien, in denen man eine zweite Chance bekommen kann. Wenn wir zu
den früheren Kandidaten zurückkehren können, ergänzt der optimale Algorith-
mus die vertraute Regel »Erst schauen, dann die Entscheidung wagen« durch einen
längeren Zeitraum ohne Verpflichtung sowie durch einen Plan für Rückgriffe.
Nehmen wir beispielsweise an, dass ein unmittelbarer Heiratsantrag garantiert
von Erfolg gekrönt sein wird, während verspätete Anträge in der Hälfte der Fälle
abgelehnt werden. Dann sagt uns die Mathematik, dass wir unverbindlich suchen
sollten, bis wir 61 Prozent der Kandidatinnen gesehen haben, und von diesem
Punkt an nur dann den Sprung wagen sollten, wenn sich eine Kandidatin unter
den verbleibenden 39 Prozent als die bisher Beste erweist.29 Wenn wir – so wie
Kepler – immer noch allein sind, nachdem wir alle möglichen Optionen geprüft
haben, können wir auf die beste Kandidatin zurückgreifen, die uns durch die
Lappen gegangen ist. Auch in diesem Fall ist die Symmetrie zwischen Strategie
und Ergebnis zu beobachten, denn die Wahrscheinlichkeit, dass wir die beste
Kandidatin finden werden, liegt in diesem Szenario, in dem es eine zweite Chance
gibt, bei 61 Prozent
In Keplers Fall sorgte der Unterschied zwischen der Realität und der
Theorie des klassischen Sekretärinnenproblems für ein Happy End. Tatsächlich

24
Vollständige Information

funktionierte die Abwandlung des klassischen Problems auch in Tricks Fall:


Nachdem ihn die beste Kandidaten zurückgewiesen hatte, schloss er sein Studium
ab und nahm eine Stelle in Deutschland an. Dort ging er in eine Bar und verliebte
sich in eine schöne Frau. »Drei Wochen später zogen wir zusammen, und ich lud
sie ein, ›für eine Weile‹ mit mir in die Vereinigten Staaten zu gehen.« Sie war
einverstanden – und sechs Jahre später waren die beiden verheiratet.

ETWAS GUTES ERKENNEN, WENN MAN ES VOR


DER NASE HAT: VOLLSTÄNDIGE INFORMATION

Die ersten Varianten, mit denen wir uns beschäftigt haben – Möglichkeit der
Zurückweisung und Möglichkeit des Rückgriffs – verändern die Annahmen
des klassischen Sekretärinnenproblems, bei dem zeitnahe Angebote immer und
verspätete Angebote nie angenommen werden. Bei diesen Varianten bleibt die
beste Strategie dieselbe wie im ursprünglichen Problem: Man muss eine Zeit lang
unverbindlich suchen und ab einem bestimmten Punkt bereit sein, den Sprung
zu wagen.
Aber es gibt eine noch grundlegendere Annahme des Sekretärinnenproblems,
die wir in Zweifel ziehen können: Wir wissen nichts über die Bewerberinnen mit
Ausnahme ihrer relativen Qualität im Vergleich zueinander. Wir besitzen kein
objektives oder Vorwissen darüber, was eigentlich eine gute und schlechte Be-
werberin ausmacht, und wenn wir zwei Kandidatinnen miteinander vergleichen,
wissen wir lediglich, welche von beiden der anderen überlegen ist, nicht jedoch,
wie viel besser sie ist. Diese Tatsache ist der Grund für die unvermeidliche Phase
des »Schauens«, in der wir riskieren, uns eine vorzügliche frühe Bewerberin
entgehen zu lassen, während wir Klarheit über unsere Erwartungen und Maß-
stäbe gewinnen. Die Mathematiker bezeichnen diese Art von optimalen Stopp-
Problemen als »No-Information-Spiele«.
Nun kann man einwenden, dass dieses Szenario wenig mit der Suche nach
einer Wohnung, einem Partner und sogar einer Sekretärin zu tun hat. Stellen
wir uns stattdessen vor, wir hätten irgendein objektives Kriterium – beispiels-
weise hätte jede Sekretärin eine Prüfung im Maschinenschreiben abgelegt
und wäre aufgrund ihres Ergebnisses einem Perzentil zugeordnet worden. Das
Prüfungsresultat jeder Bewerberin wird uns also verraten, wo sie gemessen an den

25
Optimal stoppen

Maschinenschreibkenntnissen unter sämtlichen Kandidatinnen einzuordnen ist,


die den Test absolviert haben: Eine Bewerberin im 51. Perzentil besitzt knapp über-
durchschnittliche Maschinenschreibkenntnisse, eine Bewerberin im 75. Perzentil
ist gemessen an dieser Fähigkeit besser als drei von vier Konkurrenten usw.
Nehmen wir an, unser Bewerberinnenpool ist repräsentativ für die Gesamt-
bevölkerung; keine Gruppe ist überrepräsentiert und es hat keinerlei Selbst-
selektion gegeben. Nehmen wir weiter an, die Geschwindigkeit beim Maschinen-
schreiben ist das einzige Kriterium, das zählt. In diesem Fall haben wir das,
was die Mathematiker als »vollständige Information« bezeichnen. Das ändert
alles. »Es muss keine Erfahrung gesammelt werden, um einen Maßstab festlegen
zu können«, wie es im grundlegenden Artikel aus dem Jahr 1966 heißt, »und
manchmal ist augenblicklich eine vorteilhafte Entscheidung möglich.«30 Mit
anderen Worten, wenn die erste Bewerberin, mit der wir sprechen, zufällig dem
95. Perzentil angehört, wissen wir das augenblicklich und können sie ruhigen
Gewissens vom Fleck weg engagieren – natürlich nur, wenn wir glauben, dass es
unter den Bewerberinnen keine gibt, die ins 96. Perzentil fällt.
Und das ist der Haken. Wenn es unser Ziel ist, die am besten für den Job
geeignete Person zu finden, müssen wir trotz der vollständigen Information
berücksichtigen, wie groß die Wahrscheinlichkeit ist, dass es eine noch bessere
Option gibt. Dank der vollständigen Information haben wir jedoch alles, was
wir brauchen, um diese Wahrscheinlichkeit direkt zu berechnen. Beispielsweise
wird die Wahrscheinlichkeit, dass die nächste Bewerberin in der Reihe dem
96. oder einem höheren Perzentil angehört, immer bei 1 zu 20 liegen. Die Ent-
scheidung darüber, ob wir die Suche stoppen sollen, hängt folglich einzig und
allein davon ab, wie viele Bewerberinnen noch in der Warteschleife sind. Voll-
ständige Information bedeutet, dass wir nicht suchen müssen, bevor wir springen.
Wir können stattdessen die Schwellenwertregel anwenden, was bedeutet, dass
wir eine Bewerberin, die oberhalb eines bestimmten Perzentils eingestuft wurde,
augenblicklich akzeptieren sollten.31 Es ist nicht nötig, uns zuerst eine Gruppe
von Bewerberinnen anzusehen, um diesen Schwellenwert festzulegen – aber wir
müssen sehr genau darauf achten, wie viele Bewerberinnen noch warten.
Die Mathematik zeigt, dass wir, wenn wir zahlreiche Bewerberinnen noch
nicht gesehen haben, sogar eine sehr gute Bewerberin ablehnen sollten, wenn
die Hoffnung besteht, eine noch bessere zu finden – aber wenn die Zahl der
Optionen schrumpft, sollten wir bereit sein, jede Bewerberin einzustellen, die

26
Vollständige Information

einfach besser als der Durchschnitt ist. Das ist eine vertraute, wenn auch nicht
unbedingt inspirierende Erkenntnis: Angesichts schwindender Optionen müssen
wir unsere Ansprüche senken. Gleichzeitig trifft der Umkehrschluss zu: Je mehr
Fische im Teich schwimmen, desto höhere Maßstäbe sollten wir anlegen. Und
in beiden Fällen sagt uns die Mathematik genau, um wie viel wir die Messlatte
anheben oder senken sollten.
Die Mathematik dieses Szenarios können wir am leichtesten verstehen, indem
wir am Ende beginnen und uns zurückarbeiten. Wenn wir bei der letzten Be-
werberin angelangt sind, bleibt uns keine andere Wahl, als sie zu nehmen. Aber
wenn wir es mit der vorletzten Bewerberin zu tun haben, lautet die Frage: Wurde
sie höher als im 50. Perzentil eingestuft? Wenn ja, sollten wir ihr den Job geben,
wenn nicht, lohnt es sich, stattdessen bei der letzten Bewerberin den Würfel zu
werfen, da die Chance, dass diese Bewerberin besser als das 50. Perzentil sein
wird, definitionsgemäß bei 50 zu 50 liegt. Desgleichen sollten wir uns für die
drittletzte Bewerberin entscheiden, wenn sie höher als im 69. Perzentil eingestuft
wurde. Der viertletzten Bewerberin sollten wir den Job geben, wenn sie besser als
78. Perzentil ist usw. Je mehr Bewerberinnen also übrig sind, desto wählerischer
können wir sein. Unter keinen Umständen sollten wir eine unterdurchschnittliche
Bewerberin einstellen, solange wir noch eine Wahl haben. (Und da es unser ein-
ziges Ziel ist, die allerbeste Bewerberin zu finden, dürfen wir nie eine Kandidatin
einstellen, die nicht die Beste ist, die wir bisher gesehen haben.)
Die Wahrscheinlichkeit, in der Version des Sekretärinnenproblems mit voll-
ständiger Information die beste Bewerberin zu finden, liegt bei 58 Prozent Das
ist immer noch weit von einem garantierten Erfolg entfernt, aber schon deutlich
besser als die Erfolgsquote von 37 Prozent die uns die 37-Prozent-Regeln in der
No-Information-Variante verspricht. Wenn wir vollständige Information besitzen,
werden wir in der Mehrzahl der Fälle erfolgreich sein, selbst wenn das Angebot
an Bewerberinnen beliebig groß wird.

27
Optimal stoppen

100

90
oberhalb dieses Perzentils, wenn…
Entscheidung für die Bewerberin

80

70

60

50

40

30

20

10

0
25 20 15 10 5 4 3 2 1 0
Zahl der verbliebenen Bewerberinnen

Schwellenwerte für optimales Stoppen beim Sekretärinnenproblem


mit vollständiger Information

Die Variante mit vollständiger Information liefert also eine unerwartete und etwas
sonderbare Erkenntnis: Bei der Goldsuche sind die Erfolgschancen größer als bei der
Suche nach Liebe. Wenn wir unsere Partner anhand eines objektiven Kriteriums
beurteilen – zum Beispiel anhand des Einkommensperzentils – können wir uns
auf sehr viel bessere Information stützen, als wenn wir nach an einer nebulösen
emotionalen Reaktion (»Liebe«) suchen, deren Beurteilung sowohl Erfahrung als
auch Vergleichsmöglichkeiten erfordert.
Natürlich gibt es keinen Grund dafür, dass das Einkommen – oder die Ge-
schwindigkeit beim Maschinenschreiben – das Kriterium sein sollte. Jeder Maß-
stab, der vollständige Information über die Position einer Option gemessen an
der aller anderen liefert, wird dazu führen, dass die Regel »Erst schauen, dann
die Entscheidung wagen« durch die Schwellenwertregel ersetzt wird, womit sich
die Chancen, die allerbeste Option in der Gruppe zu finden, deutlich erhöhen.
Es gibt noch viele andere Varianten des Sekretärinnenproblems, die zur
Modifikation der Annahmen führen und geeignet sein können, es auf eine reale
Herausforderung wie die anwendbar zu machen, Liebe (oder eine Sekretärin) zu
finden.32 Aber die Lehren, die wir aus den optimalen Stopp-Problemen ziehen
können, sind nicht auf die Suche nach Partnern oder Mitarbeitern beschränkt.
Tatsächlich werden wir mit dem Problem, wie wir die beste Wahl treffen können,

28
Wann man verkaufen sollte

wenn die Optionen nur eine nach der anderen sichtbar werden, auch beim Verkauf
eines Hauses, bei der Parkplatzsuche und dann konfrontiert, wenn wir wissen
wollen, welches der beste Zeitpunkt ist, vom Spieltisch aufzustehen. Und all diese
Probleme sind bis zu einem gewissen Grad gelöst.

WANN MAN VERKAUFEN SOLLTE

Wenn wir zwei weitere Bestandteile des klassischen Sekretärinnenproblems ab-


wandeln, können wir uns aus der Welt der Partnersuche in die Welt der Im-
mobilien bewegen. Zuvor haben wir die Suche nach einer Mietwohnung als
optimales Stopp-Problem eingestuft, aber auch beim Kauf oder Verkauf von
Wohneigentum haben wir es mit diesem Problem zu tun.
Nehmen wir beispielsweise an, wir wollen ein Haus verkaufen. Nachdem wir
mehrere Immobilienmakler zurate gezogen haben, bringen wir das Haus auf den
Markt. Wir lassen es neu streichen, bringen den Garten auf Vordermann und
warten auf die ersten Angebote. Wenn uns jemand ein Angebot macht, müssen
wir normalerweise entscheiden, ob wir es annehmen oder ablehnen wollen. Die
Ablehnung eines Angebots verursacht Kosten: Wir müssen eine weitere Hypo-
thekenrate zahlen, während wir auf weitere Angebote warten, die nicht unbedingt
besser sein werden als das letzte.
Der Verkauf eines Hauses hat Ähnlichkeit mit einem Spiel mit vollständiger
Information.33 Wir kennen den objektiven Dollarwert der Angebote, der uns nicht
nur verrät, welches Angebot besser ist, sondern auch Aufschluss darüber gibt,
um wie viel besser es ist. Zudem besitzen wir Information über die allgemeine
Marktlage, die uns zumindest eine grobe Vorhersage der zu erwartenden Angebote
ermöglicht. (Wie bei den Ergebnissen der Maschinenschreibprüfung im vorigen
Beispiel erhalten wir also »Perzentildaten« zur Einstufung von Angeboten.) Der
Unterschied ist, dass unser Ziel in diesem Fall nicht darin besteht, das allerbeste
Angebot zu finden. Vielmehr wollen wir insgesamt so viel Geld wie möglich
mit dem Verkauf des Hauses einnehmen. Da das Warten einen Preis in Dollar
hat, ist ein gutes Angebot heute also einer etwas besseren Offerte in mehreren
Monaten vorzuziehen.
Wenn wir diese Information besitzen, müssen wir uns nicht unverbindlich
Angebote anhören, um einen Schwellenwert zu bestimmen. Stattdessen können

29
Optimal stoppen

wir von vornherein einen Wert festlegen, alle niedrigeren Angebote ignorieren
und die erste Option wählen, die die Schwelle übersteigt. Wenn wir begrenzte
Rücklagen haben, die zur Neige gehen werden, wenn uns nicht bis zu einem
bestimmten Zeitpunkt ein Verkauf gelingt, oder wenn wir nur eine begrenzte
Zahl von Angeboten und anschließend kein Interesse mehr erwarten, sollten
wir natürlich unsere Ansprüche senken, wenn wir uns diesen Grenzen nähern.
(Es hat einen Grund, dass Hauskäufer nach »motivierten« Verkäufern suchen.)
Aber wenn keine dieser Einschränkungen gilt und wir nicht mit dem Rücken
zur Wand stehen, können wir uns einfach auf eine Kosten-Nutzen-Analyse des
Wartespiels konzentrieren.
Stellen wir uns einen der einfachsten Fälle vor: Wir kennen die Bandbreite der
Angebote und wissen, dass alle Angebote innerhalb dieser Bandbreite gleicher-
maßen wahrscheinlich sind. Wenn wir nicht befürchten müssen, dass die An-
gebote (oder unsere Ersparnisse) zur Neige gehen werden, können wir uns auf die
Frage konzentrieren, welcher Gewinn oder Verlust zu erwarten ist, wenn wir auf
ein besseres Angebot warten. Wenn wir das gegenwärtige Angebot ausschlagen,
müssen wir uns fragen, ob die Wahrscheinlichkeit einer besseren Offerte, multi-
pliziert mit dem Faktor, wie viel besser sie erwartungsgemäß sein wird, die Kosten
des Wartens mehr als ausgleichen wird? Wie sich herausstellt, ist die Mathematik
hier sehr klar, denn der Stopp-Preis ist eine Funktion der Kosten des Wartens
auf ein besseres Angebot.34
Für dieses mathematische Resultat ist unerheblich, ob wir ein Herrenhaus
im Wert von mehreren Millionen oder einen Geräteschuppen verkaufen. Es gibt
lediglich Aufschluss über den Unterschied zwischen dem höchsten und niedrigsten
Angebot, das wir wahrscheinlich erhalten werden. Wenn wir einige Zahlen ein-
fügen, zeigt sich, dass uns dieser Algorithmus eine wertvolle Orientierungshilfe
liefert. Nehmen wir an, die Bandbreite der erwarteten Angebote liegt zwischen
400 000 und 500 000 Dollar. Wenn die Kosten des Wartens gering sind, können
wir praktisch unendlich wählerisch sein. Liegen die Kosten des Wartens auf ein
weiteres Angebot bei nur 1 Dollar, so können wir den Ertrag maximieren, indem
wir auf jemanden warten, der bereit ist, uns 499 552,79 Dollar und nicht 1 Cent
weniger für das Haus anzubieten. Wenn das Warten mit Kosten von 2000 Dollar
verbunden ist, sollten wir ein Angebot von 480 000 Dollar annehmen. Wenn wir
auf einem trägen Markt mit Wartekosten von 10 000 Dollar konfrontiert sind,
sollten wir jedes Angebot annehmen, das 455 279 Dollar übersteigt. Und wenn

30
Wann man verkaufen sollte

$ 500

$ 490
Niedrigstes akzeptables Angebot

$ 480

$ 470

$ 460

$ 450

$ 440

$ 430

$ 420

$ 410

$ 400
$0 $ 10 $ 20 $ 30 $ 40 $ 50

Kosten pro Angebot

Schwellen für das optimale Stoppen beim Hausverkauf.

die Wartekosten der Hälfte oder mehr der erwarteten Bandbreite entsprechen – in
diesem Fall 50 000 Dollar (Bandbreite von 400 000 bis 500 000 Dollar) –, hat
es keinen Sinn, auf ein besseres Angebot zu warten: Wir akzeptieren am besten
das erste Angebot, das innerhalb unserer Bandbreite liegt, und bringen die Sache
hinter uns. Bettler können nicht wählerisch sein.
Entscheidend ist hier, dass der Schwellenwert einzig und allein von den Kosten
des Wartens abhängt. Da sich an der Wahrscheinlichkeit, dass das nächste An-
gebot gut sein wird, genauso wenig ändern wird wie an den Kosten, die uns
dadurch entstehen, dass wir herauszufinden versuchen, wie gut das nächste An-
gebot sein wird, gibt es unabhängig von unserem Glück keinen Grund dafür,
dass wir unseren Stopp-Preis irgendwann senken sollten, während wir auf weitere
Angebote waren. Wir haben diesen Preis festgelegt, bevor wir das Haus zum
Verkauf angeboten haben, und sollten von da an einfach daran festhalten.
Laura Albert McLay, eine Optimierungsexpertin von der University
of Wisconsin in Madison, erinnert sich daran, wie sie auf ihre Kenntnis von
optimalen Stopp-Problemen zurückgriff, als sie ihr Haus verkaufen wollte. »Das
erste Angebot, das wir bekamen, war ausgezeichnet«, erklärt sie, »aber es war
mit gewaltigen Kosten verbunden, denn die Leute wollten, dass wir einen Monat
früher auszogen als geplant. Es gab noch ein weiteres konkurrenzfähiges Angebot
[…], aber wir warteten, bis wir das Richtige bekamen.« Für viele Verkäufer kann

31
Optimal stoppen

es nervenaufreibend sein, ein oder zwei gute Angebote auszuschlagen, vor allem,
wenn die unmittelbar darauf folgenden nicht besser sind. McLay blieb standhaft
und bewahrte die Ruhe. Aber sie gibt zu: »Es wäre mir wirklich schwergefallen,
wenn ich nicht gewusst hatte, dass die Mathematik auf meiner Seite war.«35
Dieses Prinzip kann man auf jede Situation anwenden, in der man eine Reihe
von Angeboten erhält und einen Preis dafür bezahlen muss, auf das nächste zu
warten. Es ist also nicht nur für den Verkauf eines Hauses, sondern für eine Viel-
zahl von Fällen relevant. Beispielsweise verwenden Ökonomen diesen Algorith-
mus für die Entwicklung von Modellen zur Arbeitssuche, wo er eine Erklärung für
die scheinbar paradoxe Tatsache liefert, dass es Arbeitslosigkeit und gleichzeitig
offene Stellen gibt.36
Diese Abwandlungen des optimalen Stopp-Problems weisen eine weitere, noch
überraschendere Eigenschaft auf. Wie wir gesehen haben, fand Johannes Kepler
die Liebe, weil er auf eine frühere Option »zurückgreifen« konnte. Aber beim
Hausverkauf und auf der Arbeitssuche liegen die Dinge anders: Selbst wenn es
möglich ist, zu einem früheren Angebot zurückzukehren, und selbst wenn dieses
Angebot garantiert weiterhin gilt, sollte man niemals darauf zurückgreifen. Wenn
das Angebot damals nicht über dem Schwellenwert lag, wird es ihn auch jetzt
nicht überschreiten.37 Die Ausgaben für die fortgesetzte Suche sind versunkene
Kosten. Man sollte sich nicht auf Kompromisse einlassen und nicht an früheren
Entscheidungen zweifeln. Und man sollte nicht zurückblicken.

WANN MAN EINEN PARKPLATZ NEHMEN SOLLTE

Ich habe festgestellt, dass die drei größten Verwaltungsprobleme auf


einem Campus Sex für die gegenwärtigen Studenten, Sport für die
ehemaligen Studenten und Parkplätze für die Fakultätsmitglieder
sind.
Clark Kerr, Präsident
der Universität Berkeley, 1958–196738

Ein weiterer Bereich, in dem es zahlreiche optimale Stopp-Probleme gibt – und


in dem es im Allgemeinen nicht ratsam ist zurückzublicken – ist der Straßen-
verkehr. Die Autofahrer tauchen in einigen der frühesten Abhandlungen über

32
Wann man einen Parkplatz nehmen sollte

das Sekretärinnenproblem auf, und die Rahmenbedingungen der konstanten


Vorwärtsbewegung verwandeln fast jede Entscheidung bei einer Autofahrt in ein
Problem des richtigen Stoppens: die Suche nach einem Restaurant, die Suche nach
einer Toilette und, was für Autofahrer in der Stadt das drängendste Problem ist, die
Suche nach einem Parkplatz. Und wer könnte mehr über dieses Problem wissen als
der Mann, den die Los Angeles Times als den »Rockstar des Parkens« bezeichnet?
Wir fuhren aus Nordkalifornien nach Los Angeles, um uns mit Donald Shoup
zu unterhalten, der an der UCLA Stadtplanung unterrichtet, und versicherten
ihm, dass wir ausreichend Zeit für unerwarteten Verkehr eingeplant hätten.
»Sie sollten sich nicht mit dem ›unerwarteten Verkehr‹ beschäftigten, sondern
vermutlich eher den erwarteten Verkehr einplanen«, antwortete er.39 Shoup ist
vermutlich am ehesten für sein Buch The High Cost of Free Parking bekannt, und
er hat viel zum Verständnis dessen beigetragen, was tatsächlich geschieht, wenn
jemand versucht, im Auto einen Bestimmungsort zu erreichen.
Wir können den armen Autofahrer nur bedauern. Der von Shoup beschriebene
ideale Parkplatz stellt ein präzises Gleichgewicht zwischen dem »Preisschild« des
Parkplatzes, dem Zeitaufwand für den Fußweg vom Parkplatz zum eigentlichen
Bestimmungsort und die damit verbundene Unannehmlichkeit, dem Zeitauf-
wand für die Parkplatzsuche (der abhängig von Ziel, Tageszeit usw. erheblich
schwankt) und dem Spritverbrauch her. Die Gleichung ändert sich mit der Zahl
der Passagiere, die sich die monetären Kosten des Parkplatzes, nicht jedoch die
Zeit für die Suche oder den Fußweg teilen können. Gleichzeitig muss der Fahrer
berücksichtigen, dass die Gegend mit dem größten Angebot an Parkplätzen auch
die Gegend mit der größten Nachfrage sein dürfte; das Parken weist Merkmale
der Spieltheorie auf, da jeder Autofahrer versucht, die anderen Fahrer zu über-
listen, während diese ihrerseits versuchen, ihn zu überlisten.* Abgesehen davon
lassen sich viele Herausforderungen der Parkplatzsuche auf eine einzige Kennzahl
reduzieren: den Auslastungsgrad. Dieser gibt Aufschluss darüber, welcher Anteil
der Parkplätze gegenwärtig belegt ist. Ist der Auslastungsgrad niedrig, so ist es
leicht, einen guten Parkplatz zu finden. Ist er hoch, so wird es zu einer Heraus-
forderung, überhaupt einen Parkplatz zu finden.
Shoup erklärt, dass viele der mit der Parkplatzsuche verbundenen Probleme
darauf zurückzuführen sind, dass die Städte eine Verkehrspolitik betreiben, die

* Mehr zu den Berechnungsproblemen der Spieltheorie in Kapitel 11.

33
Optimal stoppen

zu extrem hohen Auslastungsgraden führt. Kosten die Parkplätze an einem Ort


zu wenig (oder – wie furchtbar! – überhaupt nichts), so haben die Autofahrer
beträchtliche Anreize, dort zu parken, anstatt ihren Wagen ein wenig weiter
weg abzustellen und ein Stück zu Fuß zu gehen. Also versucht alle Welt, dort zu
parken, aber die meisten Fahrer müssen feststellen, dass die Parkplätze bereits
belegt sind, und vergeuden Zeit und fossile Energieträger auf der Suche nach
einem freien Platz.
Zur Lösung des Problems hat Shoup vorgeschlagen, digitale Parkauto-
maten aufzustellen, welche die Preise abhängig von der Nachfrage erhöhen oder
senken. (Diese Lösung wird mittlerweile im Stadtzentrum von San Francisco
angewandt.40) Die Tarife werden mit Blick auf einen angestrebten Auslastungs-
grad festgesetzt, der nach Einschätzung von Shoup bei etwa 85 Prozent liegen
sollte – was eine deutliche Verringerung gegenüber den fast zu 100 Prozent vollen
Straßenrändern in den meisten Großstädten wäre. Der Grund dafür: Steigt die
Auslastung von 90 Prozent auf 95 Prozent so ist nur noch Platz für 5 Prozent mehr
Autos, während sich die Dauer der Parkplatzsuche für die Autofahrer verdoppelt.41
Der entscheidende Einfluss des Auslastungsgrads auf die Strategie bei der
Parkplatzsuche wird klar, sobald wir begreifen, dass das Parken ein optimales
Stopp-Problem ist. Wenn man durch eine Straße fährt, muss man jedes Mal,
wenn man einen der wenigen freien Parkplätze entdeckt, eine Entscheidung fällen:
Sollte man diesen Parkplatz nehmen oder versuchen, eine Lücke zu finden, die
ein wenig näher beim Bestimmungsort liegt?
Nehmen wir an, wir fahren eine unendlich lange Straße entlang, die von
gleichmäßig bemessenen Parklücken gesäumt ist.42 Unser Ziel ist es, die Ent-
fernung, die wir schließlich vom Parkplatz zu unserem eigentlichen Ziel zu Fuß
zurücklegen müssen, zu verringern. In diesem Fall ist die Regel »Erst schauen,
dann die Entscheidung wagen« die richtige Lösung. Um optimal zu stoppen,
müssen wir alle freien Plätze ignorieren, deren Distanz vom Ziel einen bestimmten
Wert übersteigt, und den ersten Parkplatz nehmen, den wir finden, sobald wir
uns innerhalb dieser Distanz befinden. Und der Punkt auf der Strecke, an dem
wir nicht länger »schauen«, sondern uns für eine freie Parklücke entscheiden,
hängt vom Anteil der Parklücken ab, die wahrscheinlich frei sein werden – vom
Auslastungsgrad. In der folgenden Tabelle finden Sie die Distanzen für einige
repräsentative Auslastungsgrade.

34
Wann man einen Parkplatz nehmen sollte

Bei diesem Auslastungsgrad ( %) Sollte man warten, bis man so viele


Parklücken entfernt ist, um den
nächsten freien Platz zu nehmen
0 0
50 1
75 3
80 4
85 5
90 7
95 14
96 17
97 23
98 35
99 69
99,9 693

Die optimale Strategie für die Parkplatzsuche

Wenn der Auslastungsgrad entlang dieser unendlichen Straße das in Großstädten


übliche Niveau von 99 Prozent erreicht und nur 1 Prozent der Parkplätze frei sind,
sollten wir den ersten freien Platz nehmen, sobald wir noch rund 70 Parklücken –
das heißt fast einen halben Kilometer – von unserem Ziel entfernt sind. Aber
wenn die Stadtverwaltung Shoups Ratschlag befolgt und der Auslastungsgrad
auf 85 Prozent sinkt, müssen wir erst ernsthaft nach einem Parkplatz Ausschau
halten, wenn wir einen halben Block entfernt sind.43
Natürlich sind die meisten von uns nur selten auf vollkommen geraden, unend-
lich langen Straßen unterwegs. So wie bei anderen optimalen Stopp-Problemen
haben die Forscher daher auch hier eine Vielzahl von Abwandlungen des Basis-
szenarios entwickelt.44 Zum Beispiel haben sie die optimale Strategie für die
Parkplatzsuche in Fällen untersucht, in denen das Wenden auf der Straße erlaubt
ist, in denen um so weniger Parkplätze zur Verfügung stehen, je näher man dem
Bestimmungsort kommt, und in denen der Fahrer im Wettbewerb mit anderen
Fahrern steht, die dasselbe Ziel haben wie er. Aber unabhängig von den exakten
Parametern des Problems wird eine größere Zahl freier Parkplätze stets den
Autofahrern das Leben erleichtern. Das sollte den Kommunen eine Lehre sein:
Bei der Parkraumbewirtschaftung geht es nicht einfach darum, eine Ressource

35
Optimal stoppen

(Parkplätze) so umfassend wie möglich zu nutzen (Auslastung). Das Parken ist


auch ein Prozess – ein optimales Stopp-Problem –, der Aufmerksamkeit, Zeit
und Treibstoff kostet und sowohl die Umwelt verschmutzt als auch den Verkehr
behindert. Eine gute Politik nimmt das Problem in seiner Gesamtheit in An-
griff. Und auch wenn es auf den ersten Blick abwegig scheinen mag, können freie
Parkplätze in einer Gegend, wo viele Leute einen Parkplatz suchen, ein Hinweis
darauf sein, dass die Parkraumbewirtschaftung richtig funktioniert.
Wir fragten Donald Shoup, ob ihm seine Forschungsergebnisse geholfen
hätten, seine eigenen Fahrten durch den dichten Verkehr von Los Angeles zu
seinem Büro an der UCLA zu optimieren. Hat der vielleicht renommierteste
Experte für die Wissenschaft des Parkens eine Geheimwaffe?
Er hat eine. »Ich fahre mit dem Rad«, erklärte er uns.45

WANN MAN AUSSTEIGEN SOLLTE

Im Jahr 1997 bezeichnete die Zeitschrift Forbes Boris Beresowski als reichsten
Mann Russlands und schätzte sein Vermögen auf 3 Milliarden Dollar.46 Nur
zehn Jahre früher hatte er noch von seinem Gehalt als Mathematiker an der
sowjetischen Akademie der Wissenschaften gelebt. Zum Milliardär war er
dank der guten Verbindungen zur Industrie geworden, die er während seiner
Forschungsarbeit geknüpft hatte: Er hatte ein Unternehmen gegründet, das die
Zusammenarbeit zwischen ausländischen Autobauern und dem sowjetischen
Automobilunternehmen AvtoVAZ koordinierte. Beresowskis Unternehmen über-
nahm den Vertrieb der von AvtoVAZ produzierten Autos und führte ein Raten-
zahlungssystem ein, um von der Hyperinflation in Russland zu profitieren. Mit
den Einnahmen kaufte Beresowski Anteile an AvtoVAZ, am Fernsehsender ORT
und schließlich an der Ölfirma Sibneft. Als Angehöriger der neuen Oligarchen-
klasse wurde er politisch aktiv und unterstützte Boris Jelzins Wiederwahl im
Jahr 1996 und Wladimir Putins Ernennung zu Jelzins Nachfolger im Jahr 1999.47
Mit dieser Entscheidung wendete sich Beresowskis Glück. Kurz nach Putins
Wahl zum Präsidenten sprach sich Beresowski öffentlich gegen eine von Putin
vorgeschlagene Verfassungsreform aus, deren Zweck es war, die Machtbefugnisse
des Präsidenten auszuweiten. Beresowskis anhaltende öffentliche Auseinander-
setzung mit Putin führte zum Bruch zwischen den beiden Männern. Als Putin

36
Wann man aussteigen sollte

im Oktober 2000 gefragt wurde, was er von Beresowskis Kritik halte, sagte er:
»Der Staat hält eine Keule in der Hand, die er einsetzt, um nur ein einziges Mal
zuzuschlagen – aber auf den Kopf. Wir haben diese Keule noch nicht benutzt […].
An dem Tag, an dem wir wirklich wütend werden, werden wir nicht zögern.«48 Im
folgenden Monat verließ Beresowski Russland und ging ins Exil nach England,
wo er weiter öffentliche Kritik an Putins Regime äußerte.
Wie gelangte Beresowski zu der Überzeugung, dass es an der Zeit war, Russ-
land zu verlassen? Kann man den Rat »auszusteigen, solange man die Nase vorn
hat«, vielleicht mathematisch definieren? Wenn sich jemand mit dieser Frage
beschäftigte, so war es Beresowski, denn das Gebiet, auf dem er all die Jahre als
Mathematiker geforscht hatte, war kein anderes als das des optimalen Stoppens:
Er war der Autor des ersten (und bisher einzigen) Buchs, das zur Gänze dem
Sekretärinnenproblem gewidmet ist.49
Die Frage, wie man aussteigen kann, solange man vorne liegt, wurde in ver-
schiedenen Formen untersucht, aber die Variante, die am ehesten auf Beresowskis
Fall anwendbar sein dürfte, ist – die russischen Oligarchen mögen mir verzeihen –
als »Einbrecherproblem« bekannt.50 In diesem Problem hat ein Einbrecher Ge-
legenheit, in eine Reihe von Häusern einzudringen. Jeder Einbruch sichert ihm
einen Ertrag, und er hat jedes Mal die Chance zu entkommen. Wird er jedoch
gefasst, so verliert er die gesamte Beute, die er angehäuft hat. Welchen Algorith-
mus sollte der Einbrecher anwenden, um den erwarteten Ertrag zu maximieren?
Die Tatsache, dass es eine Lösung für dieses Problem gibt, ist eine schlechte
Nachricht für die Autoren, die Drehbücher für Heist-Movies schreiben: Wenn das
Team versucht, den alten Hasen für einen letzten großen Coup zur Rückkehr aus
dem Ruhestand zu bewegen, muss sich der erfahrene Dieb die Sache nur durch-
rechnen. Zudem sind die Resultate durchaus einleuchtend: Die empfehlenswerte
Zahl von Einbrüchen entspricht im Wesentlichen der Wahrscheinlichkeit zu ent-
kommen, geteilt durch die Chance, erwischt zu werden. Ein kompetenter Profi,
der jeden einzelnen Raub mit 90-prozentiger Wahrscheinlichkeit erfolgreich
durchführen wird (womit er eine Chance von 10 Prozent hat, alles zu verlieren),
sollte nach 90/10 = 9 Jobs aussteigen. Und wie sieht es bei einem unbeholfenen
Amateur aus, dessen Erfolgschance bei 50 zu 50 liegt? Beim ersten Job hat er
nichts zu verlieren, aber er sollte sein Glück kein zweites Mal herausfordern.
Obwohl Boris Beresowski sehr viel über das optimale Stoppen wusste, endete
seine Geschichte schlecht. Im März 2013 fand ihn sein Leibwächter tot im

37
Optimal stoppen

Badezimmer seines Hauses in Berkshire. Er hatte einen Strick um den Hals.51


Das offizielle Ergebnis der Autopsie war, dass er sich erhängt hatte, nachdem
er in einer Reihe von Gerichtsprozessen, die seine Feinde in Russland gegen ihn
angestrengt hatten, einen Großteil seines Vermögens verloren hatte.52 Vielleicht
hätte er früher aussteigen sollen – vielleicht hätte er sich mit ein paar Millionen
Dollar zufriedengeben und auf ein politisches Engagement verzichten sollen.
Aber das widersprach leider seinem Naturell: Leonid Boguslawski, ein mit ihm
befreundeter Mathematiker, erzählt eine Geschichte über Beresowski aus einer
Zeit, in der die beiden Männer junge Forscher waren: Sie wollten auf einem See in
der Nähe von Moskau Wasserski fahren, aber das Boot, das sie dafür verwenden
wollten, hatte einen Defekt. David Hoffman gibt die Geschichte in seinem Buch
The Oligarchs wieder:
»Während ihre Freunde zum Strand hinuntergingen und ein Lagerfeuer an-
zündeten, kehrten Boguslawski und Beresowski zum Boot zurück, um den Motor
zu reparieren. […] Drei Stunden später hatten sie den Motor vollkommen aus-
einandergenommen und wieder zusammengesetzt. Er funktionierte immer noch
nicht. Sie hatten den Großteil der Party verpasst, aber Beresowski bestand darauf,
dass sie es weiter versuchen mussten. »Wir versuchten dies und jenes«, erinnert
sich Boguslawski. Beresowski gab einfach nicht auf.«53
Überraschenderweise taucht die Entschlossenheit, nicht aufzugeben – nie
aufzugeben –, ebenfalls in der Literatur über das optimale Stoppen auf. Wenn wir
uns an den breit gestreuten optimalen Stopp-Problemen orientieren, mit denen wir
uns beschäftigt haben, mag es nicht den Anschein haben, aber es gibt tatsächlich
sequenzielle Entscheidungsprobleme, für die einfach keine optimale Stoppregel
existiert.54 Ein einfaches Beispiel ist das Spiel »Dreifach oder nichts«. Nehmen wir
an, wir hätten 1 Dollar und könnten das folgende Spiel beliebig oft spielen: Wenn
wir unser gesamtes Geld verwetten, haben wir eine 50-prozentige Chance, den
Betrag zu verdreifachen, und eine 50-prozentige Chance, den gesamten Einsatz
zu verlieren. Wie oft sollten wir also spielen? Obwohl dieses Spiel ganz einfach
ist, gibt es keine Regel für das optimale Stoppen, da unser durchschnittlicher
Gewinn mit jeder Spielrunde ein wenig steigt. Wenn wir mit 1 Dollar beginnen,
werden wir in der Hälfte der Fälle 3 Dollar und in der Hälfte der Fälle 0 Dollar
bekommen, weshalb wir im Durchschnitt am Ende der Runde 1,5 Prozent in der
Tasche haben werden. Wenn wir in der ersten Runde Glück haben, können wir
aus den 3 Dollar, die wir nun haben, entweder 9 Dollar oder 0 Dollar machen,

38
Man sollte immer stoppen

womit sich der durchschnittliche Gewinn bei der zweiten Wette auf 4,5 Dollar
beläuft. Die Mathematik sagt uns hier, dass wir immer weiterspielen sollten. Aber
wenn wir diese Strategie verfolgen, werden wir irgendwann zwangsläufig alles
verlieren. Manche Probleme sollte man besser vermeiden, anstatt zu versuchen,
sie zu lösen.

MAN SOLLTE IMMER STOPPEN

Ich erwarte, dass ich nur einmal in dieser Welt weilen werde. Daher
lasse mich alles Gute, das ich tun kann, oder jede Freundlichkeit, die
ich einem Mitmenschen gegenüber zeigen kann, jetzt tun. Lasse es
mich nicht aufschieben oder versäumen, denn ich werde diesen Weg
kein zweites Mal gehen.
Stephen Grellet 55

Nutze den Nachmittag, Du kannst ihn nicht mitnehmen.


Annie Dillard56

Wir haben uns spezifische Fälle von Personen angesehen, die in ihrem Leben mit
Stopp-Problemen konfrontiert werden, und es ist klar, dass die meisten von uns
derartige Probleme in der einen oder anderen Form täglich bewältigen müssen.
Ob es nun um Sekretärinnen, Verlobte oder Wohnungen geht: Das Leben ist voll
von Situationen, in denen es darauf ankommt, im richtigen Moment zu stoppen.
Daher kommen wir nicht um die Frage herum, ob wir – sei es durch Evolution,
Bildung oder Intuition – tatsächlich die besten Strategien verfolgen.
Es hat nicht den Anschein. Etwa ein Dutzend Studien sind zum selben
Ergebnis gelangt: Die Menschen neigen dazu, zu früh zu stoppen und sich
bessere Optionen entgehen zu lassen. Um diese Erkenntnis besser verstehen zu
können, sprachen wir mit Amnon Rapoport von der University of California in
Riverside, der seit mehr als vierzig Jahren optimale Stopp-Experimente unter
Laborbedingungen durchführt.
Die Studie, die dem klassischen Sekretärinnenproblem am nächsten kommt,
führte Rapoport in den Neunzigerjahren gemeinsam mit seinem Mitarbeiter
Darryl Seale durch.57 In der Studie wurden die Versuchspersonen mit zahlreichen

39
Optimal stoppen

Wiederholungen des Sekretärinnenproblems konfrontiert, wobei die Zahl der


Bewerberinnen jeweils bei 40 oder 80 lag. Die Versuchspersonen fanden oft die
beste mögliche Bewerberin: Mit 31 Prozent war ihre Trefferquote nicht weit vom
optimalen Wert von 37 Prozent entfernt. Das Verhalten der meisten Teilnehmer
entsprach der Regel »Erst schauen, dann die Entscheidung wagen«, aber sie ent-
schieden sich in vier von fünf Fällen früher, als optimal gewesen wäre.58
Rapoport erklärte uns, dass er sich das in Erinnerung ruft, wann immer er
selbst im Alltag optimale Stopp-Probleme lösen muss. Beispielsweise unterdrückte
er bei der Wohnungssuche die Neigung, sich früh zu entscheiden: »Obwohl ich
von Natur aus sehr ungeduldig bin und gleich die erste Wohnung nehmen wollte,
versuchte ich mich zu beherrschen.«59
Aber diese Ungeduld deutet auf einen weiteren Faktor hin, der im klassischen
Sekretärinnenproblem nicht berücksichtigt wird: die Zeit. Schließlich haben wir
in der ganzen Zeit, in der wir eine Sekretärin suchen, keine Sekretärin. Dazu
kommt, dass wir den Tag mit Bewerbungsgesprächen verbringen müssen, anstatt
unserer eigentlichen Arbeit nachzugehen.
Diese Kosten sind eine mögliche Erklärung dafür, dass Leute bei der Lösung
eines Sekretärinnenproblems unter Laborbedingungen frühzeitig stoppen. Seale
und Rapoport haben gezeigt, dass die optimale Strategie dann, wenn die Kosten
der Beschäftigung mit jeder einzelnen Bewerberin auf 1 Prozent des Werts der
Identifizierung der besten Kandidatin geschätzt werden, genau dem Punkt ent-
sprechen würden, an dem die Versuchspersonen im Experiment tatsächlich von
der Suche zur Entscheidung übergingen.60
Aber in der Studie von Seale und Rapoport hatte die Suche überhaupt keine
Kosten. Warum verhielten sich die Versuchspersonen also so, als hätte es Kosten
gegeben?
Der Grund ist, dass die Zeit in unserem Verständnis immer etwas kostet. Das
hat nichts mit dem Design des Experiments zu tun, sondern mit dem mensch-
lichen Leben.
Die »endogenen« Zeitkosten der Suche, die normalerweise von den optimalen
Stopp-Modellen nicht erfasst werden, könnten also die Erklärung dafür sein,
dass die menschliche Entscheidungsfindung regelmäßig von den Vorgaben dieser
Modelle abweicht. Neil Bearden, der optimale Stopp-Strategien erforscht, drückt
es so aus: »Nachdem wir eine Weile gesucht haben, beginnen wir Menschen uns

40
Man sollte immer stoppen

zu langweilen. Es ist nicht irrational, sich zu langweilen, aber es ist schwierig,


das rigoros in einem Modell zu erfassen.«61
Aber das macht die optimalen Stopp-Probleme nicht weniger wichtig. Ganz
im Gegenteil: Der Lauf der Zeit macht alle Entscheidungen zu Entscheidungen
über das optimale Stoppen.62
»Gegenstand der Theorie des optimalen Stoppens ist das Problem, wie man
den richtigen Zeitpunkt für eine bestimmte Handlung wählen kann«, heißt es im
maßgeblichen Lehrbuch über dieses Fachgebiet,63 und man kann sich kaum eine
prägnantere Beschreibung der Conditio humana vorstellen. Wir entscheiden über
den richtigen Zeitpunkt für den Kauf von Aktien und den richtigen Zeitpunkt
für den Verkauf, aber wir entscheiden auch über den richtigen Zeitpunkt zum
Öffnen einer Flasche Wein, die wir für eine besondere Gelegenheit aufbewahrt
haben, über den richtigen Augenblick, um jemanden zu unterbrechen, und den
richtigen Augenblick, um jemanden zu küssen.
So betrachtet, entspricht die grundlegende und zugleich unglaublichste An-
nahme des Sekretärinnenproblems – seine strikte Serialität, seine kompromiss-
lose Unidirektionalität – dem Wesen der Zeit. So entspricht die explizite Prä-
misse des optimalen Stopp-Problems der impliziten Prämisse dessen, was es
bedeutet, am Leben zu sein. Das ist es, was uns zwingt, uns auf der Grundlage von
Möglichkeiten zu entscheiden, die wir noch nicht gesehen haben, und eine hohe
Fehlerrate zu akzeptieren, selbst wenn wir die optimale Strategie wählen. Keine
Entscheidung wiederholt sich. Wir werden in Zukunft vielleicht mit ähnlichen
Entscheidungen konfrontiert, aber nie wieder mit genau dieser. Das Zögern –
die Tatenlosigkeit – kann ebenso wenig rückgängig gemacht werden wie das
Handeln. Was der Autofahrer, der sich auf der Einbahnstraße vorwärtsbewegt,
für den Raum ist, sind wir für die vierte Dimension: Wir legen diesen Weg nur
ein einziges Mal zurück.
Unsere Intuition sagt uns, dass rationale Entscheidungen gleichbedeutend
damit sind, sämtliche Optionen sorgfältig abzuwägen und die beste auszu-
wählen. Aber in der Praxis, wenn die Uhr läuft, sind nur wenige Aspekte der
Entscheidungsfindung (oder des Denkens im Allgemeinen) so bedeutend wie die
Wahl des richtigen Augenblicks, um zu stoppen.

41
2
ERKUNDEN UND
VERWERTEN
DAS NEUESTE ODER DAS BESTE?

M
ein Magen knurrt. Soll ich zum Italiener gehen, den ich seit Jahren kenne,
oder das thailändische Restaurant ausprobieren, das vor Kurzem auf-
gemacht hat? Soll ich meinen besten Freund mitnehmen oder die neue
Bekannte anrufen, die ich gern besser kennenlernen möchte? Es ist einfach zu
schwierig, das zu entscheiden – vielleicht sollte ich einfach daheimbleiben. In
Ordnung, aber soll ich eine Speise zubereiten, die mir immer gut gelingt, oder
im Internet nach einem verlockenden neuen Rezept suchen? Ach was, warum
lasse ich mir nicht einfach eine Pizza bringen? Soll ich »das Übliche« bestellen
oder mich nach den Spezialitäten erkundigen? – Ich bin erschöpft, noch bevor
ich den ersten Bissen in den Mund nehme. Und der Gedanke, eine Platte zu
hören, einen Film anzuschauen oder ein Buch zu lesen – Welches Buch? – wirkt
auf einmal nicht mehr allzu entspannend.
Wir sind täglich gezwungen, zwischen Optionen zu wählen, die sich in einem
ganz spezifischen Merkmal unterscheiden: Sollen wir etwas Neues ausprobieren
oder bei Altbekanntem bleiben? Wir verstehen intuitiv, dass es im Leben darum
geht, ein Gleichgewicht herzustellen zwischen Neuerungen und Bewährtem,
zwischen dem Neuesten und dem Besten, zwischen Risiken und dem Genuss
dessen, was wir kennen und lieben. Aber so wie beim Dilemma »Weitersuchen
oder die Entscheidung wagen?« der Wohnungssuche lautet die unbeantwortete
Frage: welches Gleichgewicht?

42
Das Neueste oder das Beste?

In dem Klassiger Zen und die Kunst, ein Motorrad zu warten aus dem Jahr 1974
beklagt sich Robert Pirsig über die Gesprächseröffnung »Was gibt es Neues?«,
die in seinen Augen »zu einer endlosen Kette von Trivialitäten und Mode-
erscheinungen führt, dem Schlick von morgen.« Er hält eine alternative Frage
für sehr viel besser: »Was ist das Beste?«64
Aber in der Realität liegen die Dinge nicht so einfach. Die Tatsache, dass
jeder »beste« Song und jedes unserer Lieblingsrestaurants klein angefangen hat
und irgendwann einmal etwas »Neues« war, sollte uns daran erinnern, dass es
dort draußen noch unbekannte beste Dinge geben könnte – und dass das Neue
tatsächlich zumindest einen Teil unserer Aufmerksamkeit verdient.
Alte Aphorismen beschreiben diese Spannung, lösen sie jedoch nicht. »Make
new friends, but keep the old / Those are silver, these are gold« (Gewinne neue
Freunde, aber bewahre die alten, die einen sind Silber, die andren sind Gold)65
und »There is no life so rich and rare / But one more friend could enter there«
(Kein Leben ist so erfüllt und besonders, dass nicht ein weiterer Freund Platz
darin hätte)66 sind durchaus zutreffend, aber sie verraten uns nichts Nützliches über
das richtige Verhältnis zwischen »Silber« und »Gold«, über die beste Legierung
für ein gutes Leben.
Die Informatiker arbeiten seit mehr als einem halben Jahrhundert daran, dieses
Gleichgewicht herzustellen. Sie haben sogar eine eigene Bezeichnung dafür: Sie
nennen es den Explore/Exploit-Tradeoff, das heißt die Abwägung zwischen Er-
kunden und Verwerten.

EXPLORE/EXPLOIT

Die Worte explore (erkunden, erforschen) und exploit (verwerten, ausschöpfen,


nutzen) haben gegensätzliche Konnotationen, aber für einen Informatiker haben
sie eine durchaus spezifische und sehr viel neutralere Bedeutung. Einfach aus-
gedrückt, geht es bei der exploration um die Sammlung von neuer Information und
bei der exploitation um die Nutzung vorhandener Information, um ein bekannt
gutes Ergebnis zu erzielen.
Es leuchtet den meisten von uns ein, dass man nicht richtig lebt, wenn man
nie Neues erkundet. Aber es sollte auch erwähnt werden, dass es ebenso schädlich
sein kann, nie das Vorhandene zu verwerten. In der Definition der Informatiker

43
Erkunden und verwerten

beschreibt die Verwertung tatsächlich viele der besten Augenblicke im Leben.


Eine Familie, die sich an einem Feiertag versammelt, verwertet diese Gelegen-
heit. Dasselbe tun ein Bücherwurm, der sich mit einer Tasse Kaffee und einem
seiner Lieblingsbücher in seinem Lesesessel niederlässt, und eine Band, die vor
treuen Fans eine Auswahl ihrer größten Hits spielt, oder ein Paar, das zu »seinem
Lied« tanzt.
Dazu kommt, dass uns das Erkunden überfordern kann.
Die Musik ist nicht zuletzt deshalb reizvoll, weil man sich unentwegt neue
Dinge anhören kann. Aber wenn jemand Musikjournalist sind, ist die Musik nicht
zuletzt deshalb furchtbar, weil er sich unentwegt neue Dinge anhören muss. Ein
Musikjournalist zu sein bedeutet, das Erkunden auf die Spitze zu treiben und sich
unablässig mit Neuem zu beschäftigen. Musikliebhaber stellen sich diese Arbeit
vielleicht als paradiesisch vor, aber wenn man unentwegt Neues entdecken muss,
hat man nie Gelegenheit, die Früchte seiner Entdeckungen zu genießen – und
das ist eine besondere Art von Hölle. Kaum jemand kennt diese Erfahrung besser
als Scott Plagenhoef, der frühere Chefredakteur der Musikwebsite Pitchfork. Er
beschreibt das Leben eines Musikkritikers so: »Man versucht, bei der Arbeit
Raum zu finden, um sich etwas anzuhören, einfach weil man es sich anhören
möchte.«67 Sein Wunsch, sich nicht länger durch Massen nie gehörter Songs von
zweifelhafter Qualität kämpfen zu müssen, sondern sich einfach anzuhören, was
ihm gefiel, war so stark, dass sich Plagenhoef gezwungen sah, ausschließlich
neue Musik auf seinen iPod zu spielen, um sich jeder Möglichkeit zu berauben,
seine Pflichten zu vernachlässigen. So hatte er keine Chance, einfach einmal der
Versuchung nachzugeben und sich die Smiths anzuhören. Musikjournalisten sind
Märtyrer, die unermüdlich erkunden, damit andere verwerten können.
In der Informatik nimmt die Spannung zwischen Erkundung und Verwertung
ihre konkreteste Form in einem Szenario an, das als »Multi-armed bandit«-
Problem bezeichnet wird. Der sonderbare Begriff »mehrarmiger Bandit« ist von
der umgangssprachlichen Bezeichnung für die Spielautomaten im Casino ab-
geleitet.68 Stellen wir uns vor, wir betreten ein Spielkasino voller einarmiger
Banditen, die mit verschiedenen Gewinnchancen programmiert sind. Der Haken
besteht natürlich darin, dass man uns nicht im Voraus verrät, wie die Wahrschein-
lichkeiten verteilt sind. Erst wenn wir spielen, werden wir herausfinden, welche
Maschinen die lukrativsten sind (die Liebhaber solcher Automaten sprechen
von den »lockersten« Maschinen) und welche einfach nur unser Geld schlucken.

44
Das Neueste oder das Beste?

Natürlich wollen wir unseren Gewinn maximieren. Und es ist klar, dass wir
dazu die Hebel verschiedener Maschinen in irgendeiner Kombination bedienen
müssen, um sie auszuprobieren (zu erkunden) und uns anschließend auf die Auto-
maten konzentrieren zu können, aus denen wir die höchsten Gewinne herausholen
können (die wir am besten verwerten können).
Um uns ein besseres Bild davon zu machen, worum genau es bei dem Problem
geht, können wir es vereinfachen und uns vorstellen, dass wir vor nur zwei Spiel-
automaten stehen. An der einen Maschine haben wir insgesamt 15-mal gespielt,
wobei sie neunmal einen Gewinn ausgeschüttet hat und sechsmal nicht. An der
anderen haben wir nur zweimal gespielt, wobei sie einmal ausgezahlt hat und
einmal nicht. An welcher der beiden haben wir bessere Gewinnchancen?
Wenn wir die Gewinne einfach durch die Gesamtzahl der Spielrunden
dividieren, erhalten wir den »erwarteten Wert« der Maschine, und so gemessen
ist die erste Maschine offenkundig überlegen. Das Ergebnis von neun Gewinnen
gegenüber sechs Verlusten ergibt einen erwarteten Wert von 60 Prozent, während
das Ergebnis der zweiten Maschine (1 zu 1) nur einen erwarteten Wert von
50 Prozent ergibt. Aber diese Information genügt uns noch nicht. Schließlich
sind zwei Spiele nicht wirklich viele. Es ist klar, dass wir noch nicht wissen, wie
gut die zweite Maschine wirklich ist.69
Die Entscheidung darüber, in welches Restaurant wir gehen oder welches
Album wir uns anhören sollen, ist eigentlich eine Entscheidung darüber, welchen
Hebel am mehrarmigen Banditen im Casino des Lebens wir bedienen sollen. Aber
wenn wir die Abwägung zwischen Erkundung und Verwertung (Explore/Exploit)
verstehen, können wir nicht nur unsere Entscheidungen darüber verbessern, was
wir essen oder welche Musik wir hören sollen. Diese Abwägung liefert auch
grundlegende Erkenntnisse darüber, wie sich unsere Ziele ändern sollten, wenn
wir älter werden, und warum die vernünftigste Vorgehensweise nicht immer darin
besteht, den besten Weg zu wählen. Und sie ist unter anderem grundlegend für
Webdesign und klinische Studien, zwei Gebiete, die normalerweise nicht im
selben Satz genannt werden.
Wir neigen dazu, Entscheidungen isoliert voneinander zu betrachten und uns
darauf zu konzentrieren, jedes Mal das Ergebnis mit dem höchsten erwarteten
Wert zu finden. Aber es ist fast nie möglich, eine Entscheidung von allen anderen
zu trennen, und der erwartete Wert ist nicht das Ende der Geschichte. Wenn wir
nicht nur über die nächste, sondern über alle Entscheidungen nachdenken, die wir

45
Erkunden und verwerten

in Zukunft in Bezug auf dieselben Optionen fällen werden, erweist sich die Ab-
wägung zwischen Erkundung und Verwertung als unverzichtbar. So verkörpert
das Problem des mehrarmigen Banditen »in essentieller Form einen Konflikt,
der ein Bestandteil von allem menschlichen Handeln ist«, wie der Mathematiker
Peter Whittle schreibt.70
Welchen der beiden Hebel sollten wir also bedienen? Das ist eine Trickfrage.
Es hängt zur Gänze von der Antwort auf eine Frage ab, mit der wir uns noch
nicht beschäftigt haben: Wie lange wollen wir uns im Spielcasino aufhalten?

NUTZE DAS INTERVALL

»Carpe diem«, fordert der von Robin Williams gespielte Lehrer John Keating
seine Schüler in dem Film Der Klub der toten Dichter (1989) auf. »Nutzt den Tag,
Jungs. Macht euer Leben außergewöhnlich.«
Das ist ein bedeutsamer Ratschlag, der zugleich jedoch ein Widerspruch in
sich ist. Einen Tag auszuschöpfen und ein Leben auszuschöpfen, sind zwei voll-
kommen verschiedene Bestrebungen. Im Englischen gibt es die Redensart »Esst,
trinkt und freut euch des Lebens, denn morgen werden wir sterben«,71 aber wir
sollten auch den Umkehrschluss beherzigen: »Fang an, eine neue Sprache oder
ein Instrument zu erlernen, und beginne eine Unterhaltung mit einem Fremden,
denn das Leben ist lang, und wer weiß, welche Freude im Lauf der Jahre daraus
erwachsen könnte.« Wenn wir ein Gleichgewicht zwischen lieb gewonnenen Ge-
wohnheiten und neuen Erfahrungen herzustellen versuchen, ist nichts so wichtig
wie der Zeitraum, in dem wir sie zu genießen planen.
»Wenn ich in eine Stadt ziehe, werde ich eher ein neues Restaurant aus-
probieren, als wenn ich eine Stadt verlasse«, erklärt der Datenwissenschaftler und
Blogger Chris Stucchio, der sowohl beruflich als auch privat einige Erfahrung
mit der Abwägung zwischen Erkundung und Verwertung gesammelt hat. »Jetzt
gehe ich vor allem in Restaurants essen, die ich kenne und liebte, denn ich weiß,
dass ich New York bald verlassen werde. Vor einigen Jahren ging ich für eine
Weile nach Pune in Indien, wo ich jedes Restaurant ausprobierte, in dem mir die
Wahrscheinlichkeit einer Vergiftung nicht allzu hoch schien. Aber kurz bevor ich
die Stadt verließ, besuchte ich nur noch meine alten Lieblingsrestaurants, anstatt
etwas Neues auszuprobieren. […] Selbst wenn ich ein etwas besseres Restaurant

46
Nutze das Intervall

gefunden hätte, hätte ich dort nur noch ein oder zweimal hingehen können –
warum also das Risiko einer Enttäuschung eingehen?«72
Eine ernüchternde Facette des Ausprobierens neuer Dinge ist, dass der Wert
des Erkundens, der darin besteht, etwas Neues zu finden, das man lieb gewinnen
kann, im Lauf der Zeit zwangsläufig sinkt, da die Gelegenheiten, es zu genießen,
zwangsläufig weniger werden: Wenn ich am letzten Abend in einer Stadt ein
reizendes Café entdecke, habe ich keine Gelegenheit mehr, dorthin zurückzu-
kehren.
Auf der anderen Seite kann der Wert der Verwertung im Lauf der Zeit nur
steigen. Das netteste Café, das ich heute kenne, ist definitionsgemäß mindestens
so nett wie das netteste Café, das ich vor einem Monat kannte. (Und wenn ich
seitdem ein anderes Lieblingscafé gefunden habe, ist dieses möglicherweise noch
netter.) Das bedeutet, dass ich erkunden muss, solange ich genug Zeit habe, das
durch die Erkundung erworbene Wissen zu verwerten, und dass ich verwerten
muss, wenn ich bereit bin, das erworbene Wissen zu nutzen. Die Strategie hängt
vom Intervall ab.
Und da die Strategie vom Intervall abhängt, können wir durch Befolgung
der Strategie interessanterweise auch das Intervall bestimmen. Nehmen wir bei-
spielsweise Hollywood: Unter den zehn Filmen, die im Jahr 1981 die höchsten
Einspielergebnisse erzielten, waren nur zwei Fortsetzungen. Im Jahr 1991 waren
drei Fortsetzungen unter den Top Ten, im Jahr 2001 bereits fünf. Und im Jahr
2011 waren acht der zehn an den Kinokassen erfolgreichsten Filme Fortsetzungen.
Tatsächlich hatten Fortsetzungen im Jahr 2011 den bis dahin höchsten Anteil an
den Produktionen der großen Studios. Im Jahr darauf wurde dieser Rekord er-
neut gebrochen – und im Folgejahr ein weiteres Mal. Im Dezember 2012 blickte
der Journalist Nick Allen mit unverhohlenem Überdruss auf die zu erwartende
Entwicklung im folgenden Jahr:
»Dem Publikum wird eine sechste Ration von X-Men serviert, dazu Fast
and Furious 6, Die Hard 5, Scary Movie 5 und Paranormal Activity 5. Außerdem
werden Iron Man 3, Hangover 3 sowie aufgewärmte Versionen von Die Muppets,
Die Schlümpfe, GI Joe und Bad Santa in die Kinos kommen.«73
Aus Sicht eines Filmstudios ist eine Fortsetzung einfach ein Film, der bereits
eine stabile Fanbasis hat: Es ist eine Cash Cow, eine sichere Wette, eine Möglich-
keit, Bestehendes zu verwerten. Ein Übermaß an sicheren Wetten ist ein Hinweis
auf eine kurzfristige Ausrichtung, so wie bei Stucchio kurz vor dem Verlassen der

47
Erkunden und verwerten

Stadt. Die Fortsetzungen werden in diesem Jahr eher als neue Filme gute Einspiel-
ergebnisse erzielen – aber woher sollen die beliebten Franchise-Filme der Zukunft
kommen? Eine solche Schwemme von Fortsetzungen ist nicht nur bedauerlich
(zumindest ist das die Meinung der Filmkritiker), sondern auch aufschlussreich:
Indem sie sich fast ausschließlich auf die Verwertung konzentriert, signalisiert die
Filmindustrie die Überzeugung, dass sie sich dem Ende ihres Intervalls nähert.
Ein Blick auf die wirtschaftliche Entwicklung Hollywoods bestätigt diese
Vermutung. Die Gewinne der größten Filmstudios sanken zwischen 2007 und
2011 um 40 Prozent,74 und die Einnahmen an den Kinokassen sind in sieben der
letzten zehn Jahre gesunken.75 Die Zeitschrift Economist drückt es so aus: »Die
großen Studios reagieren auf steigende Kosten und fallende Einnahmen mit dem
Versuch, mehr Filme zu produzieren, die Kandidaten für Kassenschlager sind.
Das sind normalerweise Fortsetzungen, Prequels oder Filme, in denen bekannte
Figuren vorkommen.«76 Mit anderen Worten, sie bedienen die Hebel der besten
Maschinen, bevor das Casino sie abschaltet.

WIN-STAY

Die Suche nach optimalen Algorithmen, die uns verraten, wie genau wir das
Problem des mehrarmigen Banditen lösen können, hat sich als außerordentlich
schwierig erwiesen. Im Zweiten Weltkrieg, erzählt Peter Whittle, nahmen die
Bemühungen zur Lösung dieses Problems »die Energie und den Verstand der
alliierten Analysten derart in Anspruch […], dass jemand vorschlug, das Problem
als wirksamstes Instrument der intellektuellen Sabotage über Deutschland ab-
zuwerfen.«77
Die ersten Schritte zu einer Lösung wurden in den Jahren nach dem Krieg
unternommen, als der Mathematiker Herbert Robbins von der University of
Columbia eine einfache Strategie entwickelte, die zwar nicht perfekt war, aber
einige nützliche Garantien gab.
Robbins untersuchte den spezifischen Fall, in dem es genau zwei Spiel-
automaten gibt, und schlug eine Lösung vor, die er als Win-Stay, Lose-Shift
(Gewinnen-Bleiben, Verlieren-Wechseln) bezeichnete: Man wählt zufällig einen
Hebel (Arm) und bedient ihn solange, wie der Automat Gewinne ausschüttet.
Wenn man den Hebel zieht, ohne zu gewinnen, wechselt man zum anderen Auto-

48
Win-Stay

maten. Diese einfache Strategie ist alles andere als eine vollständige Lösung, aber
Robbins bewies im Jahr 1952, dass sie durchweg bessere Ergebnisse garantiert als
das wahllose Bedienen der Hebel.78
Im Anschluss an die Veröffentlichung von Robbins’ Ergebnissen wurde das
Prinzip »Beim Gewinner bleiben« in einer Reihe von Arbeiten näher untersucht.79
Die Intuition sagt uns, dass es den geschätzten Wert nur erhöhen wird, wenn wir
bereits bereit waren, einen Hebel zu ziehen, und wenn sich das bezahlt gemacht
hat; deshalb sollten wir bereit sein, diesen Hebel erneut zu bedienen. Und wie
sich herausstellt, ist Win-Stay tatsächlich unter verschiedensten Bedingungen ein
Bestandteil der optimalen Strategie, um ein Gleichgewicht zwischen Erkundung
und Verwertung herzustellen.
Anders liegen die Dinge bei Lose-Shift. Es wäre unklug, den Hebel jedes Mal
zu wechseln, wenn man verliert. Stellen Sie sich vor, Sie gehen hundertmal in ein
Restaurant und essen dort jedes Mal sehr gut. Wäre eine einzige enttäuschende
Mahlzeit Grund genug für Sie, diesem Restaurant den Rücken zu kehren? Man
sollte nicht auf gute Optionen verzichten, nur weil sie nicht vollkommen sind.
Bedeutsamer ist, dass »Win-Stay, Lose-Shift« nicht mit einer Vorstellung von
dem Zeitraum verbunden ist, in dem man eine optimale Strategie anwenden will.
Wenn der letzte Besuch in Ihrem Lieblingsrestaurant enttäuschend war, sagt
Ihnen dieser Algorithmus immer, dass Sie sich ein anderes Restaurant suchen
sollten – selbst wenn es Ihr letzter Abend in der Stadt ist.
Dennoch gab Robbins’ frühe Arbeit zum Problem des mehrarmigen Banditen
den Anstoß zur Entwicklung einer umfangreichen Literatur, und in den folgenden
Jahren machte die Forschung deutliche Fortschritte. Richard Bellman, ein
Mathematiker bei der RAND Corporation, fand eine exakte Lösung für das
Problem in Fällen, in denen im Voraus bekannt ist, wie viele Optionen und
Gelegenheiten es insgesamt geben wird. Wie beim Sekretärinnenproblem mit
vollständiger Information bestand Bellmans Trick im Grunde darin, rückwärts
zu arbeiten, sich die letzte Spielrunde vorzustellen und zu überlegen, welchen
Spielautomat man aufgrund aller möglichen Ergebnisse der vorhergehenden Ent-
scheidungen wählen sollte. Nachdem man das herausgefunden hat, wendet man
sich der vorletzten Gelegenheit zu, dann der drittletzten usw. bis zum ersten Spiel.
Die Antworten, die man mit Bellmans Methode erhält, sind unanfechtbar,
aber bei zahlreichen Optionen und einem langen Aufenthalt im Casino können
sie einen gewaltigen – oder unmöglich zu bewältigenden – Arbeitsaufwand ver-

49
Erkunden und verwerten

ursachen. Und selbst wenn wir in der Lage wären, alle möglichen zukünftigen
Entwicklungen zu berechnen, wissen wir natürlich nicht immer, wie viele Ge-
legenheiten (oder auch nur wie viele Optionen) wir genau haben.80 Daher ist das
»Multi-armed bandit«-Problem de facto ungelöst geblieben. Um es mit Whittles
Worten zu beschreiben: »Es wurde rasch zu einem Klassiker und zu einem In-
begriff für Unzugänglichkeit.«81

DER GITTINS-INDEX

Aber wie so oft in der Mathematik öffnete auch hier das Spezielle die Tür zum
Universellen. In den Siebzigerjahren bat Unilever einen jungen Mathematiker
namens John Gittins um Hilfe bei der Optimierung einiger Medikamenten-
tests. Überraschenderweise bekam das Unternehmen die Antwort auf ein
mathematisches Rätsel, das seit einer Generation ungelöst war.
Gittins, der heute Professor für Statistik in Oxford ist, setzte sich mit der
von Unilever gestellten Frage auseinander: Wie kann man angesichts mehrerer
unterschiedlicher chemischer Verbindungen am schnellsten bestimmen, welche
dieser Verbindungen wahrscheinlich gegen eine Krankheit wirken wird? Gittins
versuchte, das Problem möglichst allgemein zu formulieren: mehrere mögliche
Optionen, unterschiedliche Wahrscheinlichkeiten eines positiven Ergebnisses bei
jeder Option und eine bestimmte Menge an Arbeit (oder Geld, oder Zeit), die auf
die Optionen verteilt werden musste. Das war natürlich nichts anderes als eine
weitere Inkarnation des Problems des mehrarmigen Banditen.
Sowohl die Pharmaunternehmen, die Gewinne anstreben, als auch die von
der Industrie mit Medikamenten versorgten Mediziner sind ständig mit den
konkurrierenden Anforderungen von Erkundung und Verwertung konfrontiert.
Die Unternehmen wollen ihre Forschungsgelder in die Entwicklung neuer
Medikamente investieren, gleichzeitig jedoch auch die Rentabilität ihrer gegen-
wärtigen Produktlinien gewährleisten. Die Ärzte wollen die besten existierenden
Medikamente verschreiben, um ihre Patienten zu heilen, wünschen sich gleich-
zeitig jedoch auch experimentelle Studien, die noch bessere Medikamente hervor-
bringen können.
In beiden Fällen ist nicht vollkommen klar, welches das relevante Zeitintervall
sein sollte. Sowohl Pharmaunternehmen als auch Ärzte sind an der unbegrenzten

50
Der Gittins-Index

Zukunft interessiert. Die Unternehmen wollen theoretisch für immer existieren,


und auf der medizinischen Seite könnte ein Durchbruch Menschen helfen, die
noch nicht einmal geboren sind. Dennoch hat die Gegenwart Vorrang: Die
Heilung eines Patienten am heutigen Tag wird als wertvoller betrachtet als die
Genesung eines Patienten in einer Woche oder einem Jahr – und zweifellos gilt
dasselbe für die Gewinne. Die Ökonomen bezeichnen die Tatsache, dass wir
der Gegenwart höheren Wert als der Zukunft beimessen, als »Diskontierung«.
Anders als andere Forscher, die sich in der Vergangenheit mit dieser Frage
beschäftigt hatten, nahm Gittins das Problem des mehrarmigen Banditen auf
diese Art in Angriff. Er definierte das Ziel als Ertragsmaximierung nicht in
einem feststehenden Zeitintervall, sondern in einer Zukunft, die endlos ist, aber
diskontiert wird.
Eine solche Diskontierung ist uns allen aus dem Alltag vertraut. Wenn wir
uns im Urlaub zehn Tage lang an einem Ort aufhalten, dann sollten wir unsere
Entscheidungen darüber, in welchen Restaurants wir essen, mit einem fest-
stehenden Zeitintervall im Hinterkopf treffen. Leben wir hingegen an diesem
Ort, so hat das weniger Sinn. Wir könnten uns stattdessen vorstellen, dass der
Wert der Erträge abnimmt, je weiter sie in der Zukunft liegen: Die Mahlzeit,
die wir heute Abend zu uns nehmen werden, ist uns wichtiger als die Mahlzeit,
die wir morgen essen werden, und das morgige Abendessen ist uns wichtiger als
das Abendessen in einem Jahr, wobei die Antwort auf die Frage, wie viel mehr
uns das näher liegende Abendessen bedeutet, von unserer spezifischen »Dis-
kontierungsfunktion« abhängt. Gittins nahm an, dass der Wert, der den Erträgen
beigemessen wird, geometrisch abnimmt: Der Wert jedes Restaurantbesuchs ist
ein konstanter Bruchteil der vorhergehenden. Wenn wir beispielsweise glauben,
dass die Wahrscheinlichkeit, an einem gegebenen Tag von einem Bus überfahren
zu werden, bei 1 Prozent liegt, so sollten wir dem morgigen Abendessen 99 Pro-
zent des Werts des heutigen geben, und sei es auch nur, weil wir vielleicht nie die
Chance bekommen werden, es zu genießen.
Gestützt auf diese Annahme einer geometrischen Diskontierung untersuchte
Gittins eine Strategie, die in seinen Augen »zumindest eine ziemlich gute An-
näherung« sein würde:82 Man sollte jeden Hebel des mehrarmigen Banditen ge-
trennt von den anderen betrachten und versuchen, seinen spezifischen Wert zu
ermitteln. Das tat Gittins, indem er sich mit einem etwas ausgefallenen Szenario
beschäftigte: mit einer Bestechung.

51
Erkunden und verwerten

In der beliebten Fernsehspielshow Deal or No Deal83 wählt ein Kandidat einen


von 26 Aktenkoffern aus, die verschiedene Geldpreise enthalten. Das geringste
Preisgeld ist 1 Cent, das höchste 1 Million Dollar. Im Verlauf des Spiels meldet sich
gelegentlich eine mysteriöse Figur, die »der Banker« genannt wird, und bietet dem
Kandidaten einen variierenden Geldbetrag an, wenn er den Koffer, den er gewählt
hat, nicht öffnet. Es liegt beim Kandidaten, darüber zu entscheiden, ob er einen
sicheren Gewinn dem Öffnen des Koffers vorziehen soll, dessen Inhalt er nicht kennt.
Gittins erkannte viele Jahre vor der Erstausstrahlung von Deal or No Deal,
dass das Problem des mehrarmigen Banditen genauso funktioniert.84 Bei jedem
Spielautomaten, über den wir wenig oder nichts wissen, gibt es eine garantierte
Ausschüttung, die uns, wenn sie uns statt des Glücksspiels an der Maschine an-
geboten wird, dazu bewegen wird, den Hebel nicht mehr zu bedienen. Diese Zahl,
die Gittins als »dynamischen Allokationsindex« bezeichnete und die mittlerweile
als Gittins-Index bekannt ist, legt eine Strategie im Spielcasino nahe: Man muss
immer den Hebel mit dem höchsten Index bedienen.*
Tatsächlich hat sich die Indexstrategie als eine mehr als gute Annäherung
erwiesen. Sie löst das Problem des mehrarmigen Banditen mit geometrisch dis-
kontierten Ausschüttungen vollkommen. An die Stelle der Spannung zwischen
Erkundung und Verwertung tritt die einfachere Aufgabe, eine einzige Menge
zu maximieren, die beides beinhaltet.85 Gittins erklärt mit einem bescheidenen
Kichern: »Es ist nicht gerade Fermats Theorem.« Aber es ist ein Theorem, das eine
Reihe wichtiger Fragen bezüglich des Explore/Exlploit-Dilemmas geklärt hat.
Die tatsächliche Berechnung des Gittins-Index für einen bestimmten Spiel-
automaten ist in Anbetracht der Bilanzen und unserer Diskontierungsrate immer
noch ziemlich komplex. Aber wenn der Gittins-Index für eine bestimmte Gruppe
von Annahmen einmal bekannt ist, dann kann er auf jedes derartige Problem
angewandt werden. Entscheidend ist, dass es nicht einmal eine Rolle spielt, wie
viele Hebel/Arme es gibt, da der Index für jeden Hebel separat berechnet wird.
Weiter unten finden Sie die Gittens-Indizes für bis zu neun Erfolge und Fehl-
schläge unter der Annahme, dass ein Gewinn beim nächsten Spiel 90 Prozent eines
Gewinns im gegenwärtigen Spiel wert ist.86 Diese Werte können verwendet werden,
um eine Vielzahl von alltäglichen »Multi-armed bandit«-Problemen zu lösen. Bei-
spielsweise sollten wir unter diesen Annahmen tatsächlich dem Spielautomaten, der

* Eine grobe Zusammenfassung dieses Abschnitts lautet: Schlag zu, solange der Gittins-Index gut ist.

52
Der Gittins-Index

eine Bilanz von 1 zu 1 (und einen erwarteten Wert von 50 Prozent) hat, den Vorzug
vor dem Automaten mit der Bilanz von 9 zu 6 (und einem erwarteten Wert von
60 Prozent) geben. Ein Blick auf die relevanten Koordinaten in der Tabelle zeigt,
dass die Maschine, die wir weniger gut kennen, einen Gittins-Index von 0,6346 hat,
während die Maschine, an der wir schon öfter gespielt haben, nur einen Index von
0,6300 hat. Problem gelöst: Diesmal sollten wir unser Glück versuchen und erkunden.
Verluste
0 1 2 3 4 5 6 7 8 9
0 0,7029 0,8001 0,8452 0,8723 0,8905 0,9039 0,9141 0,9221 0,9287 0,9342
1 0,5001 0,6346 0,7072 0,7539 0,7869 0,8115 0,8307 0,8461 0,8588 0,8695
2 0,3796 0,5163 0,6010 0,6579 0,6996 0,7318 0,7573 0,7782 0,7956 0,8103
3 0,3021 0,4342 0,5184 0,5809 0,6276 0,6642 0,6940 0,7187 0,7396 0,7573
Gewinne

4 0,2488 0,3720 0,4561 0,5179 0,5676 0,6071 0,6395 0,6666 0,6899 0,7101
5 0,2103 0,3245 0,4058 0,4677 0,5168 0,5581 0,5923 0,6212 0,6461 0,6677
6 0,1815 0,2871 0,3647 0,4257 0,4748 0,5156 0,5510 0,5811 0,6071 0,6300
7 0,1591 0,2569 0,3308 0,3900 0,4387 0,4795 0,5144 0,5454 0,5723 0,5960
8 0,1413 0,2323 0,3025 0,3595 0,4073 0,4479 0,4828 0,5134 0,5409 0,5652
9 0,1269 0,2116 0,2784 0,3332 0,3799 0,4200 0,4548 0,4853 0,5125 0,5373

Gittins-Indexwerte als Funktion von Gewinnen und Verlusten unter der Annahme, dass
ein Gewinn in der nächsten Runde 90 Prozent eines Gewinns in dieser Runde wert ist.

Ein Blick auf die Indexwerte in der Tabelle liefert noch einige andere interessante
Erkenntnisse. Erstens können wir hier die Wirkung des Win-Stay-Prinzips sehen:
Wenn wir uns in einer beliebigen Zeile von links nach rechts bewegen, steigen
die Indexwerte. Wenn ein Hebel der Richtige ist und der Zug an diesem Hebel
einen Gewinn auslöst, dann kann es (mit Blick auf den Anstieg der Indexwerte
von links nach rechts) nur sinnvoll sein, denselben Hebel erneut zu bedienen.
Zweitens sehen wir, wo uns Lose-Shift in Schwierigkeiten bringen wird: Wenn
auf neun Gewinne ein Verlust folgt, erhalten wir einen Index von 0,8695, der
immer noch höher ist als die meisten anderen Werte in der Tabelle, weshalb wir
zumindest für eine weitere Runde bei diesem Hebel bleiben sollten.
Der vielleicht interessanteste Teil der Tabelle ist jedoch das Feld oben links.
Eine Bilanz von 0 zu 0 – dieser Hebel ist uns vollkommen unbekannt – hat einen
erwarteten Wert von 0,5000, aber einen Gittins-Index von 0,7029. Mit anderen
Worten: Ein Spielautomat, bei dem wir keinerlei Erfahrungswerte haben, ist fast

53
Erkunden und verwerten

genauso attraktiv wie ein Automat, von dem wir wissen, dass er in sieben von zehn
Fällen einen Gewinn ausgeschüttet hat! Wenn wir der Diagonale nach unten folgen,
stellen wir fest, dass eine Bilanz von 1 zu 1 einen Index von 0,6346, eine Bilanz von
2 zu 2 einen Index von 0,6010 ergibt usw. Wenn sich eine solche Bilanz von 50 Pro-
zent Gewinnen und Verlusten fortsetzt, nähert sich der Index schließlich dem Wert
von 0,5000 an, und die Erfahrung bestätigt, dass diese Maschine tatsächlich nichts
Besonderes ist, womit der »Bonus«, der uns einen Anreiz zu weiterer Erkundung
gibt, beseitigt wird. Aber diese Konvergenz findet einigermaßen langsam statt; der
Erkundungsbonus ist eine starke Kraft. Tatsächlich erhalten wir sogar bei einem
Misserfolg beim ersten Spiel an einer Maschine, das heißt bei einer Bilanz von 0
zu 1, einen Gittins-Index, der immer noch über 50 Prozent liegt.
Wir können auch sehen, wie sich das Gleichgewicht zwischen Erkundung und
Verwertung verschiebt, wenn wir die Art und Weise ändern, wie wir die Zukunft
diskontieren. Die folgende Tabelle enthält exakt die gleiche Information wie die
vorhergehende, nur dass in diesem Fall angenommen wird, dass ein Gewinn in
der nächsten Spielrunde nicht 90 Prozent sondern 99 Prozent eines Gewinns in
dieser Runde wert ist. Wenn die Zukunft beinahe genauso gewichtet wird wie
die Gegenwart, gewinnt eine zukünftige Entdeckung weiter an Wert gegenüber
einem sicheren Gewinn. Hier ist ein Spielautomat mit einer Bilanz von 0 zu 0,
das heißt ein Automat, den wir noch überhaupt nicht ausprobiert haben, eine
garantierte Gewinnchance von 86,99 Prozent wert!

0 1 2 3 4 5 6 7 8 9
0 0,8699 0,9102 0,9285 0,9395 0,9470 0,9525 0,9568 0,9603 0,9631 0,9655
1 0,7005 0,7844 0,8268 0,8533 0,8719 0,8857 0,8964 0,9051 0,9122 0,9183
2 0,5671 0,6726 0,7308 0,7696 0,7973 0,8184 0,8350 0,8485 0,8598 0,8693
3 0,4701 0,5806 0,6490 0,6952 0,7295 0,7561 0,7773 0,7949 0,8097 0,8222
4 0,3969 0,5093 0,5798 0,6311 0,6697 0,6998 0,7249 0,7456 0,7631 0,7781
5 0,3415 0,4509 0,5225 0,5756 0,6172 0,6504 0,6776 0,7004 0,7203 0,7373
6 0,2979 0,4029 0,4747 0,5277 0,5710 0,6061 0,6352 0,6599 0,6811 0,6997
7 0,2632 0,3633 0,4337 0,4876 0,5300 0,5665 0,5970 0,6230 0,6456 0,6653
8 0,2350 0,3303 0,3986 0,4520 0,4952 0,5308 0,5625 0,5895 0,6130 0,6337
9 0,2117 0,3020 0,3679 0,4208 0,4640 0,5002 0,5310 0,5589 0,5831 0,6045

Gittins-Indexwerte als Funktion von Gewinnen und Verlusten unter der Annahme, dass
ein Gewinn in der nächsten Runde 99 Prozent eines Gewinns in dieser Runde wert ist.

54
Der Gittins-Index

Der Gittins-Index liefert also eine formale und schlüssige Rechtfertigung für die
Entscheidung, dem Unbekannten den Vorzug zu geben, vorausgesetzt, wir haben
Gelegenheit, die dank der Erkundung gewonnenen Erkenntnisse zu verwerten.
Der alte Sinnspruch sagt uns, dass »das Gras auf der anderen Seite des Zauns stets
grüner ist«. Die Mathematik sagt uns, warum es so ist: Es besteht die Möglichkeit,
dass das Unbekannte besser ist, selbst wenn wir eigentlich erwarten, dass es sich
nicht vom Bekannten unterscheiden wird, oder wenn die Wahrscheinlichkeit, dass
es schlechter ist, genauso groß ist. Der noch nicht getestete Nachwuchsspieler ist
(jedenfalls am Anfang der Saison) mehr wert als der Routinier, der anscheinend
dieselben Fähigkeiten besitzt, und zwar eben weil wir weniger über ihn wissen.
Die Erkundung hat einen Wert an sich, da das Ausprobieren von Neuem unsere
Chancen erhöht, das Beste zu finden. Die Zukunft in Betracht zu ziehen, anstatt
uns nur auf die Gegenwart zu konzentrieren, bewegt uns also zur Erkundung
von Neuem.87
Der Gittins-Index ist eine verblüffend einfache Lösung für das Problem
des mehrarmigen Banditen. Allerdings löst er das Rätsel nicht endgültig, und
er hilft uns auch nicht, sämtliche Abwägungen zwischen Erkundung und Ver-
wertung im Alltag zu bewältigen. Zum einen ermöglicht der Gittins-Index nur
unter einigen starken Annahmen eine optimale Strategie. Er beruht auf einer
geometrischen Diskontierung des zukünftigen Ertrags, bei der jede Bedingung
eines Hebels einen konstanten Bruchteil des Werts des vorhergehenden hat,
und das ist etwas, was die Menschen in der Realität nicht tun, wie zahlreiche
verhaltensökonomische und psychologische Experimente gezeigt haben.88 Und
wenn der Wechsel zwischen verschiedenen Optionen mit Kosten verbunden ist,
ist die Gittins-Strategie auch nicht länger optimal.89 (Das Gras auf der anderen
Seite des Zauns mag ein wenig grüner wirken, aber es lohnt sich nicht unbedingt,
deshalb über den Zaun zu klettern, geschweige denn, eine zweite Hypothek
aufzunehmen.) Vielleicht noch wichtiger ist, dass es schwierig ist, den Gittins-
Index auf die Schnelle zu berechnen. Wenn wir eine Tabelle mit Indexwerten
mit uns herumtragen, können wir die Wahl unserer Restaurants optimieren,
aber möglicherweise ist das die Mühe und den Zeitaufwand nicht wert. (»Wartet
einen Moment, diese Frage kann ich klären: In diesem Restaurant haben wir bei
35 Besuchen 29-mal gut gegessen, während das Essen in dem anderen Lokal bei
13 von 16 Gelegenheiten gut war, womit wir einen Gittins-Index von … He,
wo sind sie denn alle hin?«)

55
Erkunden und verwerten

Seit der Entwicklung des Gittins-Index suchen die Informatiker und Statistiker
aufgrund dieser Schwierigkeiten nach einfacheren und flexibleren Strategien für
den Umgang mit mehrarmigen Banditen. Die Anwendung dieser Strategien fällt
Menschen (und Computern) in einer Vielzahl von Situationen leichter als die
Berechnung des optimalen Gittins-Index, und sie liefern vergleichsweise gute
Ergebnisse. Zudem berücksichtigen sie eine unserer größten Befürchtungen in
Bezug auf die Entscheidungen darüber, welche Risiken wir eingehen sollten.

REUE UND ZUVERSICHT

Regrets, I’ve had a few. But then again, too few to mention.
(Ich bereue ein paar Dinge, aber es lohnt sich nicht, sie zu erwähnen.)
Frank Sinatra90

Ich bin ein Optimist. Ich sehe keinen Nutzen darin, es nicht zu sein.
Winston Churchill91

Wenn der Gittins-Index zu kompliziert ist oder wenn wir uns in einer Situation
befinden, in der eine geometrische Diskontierung unmöglich ist, dann haben wir
eine andere Option: Wir können uns auf die Reue konzentrieren. Wenn wir uns
entscheiden müssen, was wir essen, mit wem wir Zeit verbringen oder in welcher
Stadt wir leben sollen, ist es leicht, etwas zu bereuen: Angesichts mehrerer guter
Optionen ist es leicht, uns mit den Konsequenzen einer falschen Entscheidung zu
quälen. Reue empfinden wir oft in Bezug auf Dinge, die wir nicht getan haben,
auf Optionen, die wir nie ausprobiert haben. Wie der Managementtheoretiker
Chester Barnard so schön gesagt hat: »Wenn wir es versuchen und scheitern,
lernen wir zumindest etwas; wenn wir es nicht versuchen, erleiden wir den un-
schätzbaren Verlust dessen, was hätte sein können.«92
Reue kann auch sehr motivierend sein. Bevor er sich zur Gründung von
amazon.com entschloss, bekleidete Jeff Bezos einen sicheren und gut bezahlten
Posten bei der New Yorker Investmentfirma D. E. Shaw & Co. Es war ein ge-
wagter Schritt, nach Seattle zu gehen, um eine Online-Buchhandlung aufzu-
bauen, und sein Chef (nämlich D. E. Shaw) riet ihm, sich das gut zu überlegen.
Bezos erinnert sich:

56
Reue und Zuversicht

»Der Rahmen, der mir die Entscheidung unglaublich leicht machte, war
das, was ich – nur ein Nerd würde auf eine solche Bezeichnung kommen – als
›Rahmen für die Minimierung der Reue‹ bezeichnete. Ich stellte mir vor, wie ich
im Alter von achtzig Jahren auf mein Leben zurückblicken und Bilanz ziehen
würde. Ich wollte die Zahl der Dinge, die ich an diesem Punkt bereuen würde,
auf ein Mindestmaß verringern. Ich wusste, dass ich mit achtzig Jahren nicht
bereuen würde, das ausprobiert zu haben. Ich würde nicht bereuen, dass ich ver-
sucht hatte, an dieser Sache namens Internet teilzuhaben, die meiner Meinung
etwas wirklich Großes werden würde. Ich wusste, dass ich es später nicht bereuen
würde, wenn ich scheiterte, und ich wusste, dass ich nur eines möglicherweise
bereuen würde: es nie versucht zu haben. Ich wusste, dass mich das bis an mein
Lebensende verfolgen würde, und als ich die Entscheidung so betrachtete, war
sie ganz einfach.«93
Die Informatik kann uns kein Leben ohne Reue garantieren, aber sie kann uns
potenziell genau das anbieten, was Bezos suchte: Ein Leben mit einem Mindest­
maß an Reue.
Die Reue ist das Ergebnis eines Vergleichs zwischen dem, was wir tatsächlich
getan haben, und dem, was rückblickend das Beste für uns gewesen wäre. Bei
einem mehrarmigen Banditen kann Barnards »unschätzbarer Verlust« tatsächlich
genau gemessen werden, sodass der Reue ein Wert zugeort werden kann: Dieser
ist die Differenz zwischen dem gesamten Ertrag, den wir erzielen, indem wir eine
bestimmte Strategie verfolgen, und dem gesamten Ertrag, den wir theoretisch
hätten erzielen können, indem wir bei jeder Gelegenheit den besten Hebel be-
dient hätten (wenn wir nur vorher gewusst hätten, welches der beste Hebel war).
Wir können diesen Wert für verschiedene Strategien berechnen und uns für jene
entscheiden, die geeignet ist, ihn zu minimieren.
Im Jahr 1985, rund drei Jahrzehnte nach der Veröffentlichung seiner Arbeit
über die Strategie »Win-Stay, Lose-Shift«, versuchte sich Herbert Robbins erneut
am Problem des mehrarmigen Banditen. Gemeinsam mit Tze Leung Lai, einem
weiteren Mathematiker von der Columbia University, gelang es ihm, mehrere
wichtige Punkte in Zusammenhang mit der Reue zu beweisen.94 Erstens: Unter
der Annahme, dass wir nicht allwissend sind, wird die Gesamtmenge unserer
Reue wahrscheinlich unaufhörlich wachsen, selbst wenn wir die beste mögliche
Strategie wählen – denn selbst die beste Strategie ist nicht in jedem Fall perfekt.
Zweitens: Unsere Reue wird langsamer zunehmen, wenn wir die beste Strategie

57
Erkunden und verwerten

wählen; zudem wird die Wachstumsrate der Reue dank einer guten Strategie
im Lauf der Zeit sinken, da wir mehr über das Problem lernen und bessere Ent-
scheidungen fällen können. Drittens: Die Mindestmenge der möglichen Reue
nimmt – erneut unter der Annahme, dass wir nicht allwissend sind – mit jedem
Zug am Hebel mit einer logarithmischen Rate zu.
Die logarithmische Zunahme der Reue bedeutet, dass wir in den ersten zehn
Spielrunden am Spielautomaten genauso viele Entscheidungen bereuen werden
wie in den folgenden neunzig Runden, und im ersten Jahr werden es genauso
viele sein wir im verbleibenden Jahrzehnt. (Die Zahl der Entscheidungen am
Automaten, die wir im ersten Jahrzehnt bereuen werden, entspricht wiederum
der Zahl der Entscheidungen, die wir in den verbleibenden neun Jahrzehnten des
Jahrhunderts bereuen werden.) Das ist ein gewisser Trost. Es wäre unrealistisch
zu erwarten, dass wir eines Tages nichts mehr bereuen werden. Aber wenn wir
einen Algorithmus zur Minimierung des Bereuens anwenden, dürfen wir damit
rechnen, jedes Jahr weniger neue Gründe zur Reue zu haben als im Jahr davor.
Beginnend mit Lai und Robbins haben sich die Forscher in den letzten Jahr-
zehnten auf die Suche nach Algorithmen gemacht, die ein möglichst geringes
Maß an Reue garantieren.95 Der bekannteste dieser Algorithmen ist der UCB-
Algorithmus (Upper Confidence Bound, Obere Konfidenzschranke).
Darstellungen von Statistiken enthalten oft sogenannte Fehlerbalken, die sich
über die Datenpunkte hinaus erstrecken und auf unsichere Messungen hindeuten:
Die Fehlerbalken geben Aufschluss über die Bandbreite möglicher plausibler
Werte, welche die gemessene Menge tatsächlich haben könnte. Diese Band-
breite wird als »Konfidenzintervall« bezeichnet, und wenn wir mehr Daten über
etwas sammeln, schrumpft das Konfidenzintervall, was ein Zeichen für eine
zunehmend genaue Beurteilung ist.96 (Beispielsweise wird ein Spielautomat, der
bei zwei Spielen einmal einen Gewinn ausgeschüttet hat, trotz des gleichen er-
warteten Werts ein größeres Konfidenzintervall als ein Automat haben, der in
zehn Spielen fünfmal einen Gewinn ausgeschüttet hat.) Bei einem »Multi-armed
bandit«-Problem sagt uns ein UCB-Algorithmus einfach, dass wir die Option
wählen sollten, bei der die Obergrenze des Konfidenzintervalls am höchsten ist.
Wie der Gittins-Index weisen UCB-Algorithmen also jedem Hebel/Arm
des mehrarmigen Banditen eine einzelne Zahl zu. Und diese Zahl entspricht
dem höchsten Wert, den dieser Hebel ausgehend von der bisher verfügbaren
Information haben kann. Für den UCB-Algorithmus spielt es keine Rolle, welcher

58
Reue und Zuversicht

Hebel bisher die besten Ergebnisse gebracht hat, sondern er wählt den Hebel aus,
der in der Zukunft die besten Ergebnisse bringen könnte. Ein Beispiel: Wenn Sie
in einem bestimmten Restaurant noch nie gegessen haben, könnte das Essen dort
nach allem, was Sie wissen, vorzüglich sein. Und selbst wenn Sie schon ein- oder
zweimal dort gewesen sind und ein paar Speisen ausprobiert haben, verfügen
Sie möglicherweise nicht über genug Information, um die Möglichkeit auszu-
schließen, dass dieses Restaurant besser ist als Ihr bisheriges Lieblingsrestaurant.
Wie der Gittins-Index ist die Obere Konfidenzschwelle stets höher als der er-
wartete Wert, wobei die Differenz immer geringer wird, je mehr Information
wir über eine bestimmte Option sammeln. (Ein Restaurant mit einer einzigen
mittelmäßigen Bewertung hat immer noch das Potenzial, vorzüglich zu sein,
während dies für ein Restaurant mit Hunderten solchen Bewertungen nicht mehr
gilt.) UCB-Algorithmen werden eine ähnliche Vorgehensweise nahelegen wie der
Gittins-Index, sind jedoch sehr viel leichter zu berechnen und kommen ohne die
Annahme einer geometrischen Diskontierung aus.
UCB-Algorithmen setzen ein Prinzip um, das als »Optimismus angesichts
von Ungewissheit« bezeichnet wird.97 Sie zeigen, dass Optimismus vollkommen
rational sein kann. Indem sie sich auf den ausgehend von der bisher verfügbaren
Information besten möglichen Wert einer Option konzentrieren, fördern diese
Algorithmen die Wahl von Möglichkeiten, über die wir weniger wissen. Die Folge
ist, dass sie den Entscheidungsprozess auf natürliche Art durch eine Dosis von
Erkundung bereichern und uns die Möglichkeit geben, uns zuversichtlich auf neue
Optionen einzulassen, weil sie durchaus zum Erfolg führen könnten. Dasselbe
Prinzip wendet Leslie Kaebling vom MIT an, die »optimistische Roboter« baut,
die ihre Umgebung erkunden, weil sie unbekanntem Terrain einen hohen Wert
beimessen.98 Und dieses Prinzip ist offenkundig auch für das menschliche Leben
relevant.
Der Erfolg der UCB-Algorithmen liefert eine formale Rechtfertigung dafür,
im Zweifelfall zugunsten einer Option zu entscheiden. Wenn wir uns an diesen
Algorithmen orientieren, sollten wir uns freuen, neue Menschen kennenzulernen
und neue Dinge auszuprobieren und in Ermangelung gegenteiliger Beweise das
Beste von ihnen zu erwarten. Langfristig ist Optimismus das beste Mittel, um
Reue zu vermeiden.

59
Erkunden und verwerten

BANDITEN IM NETZ

Im Jahr 2007 ließ sich der Produktmanager Dan Siroker von seinem Arbeit-
geber Google beurlauben, um sich dem Präsidentschaftswahlkampf von Senator
Barack Obama anzuschließen. Als Leiter des Analyseteams für »Neue Medien«
wandte Siroker eines von Googles Verfahren auf die leuchtend rote Schaltfläche
»SPENDEN« an. Das Resultat war verblüffend: Dank seiner Arbeit konnten 57
Millionen Dollar an zusätzlichen Spenden für Obamas Wahlkampf eingesammelt
werden.99
Was genau machte er mit dieser Schaltfläche?
Er unterzog sie einem A/B-Test.100
A/B-Tests funktionieren so: Ein Unternehmen entwirft mehrere unterschied-
liche Versionen einer Webseite. Beispielsweise werden verschiedene Farben oder
Bilder oder verschiedene Überschriften für einen Artikel oder verschiedene An-
ordnungen der Seitenelemente ausprobiert. Sodann werden die Benutzer, die diese
Seite aufrufen, nach dem Zufallsprinzip den verschiedenen Versionen zugewiesen,
normalerweise in gleicher Verteilung. Ein Benutzer sieht eine rote Schaltfläche,
ein anderer eine blaue; einer sieht »SPENDEN«, ein anderer »BEITRAGEN«.
Der Betreiber beobachtet die relevanten Maße (z. B. die Klickrate oder die
durchschnittlichen Einnahmen pro Besucher). Wenn nach einer bestimmten
Zeit statistisch signifikante Effekte beobachtet werden, wird normalerweise die
»erfolgreiche« Version übernommen – oder sie wird zur Kontrollversion für eine
weitere Runde von Experimenten.
Im Fall der Webseite, auf der Spenden für den Obama-Wahlkampf gesammelt
wurden, lieferten Sirokers A/B-Tests verblüffende Erkenntnisse.101 Bei erst-
maligen Besuchern der Seite brachte die Schaltfläche »Spende und nimm ein
Geschenk mit« die besten Ergebnisse, selbst wenn die Kosten für die Verschickung
der Geschenke berücksichtigt wurden. Bei Besuchern, die seit Längerem einen
Newsletter abonniert, aber noch nie gespendet hatten, funktionierte »Bitte
spenden Sie« am besten, eine Aufforderung, die vielleicht an ihr Schuldgefühl
appellierte. Bei Besuchern, die bereits in der Vergangenheit gespendet hatten, war
die Botschaft »Tragen Sie bei« am besten geeignet, sie zu einer weiteren Spende zu
bewegen – hier wirkte vielleicht das Argument, dass auch eine Person, die bereits
»gespendet« hatte, immer noch einen nützlichen »Beitrag« leisten konnte. Und
zur Überraschung des Wahlkampfteams war in sämtlichen Fällen ein einfaches

60
Banditen im Netz

Schwarzweißfoto der Familie Obama wirksamer als jedes andere Foto oder Video,
das die Medienexperten auf der Seite platzierten. Der Nettoeffekt all dieser von-
einander unabhängigen Optimierungsschritte war gewaltig.
Wenn Sie im vergangenen Jahrzehnt das Internet genutzt haben, sind Sie
unweigerlich ein Teil des Explore/Exploit-Problems von irgendwem gewesen.
Die Unternehmen sind auf der Suche nach neuen Dingen, mit denen sie Geld
verdienen können, während sie gleichzeitig möglichst viel Geld mit den Dingen
verdienen wollen, die sie bereits haben: erkunden und verwerten. Große Techno-
logieunternehmen wie Amazon und Google begannen um die Jahrtausendwende,
ihre Benutzer A/B-Tests zu unterziehen, und in den folgenden Jahren verwandelte
sich das Internet in das größte kontrollierte Experiment der Welt.102 Was erkunden
und verwerten diese Unternehmen? Um es mit einem Wort zu sagen: uns. Das
heißt, sie erkunden und verwerten alles, was uns dazu bewegt, die Maus zu be-
wegen und unsere Kreditkartennummer anzugeben.
Die Unternehmen unterziehen die Seitennavigation, die Betreffzeilen sowie
das Timing ihrer Marketing-E-Mails und manchmal sogar ihre Produktmerkmale
und ihre Preisgestaltung A/B-Tests.103 Statt »des« Suchalgorithmus von Google
und »des« Checkout-Flows von Amazon gibt es mittlerweile unzählig viele und
unvorstellbar subtile Abwandlungen dieser Algorithmen. (Google testete im Jahr
2009 nicht weniger als 41 Blautöne für eine seiner Werkzeugleisten!104) In einigen
Fällen ist es unwahrscheinlich, dass auch nur zwei Benutzer auf einer Website
genau dieselbe Erfahrung machen.
Der Datenwissenschaftler Jeff Hammerbacher, ein ehemaliger Leiter der
Datenabteilung von Facebook, erklärte im Gespräch mit Bloomberg Businessweek:
»Die klügsten Köpfe meiner Generation zerbrechen sich den Kopf darüber, wie
sie die Leute dazu bringen können, Werbebuttons anzuklicken.«105 Man könnte
es als das Howl der Millennials bezeichnen, das berühmte Gedicht, in dem Allen
Ginsberg schrieb, die besten Köpfe der Beat Generation seien vom Wahnsinn zer-
stört worden.106 Hammersbacher findet das »zum Kotzen«. Aber wie man es auch
betrachtet, das Internet ermöglicht eine experimentelle »Wissenschaft des Klicks«,
von der die Marketingexperten der Vergangenheit nicht einmal träumen durften.
Natürlich wissen wir, wie die Präsidentenwahl des Jahres 2008 für Obama
endete. Aber was wurde aus seinem Analysechef Dan Siroker? Nach Obamas
Amtsantritt kehrte er nach Kalifornien zurück und gründete gemeinsam mit Pete
Kooman, einem weiteren ehemaligen Google-Mitarbeiter, die Firma Optimizely,

61
Erkunden und verwerten

die sich auf die Website-Optimierung spezialisierte. Als der Präsidentschafts-


wahlkampf 2012 begann, zählten sowohl Obama als auch dessen republikanischer
Herausforderer Mitt Romney zu den Klienten der Firma.
Etwa ein Jahrzehnt nach den ersten Versuchen mit A/B-Tests waren diese
keine Geheimwaffe mehr. Mittlerweile sind sie ein unverzichtbarer Bestandteil
von Geschäft und Politik im Internet und gelten praktisch als selbstverständlich.
Wenn Sie das nächste Mal Ihren Browser öffnen, können Sie sicher sein, dass
die Farben, Bilder, Texte und vielleicht sogar die Preise – und selbstverständlich
die Werbebanner – von einem Explore/Exploit-Algorithmus betrieben werden,
der mit Ihren Klicks arbeitet. In diesem »Multi-armed bandit«-Problem sind Sie
nicht der Spieler, sondern der Jackpot.
Der Ablauf der A/B-Tests ist im Lauf der Zeit stetig verfeinert worden.
Der grundlegende Testaufbau – der Verkehr wird gleichmäßig zwischen zwei
Optionen aufgeteilt, um über einen bestimmten Zeitraum hinweg zu beobachten,
welche die bessere ist, um dieser dann den gesamten Verkehr zuzuleiten – muss
nicht unbedingt der beste Algorithmus für die Lösung des Problems sein, da er be-
deutet, dass der Hälfte der Benutzer für die Dauer des Tests die schlechtere Option
präsentiert wird. Die Belohnungen für die Entdeckung des besseren Zugangs
können sehr hoch sein. Mehr als 90 Prozent von Googles Jahresumsatz, der bei
rund 50 Milliarden Dollar liegt,107 entfallen gegenwärtig auf bezahlte Werbung,
und im Online-Handel werden jedes Jahr Hunderte Milliarden Dollar um-
gesetzt.108 Das bedeutet, dass Explore/Exploit-Algorithmen sowohl wirtschaft-
lich als auch technologisch der Motor eines beträchtlichen Teils des Internets
sind. Welches die besten Algorithmen sind, ist weiterhin sehr umstritten, und
rivalisierende Statistiker, Softwareingenieure und Blogger diskutieren unablässig
über die Frage, welches die optimale Methode ist, um in jedem möglichen ge-
schäftlichen Szenario ein Gleichgewicht zwischen Erkundung und Verwertung
herzustellen.109
Die Debatte darüber, worin genau die Unterschiede zwischen verschiedenen
Zugängen zum Exploire-Exploit-Problem bestehen, mag hoffnungslos undurch-
schaubar wirken. Diese Unterscheidungen sind jedoch von großer Bedeutung –
und hier stehen nicht nur Präsidentenwahlen und die Internetwirtschaft auf dem
Spiel.
Es geht auch um Menschenleben.

62
Klinische Studien auf dem Prüfstand

KLINISCHE STUDIEN AUF DEM PRÜFSTAND

Zwischen 1932 und 1972 wurden im Macon County in Alabama mehrere Hundert
afroamerikanische Männer, bei denen Syphilis diagnostiziert worden war, bewusst
nicht ärztlich behandelt. Sie waren die Versuchspersonen in einem vierzigjährigen
Experiment des amerikanischen Gesundheitsamtes. Im Jahr 1966 reichte Peter
Buxtun, ein Mitarbeiter des Public Health Service, eine Beschwerde über die
Vorgehensweise der Behörde bei der Tuskegee Syphilis Study ein. Zwei Jahre
später machte Buxtun seine Vorgesetzten erneut auf das Problem aufmerksam,
aber erst, als er die Presse darüber informierte – am 25. Juli 1972 erschien ein
Bericht im Washington Star,110 und am Tag darauf berichtet die New York Times
auf dem Titelblatt über die Vorkommnisse –, entschloss sich die amerikanische
Bundesregierung, die Studie abzubrechen.
Auf einen öffentlichen Aufschrei der Empörung und die anschließende
Kongressanhörung folgte eine Initiative, deren Ziel es war, Prinzipien und
Standards für die medizinische Ethik festzulegen. Es wurde eine Kommission ein-
berufen, die im Jahr 1979 den nach ihrem Versammlungsort benannten Belmont
Report herausgab, in dem Leitlinien für ein ethisches Vorgehen bei medizinischen
Experimenten beschrieben waren.111 So sollten Vorgänge wie im Tuskegee-
Experiment, das einen ungeheuerlichen Verstoß gegen die Verpflichtung der
Mediziner gegenüber ihren Patienten darstellte, in Zukunft vermieden werden.
Allerdings gestand die Kommission auch ein, dass es in vielen Fällen schwierig
sein würde, genau zu bestimmen, wo die Grenze gezogen werden musste.
»Die hippokratische Maxime ›Verursache keinen Schaden‹ ist seit Langem ein
Grundprinzip der medizinischen Ethik«, heißt es in dem Bericht. »[Der Physio-
loge] Claude Bernard weitete dieses Prinzip auf das Gebiet der Forschung aus und
erklärte, dass man eine Person ungeachtet des möglichen Nutzens für andere nicht
verletzen dürfe. Aber um Schaden vermeiden zu können, muss man wissen, was
schädlich ist, und bei der Sammlung der dafür benötigten Information können
Personen dem Risiko ausgesetzt werden, Schaden zu erleiden.«
Im Belmont-Bericht wird die Spannung zwischen der Anwendung des besten
Wissens und der Sammlung von weiterem Wissen also erkannt, aber nicht be-
seitigt. Außerdem macht der Bericht deutlich, dass der Wissenserwerb so wertvoll
sein kann, dass die normale medizinische Ethik unter Umständen hintangestellt
werden muss. In klinischen Tests mit neuen Medikamenten und Behandlungs-

63
Erkunden und verwerten

methoden, heißt es in dem Bericht, ist es oft unumgänglich, dass ein Teil der
Patienten Schaden erleidet, selbst wenn Maßnahmen ergriffen werden, um dieses
Risiko zu verringern:
»Das Prinzip der Schadensvermeidung ist nicht immer vollkommen eindeutig.
Ein schwieriges ethisches Problem ist zum Beispiel weiterhin die Forschung
[zu Krankheiten, die Kinder betreffen], die ein mehr als minimales Risiko dar-
stellt, ohne dass die betroffenen Kinder Aussicht auf einen unmittelbaren Nutzen
hätten. Einige [Mitglieder der Kommission] halten solche Forschung für un-
zulässig, während andere darauf verweisen, dass eine Einschränkung zu viele
Forschungsarbeiten unmöglich machen würde, von denen Kinder in der Zu-
kunft sehr profitieren könnten. Wie in allen schwierigen Fällen können die ver-
schiedenen Forderungen, die mit dem Prinzip der Schadensvermeidung begründet
werden, auch hier in Konflikt miteinander geraten und schwere Entscheidungen
erforderlich machen.«
Eine der grundlegenden Fragen, die in den Jahrzehnten seit Veröffentlichung
des Belmont-Berichts untersucht worden sind, lautet, ob das Standardverfahren
bei klinischen Studien die Risiken für die Patienten tatsächlich minimiert. In
einer klinischen Studie werden die Patienten normalerweise in Gruppen unter-
teilt, die während der gesamten Dauer der Studie unterschiedliche Medikamente
erhalten. (Nur in Ausnahmefällen werden Studien vorzeitig beendet.) Ziel dieses
Verfahrens ist es, die Frage zu klären, welche Behandlung besser ist; es geht nicht
darum, in der Studie jedem Patienten die beste Behandlung zukommen zu lassen.
Diesbezüglich funktioniert das Verfahren genau wie der A/B-Test einer Website:
Ein bestimmter Teil der Versuchspersonen erhält während des Experiments ein
Angebot, das sich schließlich als minderwertig erweist. Aber wie die Technologie-
unternehmen sammeln auch die Mediziner während der Studie Informationen
darüber, welche Option besser ist – und diese Information kann genutzt werden,
um die Ergebnisse nach Abschluss der Studie nicht nur für zukünftige Patienten,
sondern auch für die an der Studie teilnehmenden Patienten zu verbessern.
In Experimenten, die dazu dienen, die optimale Konfiguration einer Website
zu finden, stehen Millionen Dollar auf dem Spiel, aber in klinischen Studien
können die Experimente zur Entwicklung optimaler Behandlungen über Leben
und Tod entscheiden. Und eine wachsende Gruppe von Ärzten und Statistikern
ist der Ansicht, dass wir die falsche Methode anwenden: Sie glauben, wir sollten
die verfügbaren Behandlungen eher als ein »Multi-armed bandit«-Problem be-

64
Klinische Studien auf dem Prüfstand

trachten und versuchen, den Versuchspersonen noch während einer Studie die
bessere Therapie angedeihen zu lassen.
Im Jahr 1969 schlug Marvin Zelen, ein Biostatistiker, der mittlerweile an der
Universität Harvard arbeitet, »adaptive« Studien vor.112 Unter anderem regte er
die Anwendung eines randomisierten »Bleib beim Gewinner«-Algorithmus an,
eine Version von »Win-Stay, Lose-Shift«, bei der die Wahrscheinlichkeit, eine ge-
gebene Behandlung anzuwenden, durch jeden Fortschritt erhöht und durch jeden
Rückschritt verringert wird. In Zelens Verfahren werden für jeden Patienten zwei
Kugeln, die den beiden untersuchten Behandlungsoptionen entsprechen, in einen
Hut gelegt. Die Therapie für den ersten Patienten wird ausgewählt, indem zufällig
eine Kugel aus dem Hut gezogen wird; anschließend wird die Kugel wieder in den
Hut zurückgelegt. Ist die gewählte Behandlung erfolgreich, so wird eine weitere
Kugel für diese Therapie in den Hut gelegt, so dass wir jetzt drei Kugeln haben,
darunter zwei für die beim ersten Patienten erfolgreiche Behandlungsmethode.
Versagt die Behandlung beim nächsten Patienten, so wird eine weitere Kugel für
die andere Behandlung in den Hut gelegt, womit die Wahrscheinlichkeit steigt,
dass die Wahl auf die Alternative fällt.
Zelens Algorithmus kam sechzehn Jahre später erstmals in einer klinischen
Studie zum Einsatz, in der die extrakorporale Membranoxygenierung (ECMO)
getestet wurde, ein gewagter Ansatz zur Behandlung von Atmungsversagen bei Neu-
geborenen. Bei dieser in den siebziger Jahren von Robert Bartlett von der University
of Michigan entwickelten Methode wird Blut, das der Lunge zugeführt werden soll,
aus dem Körper in einen Apparat geleitet, in dem es mit Sauerstoff angereichert
wird, um es anschließend direkt dem Herzen zuzuführen. Diese drastische Be-
handlungsmethode birgt beträchtliche Risiken (darunter die Gefahr einer Embolie),
aber sie bietet sich als mögliche Lösung in Situationen an, in denen es keine anderen
Behandlungsmöglichkeiten mehr gibt. Im Jahr 1975 rettete ECMO in Kalifornien
das Leben eines neugeborenen Mädchens, das selbst mit einem Beatmungsgerät
nicht mit genug Sauerstoff versorgt werden konnte.113 Diese Patientin hat mittler-
weile ihren vierzigsten Geburtstag gefeiert, ist verheiratet und hat selbst Kinder.114
Aber seinerzeit wurde der ECMO-Technik ausschließlich ein experimenteller Wert
beigemessen, und in den ersten Studien mit Erwachsenen waren keine Vorteile
gegenüber herkömmlichen Behandlungsmethoden zu beobachten.115
Zwischen 1982 und 1984 führte Bartlett gemeinsam mit Kollegen an der Uni-
versity of Michigan eine Studie über Neugeborene mit Lungenversagen durch.116

65
Erkunden und verwerten

Das Forscherteam stellte klar, dass es »das ethische Problem« in Angriff nehmen
wollte, »eine nicht bewährte, aber potenziell lebensrettende Behandlungsmethode
zurückzuhalten«, und sträubte sich dagegen, »einem Teil der Patienten eine lebens-
rettende Behandlungsmethode vorzuenthalten, nur um dem herkömmlichen Grund-
satz der randomisierten Zuteilung zu entsprechen«. Also griffen die Mediziner auf
Zelens Algorithmus zurück: Bei einem Neugeborenen wurde die »konventionelle«
Behandlungsmethode angewandt, und es starb, worauf elf Babys nacheinander mit
der experimentellen ECMO-Technik behandelt wurden – und allesamt überlebten.
Zwischen April und November 1984, als die offizielle Studie beendet war, erfüllten
zehn weitere Babys die Kriterien für eine ECMO-Behandlung. Acht wurden mit
ECMO behandelt und überlebten. Die beiden konventionell behandelten starben.
Dies sind spektakuläre Zahlen, aber kurz nach Abschluss der ECMO-Studie
an der University of Michigang entbrannte eine Kontroverse über das Vorgehen
der Medizinier in dieser Studie. Die Tatsache, dass nur so wenige Patienten die
konventionelle Therapie erhalten hatten, wich erheblich von der üblichen Studien-
methodik ab, und das Verfahren selbst war sehr invasiv und potenziell gefähr-
lich. NACH der Veröffentlichung der Studienergebnisse untersuchte Jim Ware,
Professor von Biostatistik an der Harvard School of Public Health, gemeinsam
mit Kollegen die Daten und gelangte zu dem Schluss, dass die Ergebnisse »keine
routinemäßige Anwendung von ECMO ohne weitere Studien« rechtfertigten.117
Also entwarfen Ware und seine Kollegen eine zweite klinische Studie, wobei sie
erneut versuchten, den Wissenserwerb mit einer gleichzeitigen wirksamen Be-
handlung der Patienten zu verbinden. Aber das Design dieser Studie war weniger
radikal: Die Forscher entschlossen sich, die Patienten solange wahllos entweder
der ECMO-Technik oder der herkömmlichen Behandlungsmethode zuzuweisen,
bis in einer der beiden Gruppe eine im Voraus als Schwelle festgelegte Zahl von
Todesfällen beobachtet worden war. An diesem Punkt würden sämtliche Patienten
der wirksameren Behandlungsmethode zugewiesen.
In der ersten Phase der Studie starben vier von zehn Neugeborenen, die mit
herkömmlichen Methoden behandelt worden waren, während alle neun mit
ECMO behandelten Patienten überlebten. Die vier Todesfälle genügten, um zur
zweiten Phase überzugehen, in der zwanzig Patienten ausschließlich mit ECMO
behandelt wurden. Alle Neugeborenen bis auf eines überlebten. Das genügte, um
Ware und seine Kollegen zu überzeugen, und sie gelangten zu dem Schluss, es sei
»schwierig, eine weitere Randomisierung ethisch zu begründen«.118

66
Klinische Studien auf dem Prüfstand

Aber einige Leute waren schon vor der Ware-Studie zu diesem Schluss ge-
langt und sagten es sehr deutlich. Zu den Kritikern zählte Don Berry, einer der
führenden Experten für mehrarmige Banditen.119 In einem Kommentar, der
gemeinsam mit der Ware-Studie in der Zeitschrift Statistical Science veröffent-
licht wurde, bezeichnete Berry eine »randomisierte Zuordnung von Patienten
zur Nicht-ECMO-Therapie wie in der Ware-Studie« als unethisch. »Ich bin
der Meinung, dass die Ware-Studie nicht hätte durchgeführt werden sollen.«120
Doch auch diese teils herkömmliche Studie überzeugte noch nicht die gesamte
medizinische Gemeinschaft. In den Neunzigerjahren wurde noch eine weitere
Studie zur ECMO-Methode durchgeführt, an der fast 200 Kinder in Groß-
britannien teilnahmen. Statt eines adaptiven Algorithmus wurden die Neu-
geborenen in dieser Studie der traditionellen Methode entsprechend nach dem Zu-
fallsprinzip zwei gleich großen Gruppen zugeordnet. Die Forscher rechtfertigten
das Experiment mit dem Argument, der Nutzen von ECMO sei »aufgrund der
unterschiedlichen Interpretation der verfügbaren Belege umstritten«.121 Obwohl
in der britischen Studie kein so deutlicher Unterschied zwischen den Resultaten
der beiden Behandlungsmethoden zutage trat wie in den zwei amerikanischen
Studien, deckten sich die Ergebnisse nach Einschätzung der Forscher »mit der
vorhergehenden Erkenntnis, dass die ECMO-Therapie das Sterberisiko ver-
ringert«. Der Preis für diesen Wissensgewinn? In der mit »herkömmlichen«
Methoden behandelten Gruppe starben 24 Neugeborene mehr als in der mit
ECMO behandelten Gruppe….
Die verbreiteten Zweifel an den Ergebnissen klinischer Studien, in denen
adaptive Algorithmen zum Einsatz kommen, sind schwer nachvollziehbar. Wir
müssen jedoch berücksichtigen, dass der Nutzen statistischer Methoden für die
Medizin zu Beginn des 20. Jahrhunderts teilweise darin bestand, dass auf einem
Gebiet, auf dem die Ärzte ihre Kollegen bis dahin persönlich von jeder neuen Be-
handlungsmethode überzeugen mussten, klare Regeln dafür eingeführt wurden,
welche Art von Belegen für den medizinischen Nutzen als überzeugend betrachtet
werden konnten und welche nicht. Eine Änderung der akzeptierten statistischen
Standardpraxis könnte diese Regeln zumindest vorübergehend aushöhlen.
Nach der Kontroverse über ECMO wechselte Don Berry von der Statistik-
abteilung der University of Minnesota ins MD Anderson Cancer Center
in Houston, wo er seither aus dem Studium einarmiger Banditen abgeleitete
Methoden angewandt hat, um klinische Studien für verschiedene Krebstherapien

67
Erkunden und verwerten

zu entwerfen.122 Er zählt weiterhin zu den schärfsten Kritikern randomisierter


klinischer Studien. In den letzten Jahren finden die Ideen, für die er seit Langem
kämpft, endlich breite Anerkennung. Im Februar 2010 gab die FDA ein
Orientierungsdokument mit dem Titel »Adaptive klinische Studien zu Medika-
menten und Biologika« heraus, in dem die für die Zulassung von Arzneimitteln
zuständige Behörde, die traditionell bewährte Optionen vorzieht, zumindest die
Bereitschaft andeutet, Alternativen zu prüfen.123

DIE RASTLOSE WELT

Wenn man mit den mehrarmigen Banditen vertraut ist, entdeckt man sie fast
überall, wo man hinschaut. Wir fällen nur selten isolierte Entscheidungen, deren
Ergebnis uns keinerlei Information liefert, die wir für weitere Entscheidungen
in der Zukunft nutzen können. Wie beim optimalen Stoppen liegt daher auch
hier die Frage nahe, wie gut wir normalerweise darin sind, diese Probleme zu
lösen – Psychologen und Verhaltensökonomen haben diese Frage unter Labor-
bedingungen eingehend untersucht.
Im Allgemeinen scheinen die Menschen zur übermäßigen Erkundung zu
neigen – sie messen dem Neuen unverhältnismäßig größere Bedeutung bei als
dem Besten. In einer einfachen Demonstration dieses Phänomens (die Ergebnisse
wurden 1966 veröffentlicht) führten Amos Tversky und Ward Edwards Experi-
mente durch, in denen sie ihren Versuchspersonen einen Kasten zeigten, auf dem
zwei Lampen montiert waren, und ihnen erklärten, jede dieser Lampen werde
mit einer feststehenden (aber unbekannten) Frequenz aufleuchten. Die Versuchs-
personen erhielten tausend Gelegenheiten, entweder zu beobachten, welches Licht
aufleuchtete, oder auf das Ergebnis zu wetten, ohne es zu beobachten. (Anders
als bei einem traditionelleren Banditenproblem konnte man hier keinen »Hebel
bedienen«, was gleichzeitig der Wette und der Beobachtung diente; die Versuchs-
teilnehmer erfuhren erst am Ende, ob sie ihre Wetten gewonnen hatten.) Hier
wurde einfach die Erkundung der Verwertung, die Informationssammlung der
Informationsnutzung gegenübergestellt. Die meisten Versuchspersonen wandten
eine vernünftige Strategie an, beobachteten die Lampen eine Weile und wetteten
dann auf das in ihren Augen wahrscheinlichste Ergebnis – aber sie wandten durch-
weg sehr viel mehr Zeit für die Beobachtung auf, als nötig gewesen wäre. Wie
viel mehr Zeit? In einem Experiment leuchtete ein Licht während 60 Prozent und

68
Die rastlose Welt

das andere während 40 Prozent der Zeit auf – ein Unterschied, der weder über-
mäßig groß noch besonders schwer zu erkennen war. In diesem Fall beobachteten
die Versuchspersonen den Vorgang im Durchschnitt 505-mal, während sie die
übrigen 495 Male eine Wette platzierten. Aber die Mathematik besagt, dass sie
nach nur 38 Beobachtungen mit den Wetten hätten beginnen sollen – womit sie
962 Gelegenheiten gehabt hätten, einen Wettgewinn zu erzielen.124
Andere Studien haben ähnliche Ergebnisse gebracht. In den Neunzigerjahren
führten Robert Meyer und Yong Shi, zwei Forscher an der Wharton School
der University of Pennsylvania, eine Studie durch, in der die Versuchspersonen
zwischen zwei Optionen wählen konnten, von denen bei der einen eine bekannte
und bei der anderen eine unbekannte Chance auf ein gutes Ergebnis bestand:
Diese Optionen waren zwei Fluglinien, von denen eine ein etabliertes Unter-
nehmen mit einer bekannten Pünktlichkeitsbilanz und die andere eine neue
Fluggesellschaft war, über deren Pünktlichkeit noch nichts bekannt war. Die
Versuchspersonen sollten versuchen, bei ihren »Reisen« die Zahl der pünktlichen
Landungen in einem bestimmten Zeitraum zu maximieren. Die mathematisch
optimale Strategie besteht in diesem Experiment darin, anfangs nur mit der neuen
Fluglinie zu fliegen, solange unklar ist, ob die etablierte tatsächlich besser ist.
Wenn an irgendeinem Punkt klar wird, dass die bekannte Fluglinie pünktlicher
ist – wenn der Gittins-Index der neuen Fluglinie unter den bekannten Wert der
etablierten sinkt – sollte man augenblicklich zur bekannten wechseln und bei ihr
bleiben. (Da man in diesem Versuchsaufbau keine zusätzlichen Informationen
über die neue Fluglinie erhalten wird, sobald man aufhört, mit ihr zu fliegen,
hat sie natürlich keine Chance, sich zu rehabilitieren.) Aber in dem Experiment
nutzten die Versuchspersonen die unbekannte Fluglinie zu wenig, wenn sie gut
war, und zu lange, wenn sie schlecht war. Außerdem lösten sie sich nicht voll-
kommen von ihr, sondern wechselten oft weiter zwischen den beiden Anbietern,
vor allem, wenn beide Fluglinien unpünktlich waren. All das deutet auf eine
Neigung zu übermäßiger Erkundung hin.125
Die Psychologen Mark Steyvers, Michael Lee und E.-J. Wagenmakers führten
ein Experiment mit einem vierarmigen Banditen durch, in dem sie eine Gruppe
von Versuchspersonen aufforderten, bei 15 aufeinanderfolgenden Gelegenheiten
zu wählen, welchen der Hebel/Arme sie bedienen wollten.126 Anschließend klassi-
fizierten sie die Strategien, welche die Teilnehmer anscheinend anwandten. Wie
sich herausstellte, kamen 30 Prozent optimalen Strategie nahe, 47 Prozent wählten

69
Erkunden und verwerten

eine Strategie, die »Win-Stay, Lose-Shift« ähnelte, und 22 Prozent schienen


zufällig zwischen einem neuen Hebel und dem bis dahin besten hin- und her-
zuspringen. Auch das deutet auf übermäßige Erkundung hin, denn »Win-Stay,
Lose-Shift« und das gelegentliche wahllose Ausprobieren eines Hebels führten
beide dazu, dass die Versuchspersonen am Ende des Spiels, wenn sie eigentlich nur
noch Wissen verwerten sollten, etwas anderes als die beste Option ausprobierten.
Während wir also dazu neigen, uns zu früh auf eine neue Sekretärin festzu-
legen, neigen wir offenbar dazu, neue Fluglinien zu spät auszuprobieren. Aber so
wie es mit Kosten verbunden ist, keine Sekretärin zu haben, kostet es auch etwas,
sich zu früh auf eine bestimmte Fluglinie festzulegen: Die Welt könnte sich ändern.
Beim standardmäßigen »Multi-armed bandit«-Problem wird angenommen,
dass die Wahrscheinlichkeit, mit der die Maschinen einen Gewinn abwerfen,
feststeht. Aber das gilt nicht zwangsläufig für Fluglinien, Restaurants oder andere
Bereiche, in denen wir uns wiederholt entscheiden müssen. Wenn sich die Wahr-
scheinlichkeit eines Gewinns bei den verschiedenen Spielautomaten im Lauf der
Zeit ändert – die Fachleute sprechen in diesem Zusammenhang vom »rastlosen
Banditen« – nimmt die Komplexität des Problems deutlich zu.127 (Tatsächlich wird
es so viel komplexer, dass es keinen lenkbaren Algorithmus für seine vollständige
Lösung gibt, und es wird allgemein angenommen, dass es auch nie einen geben
wird.) Diese Schwierigkeit ist teilweise darauf zurückzuführen, dass es hier nicht
mehr einfach darum geht, eine Weile zu erkunden und dann zu verwerten: Wenn
sich die Welt ändern kann, kann es richtig sein, die Erkundung fortzusetzen.128
Vielleicht lohnt es sich, einmal in das enttäuschende Restaurant zurückzukehren,
in dem wir seit Jahren nicht gewesen sind, denn vielleicht arbeitet dort jetzt ein
neuer Koch.
In seinem berühmten Essay Vom Wandern erklärte Henry David Thoreau,
dass er am liebsten in der Nähe seines Heims wanderte, dass er der vertrauten
Umgebung nie überdrüssig wurde und dass er stets Neues oder Überraschendes
in der Landschaft von Massachusetts entdeckte. »Tatsächlich gibt es eine Art
Gemeinsamkeit zwischen den Reizen einer Landschaft im Umkreis von zehn
Meilen – etwa die Strecke für einen Nachmittag – und einem, sagen wir,
70-jährigem Menschenleben: Man wird mit beiden nie ganz vertraut.«129
Für das Leben in einer rastlosen Welt brauchen wir selbst eine gewisse Rast-
losigkeit. Solange sich die Dinge ändern, dürfen wir die Erkundung nie voll-
kommen einstellen.

70
Erkunden …

Dennoch sind die algorithmischen Techniken, die für die Standardversion des
»Multi-armed bandit«-Problems entwickelt wurden, auch in einer rastlosen Welt
nützlich. Strategien wie der Gittins-Index und die Obere Konfidenzschranke
liefern geeignete Annäherungslösungen und Faustregeln, vor allem dann, wenn
sich der Ertrag im Lauf der Zeit nicht erheblich ändert. Und viele Erträge im
alltäglichen Leben sind heute vermutlich statischer als je zuvor. Die Erdbeeren
in der Kiste mögen heute reif und in einer Woche verschimmelt sein, aber wie es
Andy Warhol so schön ausdrückte: »Eine Coke ist eine Coke.«130 Auf eine sich
stetig wandelnde Welt abgestimmte Instinkte sind in einer Zeit der industriellen
Standardisierung nicht zwangsläufig hilfreich.
Vielleicht am wichtigsten ist, dass die Auseinandersetzung mit Versionen des
»Multi-armed bandit«-Problems, für die es keine optimalen Lösungen gibt, nicht
nur Algorithmen, sondern auch Erkenntnisse liefert. Das von der klassischen
Form des Problems abgeleitete konzeptuelle Vokabular – die Spannung zwischen
Erkundung und Verwertung, die Bedeutung des Intervalls, der hohe Wert der
Option 0-0, die Minimierung der Reue – eröffnet uns neue Möglichkeiten,
nicht nur spezifische Probleme, sondern den gesamten Bogen des menschlichen
Lebens zu verstehen.

ERKUNDEN …

Laborexperimente können wertvolle Erkenntnisse liefern, aber bei vielen der


bedeutsamsten Probleme, mit denen die Menschen konfrontiert sind, ist das
Zeitintervall viel zu lang, um sie unter Laborbedingungen studieren zu können.
Uns mit der Struktur der uns umgebenden Welt vertraut zu machen und dauer-
hafte soziale Beziehungen zu knüpfen, sind Aufgaben, die das ganze Leben in
Anspruch nehmen. Daher ist es lehrreich, einen Blick darauf zu werfen, wie sich
das allgemeine Muster der frühen Erkundung und späten Verwertung im Lauf
eines Lebens herausbildet.
Zu den eigentümlichen Merkmalen des menschlichen Wesens, welche die
Entwicklungspsychologen zu verstehen und zu erklären versuchen, zählt die
Tatsache, dass wir Jahre brauchen, um kompetent und eigenständig zu werden.
Karibus und Gazellen müssen am Tag ihrer Geburt bereit sein, vor Raubtieren
zu flüchten; die meisten Menschen brauchen mehr als ein Jahr, um ihre ersten
Schritte zu tun. Alison Gopnik, Professor für Entwicklungspsychologie an der

71
Erkunden und verwerten

Universität Berkeley und Autor von Forschergeist in Windeln: Wie Ihr Kind die
Welt begreift, hat eine Erklärung dafür, dass wir Menschen so lange von unseren
Eltern abhängig sind: »So haben wir Zeit zu lernen, zwischen Erkundung und
Verwertung abzuwägen.«131 Wie wir gesehen haben, sehen gute Algorithmen
für das Spielen an mehrarmigen Banditen vor, dass man anfangs mehr erkundet
und später das durch die Erkundung gewonnene Wissen verwertet. Aber wie
Gopnik erklärt: »Das hat den Nachteil, dass wir in der Erkundungsphase keine
guten Erträge erzielen.« Daher brauchen wir die Kindheit: »In dieser Zeit können
wir einfach Möglichkeiten erkunden, ohne uns Gedanken über die Resultate
machen zu müssen, denn um die Erträge kümmern sich Mama, Papa, Oma und
der Babysitter.«
Die Vorstellung, dass die Kindheit einfach die vorübergehende Erkundungs-
phase in einem lebenslangen Algorithmus ist, mag für die Eltern von Vorschul-
kindern ein gewisser Trost sein. (Tom hat zwei sehr erkundungsfreudige Töchter
im Vorschulalter und hofft, dass sie einen Algorithmus mit minimaler Reue
anwenden.) Aber es liefert auch neue Einblicke in die Rationalität von Kindern.
Gopnik erklärt: »Wenn man sich ansieht, wie die Menschheit historisch über
die Kindheit gedacht hat, so stellt man fest, dass die typische Argumentation
lautete, das Kind sei in mehrerlei Hinsicht kognitiv defizient, denn seine Fähig-
keit zur Verwertung scheint miserabel zu sein. Kinder können ihre Schuhe nicht
selbst zubinden, sie sind nicht zu langfristiger Planung imstande, sie können sich
nicht gut konzentrieren. In all diesen Bereichen sind Kinder wirklich furchtbar
schlecht.« Aber sie sind sehr gut darin, wahllos Knöpfe zu drücken, sich für neues
Spielzeug zu interessieren und rasch von einer Beschäftigung zur anderen zu
springen. Und genau diese Dinge sollten sie tun, wenn ihr Ziel die Erkundung
ist. Wenn ein Kleinkind jeden Gegenstand im Haus in den Mund nimmt, tut
es nichts anderes, als gewissenhaft sämtliche Hebel am mehrarmigen Banditen
zu bedienen.
Allgemeiner ausgedrückt, beruhen unsere Vorstellungen von der Rationalität
zu oft auf Verwertung, anstatt der Erkundung zu entspringen. Wenn wir über
Entscheidungsprozesse sprechen, konzentrieren wir uns normalerweise einfach
auf den unmittelbaren Ertrag einer einzelnen Entscheidung – und wenn wir
jede Entscheidung so behandeln, als wäre sie unsere letzte, ist tatsächlich nur
die Verwertung sinnvoll. Im Lauf eines Lebens werden wir jedoch zahlreiche
Entscheidungen fällen. Und tatsächlich ist es bei vielen Entscheidungen ins-

72
… und verwerten

besondere in früheren Lebensphasen rational, der Erkundung Priorität einzu-


räumen das Neue dem Besten, das Aufregende dem Bewährten, das Zufällige
dem Geplanten vorzuziehen.
Was wir als Sprunghaftigkeit unserer Kinder deuten, ist möglicherweise weiser,
als wir wissen.

… UND VERWERTEN

Ich habe in meinem Leben als Leserin eine Wegscheide erreicht,


an der ich eine Entscheidung fällen muss, die denen, die an diesem
Punkt gewesen sind, vertraut ist: Sollte ich in der Zeit, die mir in
dieser Welt bleibt, mehr und mehr neue Bücher lesen, oder sollte ich
diesen vergeblichen, weil endlosen Konsum einstellen und beginnen,
jene Bücher, die mir in der Vergangenheit den größten Genuss be-
reitet haben, erneut zu lesen.
Mary Ruefle 132

Am anderen Ende des Intervalls haben wir die Alten. Und wenn wir das Altern
mit Blick auf das Dilemma von Erkundung und Verwertung betrachten, gewinnen
wir ebenfalls einige überraschende Einblicke in die Veränderungen, die im Lauf
der Zeit in unserem Leben zu erwarten sind.
Laura Carstensen, Psychologieprofessorin an der Universität Stanford, hat
ihre wissenschaftliche Lauf bahn damit verbracht, unsere Vorstellungen vom
Altern zu hinterfragen.133 Sie hat insbesondere untersucht, wie und warum sich
unsere sozialen Beziehungen wandeln, wenn wir älter werden. Das Grundmuster
ist klar: Die Größe unserer sozialen Netze (das heißt die Zahl der sozialen Be-
ziehungen, die wir unterhalten) nimmt im Lauf der Zeit fast bei allen Leuten ab.
Aber Carstensens Forschung legt eine vollkommen neue Erklärung für dieses
Phänomen nahe.
Die herkömmliche Erklärung für die schrumpfenden sozialen Netze älterer
Menschen lautet, dies sei einfach ein Beispiel für die mit zunehmendem Alter
schwindende Lebensqualität – das Resultat einer verringerten Fähigkeit, soziale
Beziehungen zu pflegen, einer größeren Fragilität und einer allgemeinen Ver-
ringerung des gesellschaftlichen Engagements. Carstensen hingegen erklärt,

73
Erkunden und verwerten

dass ältere Menschen in Wahrheit aus freien Stücken die Zahl ihrer sozialen Be-
ziehungen verringern. Dieser Rückgang ist demnach »das Ergebnis eines lebens-
langen Selektionsprozesses, in dem die Menschen ihre sozialen Netze strategisch
und adaptiv pflegen, um die sozialen und emotionalen Gewinne zu maximieren
und die sozialen und emotionalen Risiken zu minimieren«.134
Carstensen und ihre Kollegen haben herausgefunden, dass das Schrumpfen der
sozialen Netze im Alter in erster Linie darauf zurückzuführen ist, dass die peri-
pheren Beziehungen »beschnitten« werden, während wir uns auf eine Kerngruppe
enger Freunde und Familienmitglieder konzentrieren. Dieser Prozess scheint eine
bewusste Entscheidung zu sein: Wenn wir uns dem Ende unseres Lebens nähern,
wollen wir Zeit für die Beziehungen haben, die uns am meisten bedeuten.
Um diese Hypothese zu überprüfen, führten Carstensen und ihre Mitarbeiterin
Barbara Fredrickson ein Experiment durch, in dem sie die Versuchspersonen
baten, ihnen zu sagen, mit wem sie am liebsten dreißig Minuten verbringen
wollten: mit einem Familienmitglied, mit dem Autor eines Buchs, das sie in
letzter Zeit gelesen hätten, oder mit jemanden, den sie vor Kurzem kennen-
gelernt hätten und der ähnliche Interessen wie sie habe. Ältere Personen zogen
das Familienmitglied vor, während jüngere genauso gern den Autor kennenlernen
oder eine neue Freundschaft schließen wollten. Wurden die jungen Personen
jedoch aufgefordert, sich vorzustellen, dass sie in Kürze in eine Stadt am anderen
Ende des Landes umziehen würden, so zogen sie ebenfalls das Familienmitglied
vor.135 In einer weiteren Studie beobachteten Carstensen und Kollegen, dass es
in der anderen Richtung genauso funktionierte: Wurden ältere Personen auf-
gefordert, sich vorzustellen, eine bahnbrechende medizinische Entdeckung werde
ihr Leben um zwanzig Jahre verlängern, so zeigten sie dieselben Präferenzen
wie jüngere Menschen.136 Entscheidend ist hier, dass die Unterschiede bei den
sozialen Präferenzen nicht vom Alter als solchem abhängen, sondern davon, wie
eine Person das für die Entscheidung relevante Intervall einschätzt.
Die Empfindlichkeit für die verbleibende Zeit ist genau, was die Computer-
wissenschaft des Explore/Exploit-Dilemmas nahelegt. Wir haben stereotypische
Vorstellungen von einer rastlosen Jugend und gesetzten Alten. Tatsächlich ver-
halten sich sowohl junge als auch alte Menschen vollkommen angemessen ange-
sichts der verbleibenden Lebenszeit. Die bewusste Verringerung eines sozialen
Netzes auf die bedeutsamsten Beziehungen ist die rationale Reaktion darauf,
dass das Intervall, indem wir diese Beziehungen genießen können, kürzer wird.

74
… und verwerten

Die Erkenntnis, dass das reife Alter eine Zeit der Verwertung ist, eröffnet uns
einen neuen Blick auf einige der klassischen Begleiterscheinungen des Alterns.
Beispielsweise ist die Studienzeit, in der man sich in einer neuen sozialen Um-
gebung voller Menschen bewegt, die man noch nicht kennt, normalerweise eine
heitere, aufregende Zeit. Hingegen kann es schmerzhaft sein, in ein Altenheim zu
gehen, wo man ebenfalls in eine neue soziale Umgebung voller Menschen kommt,
die man noch nicht kennt. Dass die eine Erfahrung zumeist als positiv und die
andere eher als negativ empfunden wird, hat nicht zuletzt damit zu tun, dass wir
uns in diesen Lebensphasen an unterschiedlichen Punkten auf dem Kontinuum
von Erkundung und Verwertung befinden.
Die Abwägung zwischen Erkundung und Verwertung lehrt uns auch, wie wir
die Ratschläge der Alten einschätzen sollten. Wenn Ihnen Ihr Großvater sagt,
welche Restaurants gut sind, sollten Sie auf ihn hören, denn sein Wissen ist das
Ergebnis einer jahrzehntelangen Suche. Aber wenn er nur jeden Tag um fünf Uhr
nachmittags in dasselbe Restaurant essen geht, sollten Sie auch andere Optionen
erkunden, selbst wenn diese wahrscheinlich schlechter sein werden.
Indem wir uns das Alter als eine Chance vorstellen, in Jahrzehnten ge-
sammeltes Wissen zu verwerten, können wir vor allem eine bedeutsame Erkennt-
nis gewinnen: Das Leben sollte im Lauf der Zeit besser werden. Der Entdecker
tauscht Wissen gegen Genuss ein. Wie wir gesehen haben, blasen der Gittins-
Index und die Obere Konfidenzschwelle die Attraktivität weniger bekannter
Optionen über das tatsächlich zu erwartende Maß hinaus auf, denn angenehme
Überraschungen können sich sehr lohnen. Gleichzeitig bedeutet das jedoch
auch, dass die Erkundung in den meisten Fällen zwangsläufig zur Enttäuschung
führt. Die Verlagerung der Aufmerksamkeit auf die bevorzugten Dinge sollte die
Lebensqualität erhöhen. Und anscheinend ist genau das der Fall: Carstensen hat
festgestellt, dass ältere Menschen im Allgemeinen zufriedener mit ihrem sozialen
Netz sind und oft über ein höheres Maß an emotionalem Wohlbefinden berichten
als jüngere Erwachsene.137
Es hat also vieles für sich, ein Nachmittagsstammgast im Restaurant zu sein
und die Früchte einer lebenslangen Erkundung zu genießen.

75
3
SORTIEREN
ORDNUNG SCHAFFEN

Wenn nun das Wort, das Ihr zu finden begehrt, mit (a) beginnt, so
sucht am Anfang dieser Tabelle. Beginnt es jedoch mit (v), so sucht
am Ende. Beginnt das gesuchte Wort mit (ca), so sucht unter den
ersten Worten, die mit dem Buchstaben (c) beginnen, aber wenn es
mit (cu) beginnt, so müsst Ihr gegen Ende dieses Buchstabens suchen.
Und so ist es bei allen übrigen usw.
Robert Cawdrey, A Table Aphabeticall (1604)138

B
evor Danny Hillis Thinking Machines gründete, bevor er den berühmten
Parallelrechner »Connection Machine« erfand, studierte er am MIT und
lebte im Studentenwohnheim. Zu dieser Zeit hatte er ein großes Problem:
Er litt sehr unter den Socken seines Zimmergenossen.
Anders als so mancher Student war Hillis jedoch nicht entsetzt über die
mangelnde Hygiene seines Mitbewohners. Es war nicht so, dass sein Zimmer-
genosse seine Socken nicht wusch – das tat er durchaus. Das Problem war, was
nach der Wäsche geschah.
Wenn der Zimmergenosse ein frisches Paar Socken brauchte, zog er eine
Socke aus dem Berg gewaschener Wäsche. Dann zog er wahllos eine weitere
Socke heraus. Wenn diese nicht zur ersten passte, warf er sie wieder zurück in
den Wäschekorb. Diesen Vorgang wiederholte er solange, bis er eine Socke fand,
die zur ersten passte.139

76
Das Glück des Sortierens

Wenn man zehn unterschiedliche Sockenpaare hat, wird man bei Anwendung
dieser Methode durchschnittlich 19 Socken aus dem Stapel ziehen müssen, nur
um das erste Paar zu vervollständigen. Anschließend braucht man 17 weitere
Versuche, um das zweite Paar zu vervollständigen. Insgesamt konnte Hillis’
Mitbewohner damit rechnen, 110 Socken aus dem Stapel ziehen zu müssen, um
10 Paare zu sortieren.
Für einen angehenden Computerwissenschaftler war das Grund genug, um
eine Verlegung in ein anderes Zimmer zu bitten.
Die Frage, wie Socken sortiert werden sollten, eignet sich sehr gut, um
Informatiker zu einer überraschend ausführlichen Auslassung zu bewegen. Im Jahr
2013 wurde auf der Website Stack Overflow eine Frage zur Sockenorganisation
gepostet. Es entspann sich eine Debatte, die sich schließlich über rund 12.000
Worte erstreckte.140
»Socken verwirren mich!«, gestand der legendäre Kryptograf, Informatiker
und Turing-Preisträger Ron Rivest, als wir ihn auf das Thema ansprachen.141
Er trug zu diesem Zeitpunkt Sandalen.

DAS GLÜCK DES SORTIERENS

Das Sortieren ist eine der wesentlichen Tätigkeiten des Computers. Tatsächlich
war das Sortieren in mehrerlei Hinsicht das, was den Computer hervorbrachte.
Ende des 19. Jahrhunderts wuchs die Bevölkerung der Vereinigten Staaten in
jedem Jahrzehnt um 30 Prozent und die Zahl der »Untersuchungsgegenstände«
in den amerikanischen Volkszählungen stieg zwischen 1870 und 1880 von nur
fünf auf mehr als 200. Die Auswertung der Volkszählungsdaten aus dem Jahr
1880 dauerte acht Jahre und war erst kurz vor Beginn der Volkszählung 1890
abgeschlossen. Wie ein zeitgenössischer Autor schrieb, war es ein Wunder, »dass
die Schreiber, die sich mit den verwirrenden Listen abmühten […], nicht blind und
wahnsinnig wurden«.142 Das gesamte Unternehmen drohte unter seinem eigenen
Gewicht zusammenzubrechen. Es musste etwas geschehen.
Inspiriert von den gelochten Bahnfahrscheinen jener Zeit entwickelte ein Er-
finder namens Herman Hollerith ein System, in dem gelochte Hanfpapierkarten
zur Speicherung der Information genutzt wurden, sowie einen als Hollerith-
Maschine bezeichneten Apparat, mit dem sie gezählt und sortiert werden konnten.

77
Sortieren

Im Jahr 1889 sicherte sich Hollerith ein Patent auf den Apparat, und im Jahr
darauf setzten die Behörden seine Maschine in der Volkszählung ein. Niemand
hatte je etwas Vergleichbares gesehen. Ein ehrfürchtiger Beobachter schrieb: »Der
Apparat funktioniert so unfehlbar wie Gottes Mühlen und übertrifft diese an
Schnelligkeit.«143 Ein anderer hielt den Nutzen der Maschine für begrenzt: »Da
außer Regierungen nie jemand diesen Apparat verwenden wird, wird der Erfinder
wahrscheinlich nicht reich werden.«144 Hollerith schnitt diese Vorhersage aus der
Zeitung aus und bewahrte sie auf; wie sich herausstellte, war es keine besonders
gute Prognose: Im Jahr 1911 fusionierte Holleriths Firma mit mehreren anderen
zur Computing-Tabulating-Recording Company, die einige Jahre später in Inter-
national Business Machines umbenannt wurde, abgekürzt IBM.145
Das Bemühen, Informationen zu sortieren, trieb die Entwicklung des
Computers im folgenden Jahrhundert an. Der erste Programmcode, der jemals für
einen »speicherprogrammierten Rechner« geschrieben wurde, war ein Programm
zur effizienten Sortierung.146 Tatsächlich überzeugte eben die Tatsache, dass der
Computer Informationen besser sortieren konnte als IBMs spezielle Kartensortier-
maschinen, die amerikanische Regierung davon, dass die hohen Investitionen in
eine Maschine mit breitem Anwendungsgebiet gerechtfertigt waren.147 In den
Sechzigerjahren schätzten die Autoren einer Studie, dass mehr als ein Viertel
der Rechenressourcen der Welt für Sortierarbeiten aufgewandt wurden.148 Kein
Wunder: Das Sortieren ist unverzichtbar für die Arbeit mit fast jeder Art von
Information. Ob es nun darum geht, das Größte oder das Kleinste, das Häufigste
oder das Seltenste zu finden, zu listen, zu indexieren, Duplikate zu kennzeichnen
oder einfach nur nach etwas zu suchen: all diese Vorgänge beginnen normaler-
weise mit einer Sortierung.
Tatsächlich ist das Sortieren sogar noch allgegenwärtiger. Schließlich besteht
einer der Hauptgründe dafür, dass Dinge sortiert werden, darin, sie so darzu-
stellen, dass sie einen Nutzen für den menschlichen Betrachter haben, und das
bedeutet, dass das Sortieren grundlegend für den Umgang des Menschen mit
Information ist. Sortierte Listen sind so allgegenwärtig in unserem Leben, dass
wir uns wie der Fisch, der die Frage »Was ist Wasser?« stellt, bewusst bemühen
müssen, sie überhaupt wahrzunehmen. Sobald wir das tun, sehen wir sie überall.
In unserem E-Mail-Posteingang werden normalerweise die letzten fünfzig
von möglicherweise Tausenden Botschaften angezeigt, sortiert nach dem Zeit-
punkt des Eintreffens. Wenn wir bei Yelp nach einem Restaurant suchen, sehen

78
Leidvolles Sortieren

wir etwa ein Dutzend von mehreren Hundert Lokalen, sortiert nach Nähe oder
Bewertung. In einem Blog wird eine nach Datum sortierte Liste von Artikeln
angezeigt. Der Newsfeed von Facebook, der Twitter-Stream und die Homepage
von Reddit sind allesamt Listen, sortiert anhand eines bestimmten Kriteriums.
Wir bezeichnen Google und Bing als »Suchmaschinen«, aber diese Bezeichnung
ist eigentlich nicht korrekt: In Wahrheit sind es Sortiermaschinen. Google ver-
dankt seine beherrschende Rolle als Instrument zur Suche nach der Information
der Welt weniger der Tatsache, dass es unseren Text unter Hunderten Millionen
Webseiten findet – diese Aufgabe bewältigten seine Konkurrenten schon in den
Neunzigerjahren –, sondern der Tatsache, dass es diese Webseiten besonders gut
sortiert und uns zuerst die relevantesten zehn zeigt.
Der abgeschnittene Anfang einer riesigen, sortierten Liste ist in mehrerlei
Hinsicht die universelle Benutzerschnittstelle.
Die Informatik ermöglicht uns zu verstehen, was in all diesen Fällen hinter den
Kulissen vorgeht, und das kann uns nützliche Erkenntnisse für jene Situationen
liefern, in denen wir diejenigen sind, die Ordnung schaffen müssen – in unseren
Rechnungen, unseren Papieren, unseren Büchern, unseren Socken –, und das
wahrscheinlich jeden Tag häufiger, als uns bewusst ist. Indem sie das Übel (und
den Vorzug) der Unordnung quantifiziert, zeigt sie uns auch, in welchen Fällen
wir eher darauf verzichten sollten, Ordnung zu schaffen.
Wenn wir zu suchen beginnen, stellen wir zudem fest, dass wir nicht nur
Informationen sortieren. Wir sortieren auch Menschen. Den vielleicht über-
raschendsten Nutzen hat die Computerwissenschaft, in der es um die Erstellung
von Rangordnungen geht, auf dem Sportplatz und im Boxring, und das ist der
Grund dafür, dass uns ein wenig Wissen über das Sortieren helfen kann zu er-
klären, wie es möglich ist, dass Menschen zusammenleben, ohne unentwegt
aneinanderzugeraten. Das bedeutet, dass das Sortieren einige überraschende
Hinweise auf die Natur der menschlichen Gesellschaft gibt – jener anderen,
größeren und wichtigeren Art von Ordnung, die wir errichten.

LEIDVOLLES SORTIEREN

»Um die Kosten pro Produktionseinheit zu senken, wird normalerweise der Be-
trieb vergrößert«, schrieb J. C. Hosken im Jahr 1955 im ersten wissenschaft-

79
Sortieren

lichen Artikel über das Sortieren. Dies sind die Größenvorteile, die jeder Wirt-
schaftsstudent kennt. Aber beim Sortieren ist die Größe ein Rezept für das
Scheitern – denn wenn die sortierte Menge größer wird, »steigen die Einheits-
kosten des Sortierens, anstatt zu sinken«.149 Beim Sortieren haben wir es mit
rasch wachsenden Größennachteilen zu tun, was der naheliegenden Annahme
widerspricht, dass Aufwand und Kosten mit wachsender Menge sinken. Für zwei
Personen zu kochen ist normalerweise nicht aufwändiger, als für eine Person
zu kochen – und mit Sicherheit ist es einfacher, als zweimal für eine Person zu
kochen. Aber ein Regal zu sortieren, in dem hundert Bücher stehen, wird länger
dauern, als zwei Regale zu sortieren, die jeweils fünfzig Bücher enthalten: Es gibt
doppelt so viele Dinge zu organisieren, und die Zahl der möglichen Speicherorte
ist doppelt so hoch. Je mehr wir uns vornehmen, desto schlimmer wird es.
Dies ist die erste und grundlegende Erkenntnis der Sortiertheorie: Die Menge
tut weh.
Daraus können wir ableiten, dass wir, um unser Leiden beim Sortieren zu
minimieren, die Zahl der zu sortierenden Dinge minimieren müssen. Es stimmt
tatsächlich: Eine der besten Methoden, um die Berechnungsschwierigkeiten
des Sockensortierens zu vermeiden, besteht einfach darin, die Waschmaschine
häufiger laufen zu lassen. Beispielsweise können wir unseren Sortieraufwand
um den Faktor 9 verringern, indem wir dreimal so häufig waschen. Hätte Hillis’
Zimmergenosse im Studentenwohnheim an seinem eigenwilligen Verfahren
festgehalten, das Intervall zwischen den Wäschen jedoch von 14 auf 13 Tage
verkürzt, so hätte er sich 28 Griffe in den Wäscheberg ersparen können. (Und
hätte er einen Tag länger bis zur nächsten Wäsche gewartet, so hätte er schon
30 zusätzliche Socken aus dem Wäschehaufen ziehen müssen.)
Wir sehen also, dass der Sortieraufwand bereits in einem so kleinen, vierzehn-
täglichen Maßstab rasch überwältigend wird. Aber Computer müssen regelmäßig
Millionen Punkte in einem einzigen Durchgang sortieren. Dafür werden wir, um
aus Der Weiße Hai zu zitieren, ein größeres Boot brauchen – und einen besseren
Algorithmus.
Aber um die Frage zu beantworten, wie wir sortieren sollten und welche
Methoden die besten sind, müssen wir zuerst etwas anderes herausfinden: Wir
müssen wissen, wie wir es messen können.

80
����������������������������������������������

BIG-O: EIN MASSSTAB FÜR DEN


SCHLIMMSTEN MÖGLICHEN FALL

Den Weltrekord im Sortieren eines Kartendecks hält laut dem Guinness-Buch


der Rekorde der tschechische Zauberkünstler Zdeněk Bradáč. Am 15. Mai 2008
sortierte Bradáč ein Deck von 52 Karten in nur 36,16 Sekunden.* Wie schaffte
er das? Welche Sortiertechnik verhalf ihm zum Rekord? Die Antwort könnte
ein nützlicher Beitrag zur Sortiertheorie sein, aber der Zauberkünstler will sich
nicht dazu äußern.150
Wir haben größten Respekt vor Bradáčs Fähigkeiten und seinem Geschick,
aber wir sind vollkommen sicher, dass wir seinen Rekord brechen können. Tat-
sächlich sind wir 100-prozentig sicher, dass wir einen nicht zu brechenden Rekord
brechen können. Dazu brauchen wir lediglich etwa 80 658 175 170 943 878 571
660 636 856 403 766 975 289 505 440 883 277 824 000 000 000 000 Versuche.
Diese Zahl, das heißt etwas mehr als 80 Unvigintillion, ist die Fakultät von
52 – »52!« in mathematischer Notation – und entspricht der Zahl der möglichen
Konfigurationen, in denen 52 Karten auf dem Boden landen können, wenn man
sie in die Luft wirft. Etwa so viele Versuche werden erforderlich sein, um früher
oder später zufällig ein perfekt sortiertes Deck zu erhalten.151 An diesem Punkt
können wir voller Stolz die Namen Christian und Griffiths mit einer akzeptablen
Rekordzeit von 0 Sekunden ins Guinness-Buch der Rekorde eintragen lassen.
Der Fairness halber sei gesagt, dass wir es mit einiger Sicherheit bis zum
Hitzetod des Universums probieren müssten, bevor uns der perfekte Rekordver-
such gelingen würde. Aber dieses Beispiel veranschaulicht den grundlegenden
Unterschied zwischen Rekordhaltern und Informatikern. Die Leute bei Guinness
interessieren sich nur für die beste Leistung (und Bier), und daraus kann man ihnen
natürlich keinen Vorwurf machen: Alle Rekorde im Sport geben Aufschluss über
die allerbeste Leistung. Hingegen geht es in der Informatik fast nie um den besten
Fall. Die Computerwissenschaftler würden sich eher für die durchschnittliche Zeit
interessieren, die jemand wie Bradáč braucht, um seine Aufgabe zu bewältigen: Sie
würden ihn zwingen, alle 80 Unvigintillion Anordnungen des Kartendecks oder

* Das ist nicht Bradáčs einziger Rekord: Er braucht etwa genauso lange, um sich unter Wasser aus drei
Handschellen zu befreien.

81
Sortieren

eine angemessene Stichprobe zu sortieren und seine Durchschnittsgeschwindig-


keit in allen Versuchen bewerten. (Jetzt wissen Sie, warum Informatikern nicht
erlaubt wird, solche Experimente zu leiten.)
Außerdem würde ein Informatiker wissen wollen, welches die schlechteste
Sortierzeit ist. Die Worst-Case-Analyse ermöglicht es uns, Garantien zu geben:
Ein kritischer Prozess wird pünktlich abgeschlossen sein, die Fristen werden nicht
überschritten werden. Im restlichen Kapitel, ja sogar im restlichen Buch werden
wir daher von Worst-Case-Resultaten sprechen, sofern wir nicht ausdrücklich
etwas anderes sagen.
Die Informatik hat eine eigene Kurzschrift für die Messung der schlechtesten
algorithmischen Fälle entwickelt: die »O-Notation«.152 Der Trick bei der
O-Notation besteht darin, dass sie von Haus aus inexakt ist. Das bedeutet, dass
sie die Leistung eines Algorithmus nicht in Minuten und Sekunden beschreibt,
sondern uns die Möglichkeit gibt, die Beziehung zwischen der Größe des Problems
und der Laufzeit des Programms zu beurteilen. Die O-Notation lässt die feinen
Details bewusst außer Acht und ermöglicht es uns, die Probleme in allgemeine
Klassen zu unterteilen.
Nehmen wir an, wir veranstalten ein Abendessen mit n Gästen. Die Zahl der
Gäste hat nicht den geringsten Einfluss auf die Zeit, die wir benötigen, um das
Haus aufzuräumen. Dies zählt zu den angenehmsten Problemen, die als »O von
eins«, also O(1) bezeichnet werden; der Zeitaufwand wird hier auch als »konstante
Zeit« bezeichnet. Für die O-Notation ist es unerheblich, wie lange das Aufräumen
tatsächlich dauert – wichtig ist nur, dass die Dauer unabhängig von der Gäste-
liste immer dieselbe sein wird. Ob wir nun einen, zehn, hundert oder irgendeine
andere Zahl n Gäste haben, der Aufwand ist immer derselbe.
Der Zeitaufwand für das Herumreichen des Bratens wird »O von n« sein,
geschrieben O(n), auch bekannt als »lineare Zeit«: Bei der doppelten Zahl von
Gästen wird es doppelt so lange dauern, bis die Fleischplatte um den Tisch ge-
wandert ist. Und auch hier ist es für die O-Notation vollkommen unerheblich,
wie viele Gänge serviert werden oder ob jemand eine zweite Portion möchte.
In jedem Fall hängt die Zeit weiterhin linear von der Länge der Gästeliste ab:
Würden wir eine Funktion zum Verhältnis zwischen Gästezahl und Zeitaufwand
zeichnen, so erhielten wir eine gerade Linie. Mehr noch, die Existenz jeglicher
linearer Zeitfaktoren wird in der O-Notation sämtliche konstanten Zeitfaktoren
bedeutungslos machen. Das heißt, dass es für den Informatiker eigentlich dasselbe

82
����������������������������������������������

ist, ob wir den Braten um den Tisch reichen oder drei Monate lang das Esszimmer
umbauen und dann den Braten um den Tisch reichen. Wenn Ihnen das abwegig
scheint, sollten Sie sich in Erinnerung rufen, dass Computer mit Werten von n zu
tun haben, die leicht in den Tausenden, Millionen oder Milliarden liegen können.
Mit anderen Worten, die Informatiker beschäftigen sich mit sehr, sehr großen
Partys. Bei einer Liste von mehreren Millionen Gästen hätte der Zeitaufwand für
den Umbau des Esszimmers gemessen am Zeitaufwand für das Herumreichen
des Bratens nicht die geringste Bedeutung.
Was wäre, wenn jeder Gast bei der Ankunft alle anderen Gäste umarmt? Der
erste Gast umarmt Sie; der zweite Gast umarmt Sie und den ersten Gast, und
der dritte Gast muss schon drei Personen umarmen. Wie viele Umarmungen
werden das insgesamt sein? Der Zeitaufwand wäre hier »O von n zum Quadrat«,
geschrieben O(n2), auch bekannt als »quadratische Zeit«. Auch hier interessieren
uns nur die grundlegenden Umrisse der Beziehung zwischen n und der Zeit. Es
gibt kein O(2n2) für doppelte Umarmungen oder O(n2 + n) für Umarmungen plus
Herumreichen des Bratens oder O(n2 + 1) für Umarmungen plus Hausaufräumen.
Es ist alles quadratische Zeit, weshalb O(n2) alles abdeckt.

Haus aufräumen– O(1) Braten herumreichen– O(n) Gäste umarmen– O(n 2)


Zeit

Zeit

Zeit

Konstante Zeit, geschrieben O(1), lineare Zeit, geschrieben O(n), und quadratische Zeit,
geschrieben O(n2).

Jetzt wird es richtig kompliziert. Es gibt die »exponentielle Zeit« – O(2n) – bei der
jeder zusätzliche Gast den Aufwand verdoppelt. Noch schlimmer ist die »faktoriell
wachsende Zeit« – O(n!) – bei einer Art von Problemen, die derart höllisch sind,
dass die Informatiker nur im Scherz darüber sprechen – wie wir es taten, als wir
uns vorstellten, ein Kartendeck solange zu mischen, bis es zufällig perfekt sortiert
ist – oder wenn sie sich wirklich wünschen, es sei nur ein Scherz.

83
Sortieren

QUADRATISCHE ZEIT: BUBBLESORT


UND INSERTIONSORT

Als der damalige Senator Barack Obama im Jahr 2007 Google besuchte, begann
Geschäftsführer Eric Schmidt den Frage-und-Antwort-Teil bei einer Podiums-
diskussion scherzhaft wie ein Bewerbungsgespräch und fragte Obama: »Welches
ist die beste Methode, um eine Millionen 32-Bit-Integer zu sortieren?« Ohne
zu zögern antwortete Obama mit einem verschmitzten Lächeln: »Ich glaube,
Bubblesort wäre nicht die geeignete Methode.« Die versammelten Google-
Ingenieure brachen in Jubel aus.
Obama hatte Recht damit, dass er Bubblesort ausschloss, einen auch als
»Sortieren durch Aufsteigen« bezeichneten Algorithmus, der mittlerweile so etwas
wie ein Boxsack für Informatikstudenten ist: Er ist einfach, er ist einleuchtend
und er ist extrem ineffizient.
Stellen wir uns vor, wir wollten unsere ungeordnete Büchersammlung alpha-
betisch sortieren. Ein naheliegender Zugang wäre, einfach den Blick über eine
Regalreihe wandern zu lassen und nach Paaren zu suchen, bei denen die Reihen-
folge umgedreht ist – zum Beispiel steht Wallace vor Pynchon –, und sie auszu-
tauschen. Nachdem wir Pynchon vor Wallace einsortiert haben, gehen wir weiter
und kehren jedes Mal, wenn wir am Ende des Regals angekommen sind, wieder
zum Anfang zurück. Sobald wir sämtliche Bücher durchgehen können, ohne
ein einziges Paar zu finden, das nicht falsch angeordnet ist, wissen wir, dass die
Aufgabe erledigt ist.
So funktioniert der Bubblesort-Algorithmus, der uns in die quadratische Zeit
katapultiert. Es gibt n ungeordnete Bücher, und bei jedem Sortierdurchgang kann
jedes Buch um höchstens eine Position nach links wandern. (Wir erkennen ein
winziges Problem und nehmen eine winzige Korrektur vor.) Im schlimmsten
Fall, das heißt, wenn die Bücher im Regal genau in der umgekehrten Reihenfolge
angeordnet sind, muss mindestens ein Buch um n Positionen nach links bewegt
werden. Wir haben bei n Büchern also maximal n Positionsänderungen, womit wir
im schlimmsten Fall O(n2) erhalten.* Das ist nicht furchtbar – zum einen ist es um

* Tatsächlich ist die durchschnittliche Laufzeit von Bubblesort nicht besser, da die Bücher im Durch-
schnitt n/2 Positionen von ihrem richtigen Platz entfernt sein werden. Dennoch wird ein Informatiker
n/2 Positionsänderungen von n Büchern auf O(n2) runden.

84
Die quadratische Barriere durchbrechen

Welten besser als unsere O(n!)-Idee, die Karten so lange zu mischen, bis sie zufällig
perfekt sortiert sind (sofern jemand die Informatik braucht, um das zu bestätigen).
Aber dieser quadratische Term kann rasch beängstigend werden. Beispielsweise
bedeutet er, dass das Sortieren von fünf Bücherregalen nicht fünfmal solange wie
das Sortieren eines Regals dauern wird, sondern fünfundzwanzigmal so lange.
Nun könnten wir einen anderen Zugang wählen und alle Bücher aus dem
Regal nehmen, um sie anschließend eins nach dem anderen in der richtigen
Reihenfolge wieder hineinzustellen. Dabei würden wir das erste Buch in die
Mitte des Regals stellen, dann das zweite mit ihm vergleichen und entweder
links oder rechts daneben stellen. Dann würden wir das dritte Buch nehmen und
die bereits im Regal stehenden Bücher von links nach rechts durchgehen, bis wir
den richtigen Platz für das neue Buch gefunden hätten. Diesen Vorgang würden
wir solange wiederholen, bis schließlich alle Bücher alphabetisch geordnet im
Regal stehen.
Die Informatiker haben für dieses Verfahren die treffende Bezeichnung
Insertionsort (oder Sortieren durch Einfügen). Die gute Nachricht ist, dass
dieser Algorithmus noch einleuchtender sein dürfte als Bubblesort und oben-
drein einen besseren Ruf hat. Die schlechte Nachricht ist, dass er nicht sehr viel
schneller ist als Bubblesort: Man muss immer noch jedes Buch einzeln einfügen.
Und bei jedem Einfügevorgang muss man immer noch im Durchschnitt etwa
die Hälfte der Bücher im Regal durchgehen, um den richtigen Platz zu finden.
Obwohl der Insertionsort-Algorithmus in der Praxis ein wenig schneller läuft
als Bubblesort, haben wir es auch hier mit einer quadratischen Laufzeit zu tun.
Mehr als ein Regal zu sortierten, ist keine verlockende Aufgabe.

DIE QUADRATISCHE BARRIERE


DURCHBRECHEN: TEILEN UND HERRSCHEN

Nachdem wir gesehen haben, wie zwei vollkommen vernünftige Ansätze durch
eine untragbare quadratische Zeit zunichte gemacht worden sind, liegt die Frage
nahe, ob eine schnellere Sortierung überhaupt möglich ist.
Es hört sich so an, als handle es sich um eine Frage der Produktivität. Spricht
man jedoch mit einem Informatiker, so stellt sich heraus, dass es eher eine meta-
physische Angelegenheit ist, ähnlich der Beschäftigung mit Lichtgeschwindigkeit,

85
Sortieren

Zeitreisen, Supraleitern oder thermodynamischer Entropie. Welches sind die


Grundregeln des Unterfangens, welche Grenzen setzt es uns? Was ist möglich?
Was ist erlaubt? Die Informatiker studieren ebenso den göttlichen Plan wie die
Teilchenphysiker und Kosmologen. Welcher Mindestaufwand ist erforderlich,
um für Ordnung zu sorgen?
Könnten wir eine Sortierung mit konstanter Zeit – O(1) – finden, einen
Algorithmus, der wie beim Aufräumen des Hauses vor der Ankunft der Gäste
eine Liste beliebiger Größe immer im selben Zeitraum sortieren kann? Nun ja,
selbst die Bestätigung, dass ein Regal, in dem n Bücher stehen, sortiert ist, kann
nicht in einer konstanten Zeit bewältigt werden, da sie die Prüfung aller n Bücher
erfordert.
Wie wäre es mit einer Sortierung in linearer Zeit – O(n) –, die so effizient
ist wie das Herumreichen des Bratens, wobei eine Verdoppelung der Zahl der
zu sortierenden Elemente den Arbeitsaufwand lediglich verdoppeln wird? An-
gesichts der vorhergehenden Beispiele ist auch das schwer vorstellbar. Der Wert
n2 hat seinen Ursprung in jedem Fall in der Tatsache, dass man n Bücher be-
wegen muss und dass der für jeden Sortieraufwand erforderliche Arbeitsaufwand
ebenfalls um n steigt. Wie könnten wir n Bewegungen der Größe n auf nur n
selbst verringern? Bei Bubblesort haben wir die Laufzeit O(n2), weil wir jedes
der n Bücher nehmen und n Plätze weiterbewegen müssen. Bei Insertionsort ist
die quadratische Laufzeit das Resultat des Erfordernisses, jedes der n Bücher
zu nehmen und mit n anderen Büchern zu vergleichen, bevor wir es einordnen
können. Eine Sortierung in linearer Zeit wäre nur möglich, wenn alle Bücher
unabhängig davon, wie viele andere Bücher durchgegangen werden müssen, um
den Platz der neu einzuordnenden zu finden, für eine konstante Zeitdauer bewegt
werden könnten. Es ist unwahrscheinlich, dass das möglich ist.
Wir wissen also, dass wir die Aufgabe zumindest in quadratischer Zeit, wahr-
scheinlich jedoch nicht in linearer Zeit bewältigen können. Vielleicht liegt die
Grenze irgendwo zwischen linearer und quadratischer Zeit. Gibt es Algorithmen
zwischen linear und quadratisch, zwischen n und n x n?
Es gibt sie, und sie versteckten sich vor unseren Augen.
Wie zuvor erwähnt, begann die Informationsverarbeitung in den ameri­
kanischen Volkszählungen des 19. Jahrhunderts, als Herman Hollerith und später
IBM Sortiergeräte entwickelten, die mit Lochkarten betrieben wurden.153 Im
Jahr 1936 begann IBM, als »Kollatoren« bezeichnete Maschinen zu bauen, die

86
Die quadratische Barriere durchbrechen

zwei getrennt geordnete Kartenstapel zu einem verschmelzen konnten. Sofern die


beiden Stapel sortiert waren, war das Verfahren ihrer Verschmelzung unglaub-
lich einfach und nahm eine lineare Zeit in Anspruch: Man verglich einfach die
beiden obersten Karten miteinander, legte die mit dem kleineren Wert auf den
neuen Stapel, den man anlegte, und wiederholte den Vorgang solange, bis beide
Stapel abgearbeitet waren.
Im Jahr 1945 schrieb John von Neumann ein Programm, um die Leistungs-
fähigkeit des speicherprogrammierten Rechners zu beweisen, und perfektionierte
damit das Kollationieren.154 Zwei Spielkarten zu sortieren, ist einfach: Man legt
einfach die mit dem kleineren Wert auf die andere. Und hat man ein Paar von
Stapeln mit jeweils zwei Karten, die bereits sortiert sind, kann man sie leicht
zu einem geordneten Stapel von vier Karten zusammenlegen. Wiederholt man
diesen Trick einige Male, so erhält man immer größere Stapel, die jeweils bereits
sortiert sind. Es dauert nicht lange, bis man ein perfekt sortiertes Kartenspiel hat.
Dieses Verfahren wird heute als Mergesort bezeichnet und zählt zu den
legendären Algorithmen der Informatik. Wie es in einem Artikel aus dem Jahr
1997 heißt: »Mergesort ist für die Geschichte der Sortierung so wichtig wie das
Sortieren für die Geschichte des Computers.«155
Mergesort ist so bedeutend, weil dieser Algorithmus tatsächlich zu einer
zwischen linearer und quadratischer Zeit angesiedelten Komplexität führt, näm-
lich zu O(n log n), bekannt als »linearithmische« Zeit. Mit jedem Sortierdurch-
gang verdoppelt sich die Größe der sortierten Kartenstapel, weshalb wir für
die vollständige Sortierung von n Karten so viele Durchgänge brauchen, wie
notwendig sind, damit die Zahl 2 mit sich selbst multipliziert n entspricht, also
dem Logarithmus zur Basis 2. Man kann in zwei Kollationierungsdurchgängen
bis zu vier Karten, in einem dritten Durchgang bis zu acht Karten und in einem
vierten bis zu sechzehn Karten sortieren. Der Teile-und-herrsche-Ansatz von
Mergesoft diente als Ausgangspunkt für die Entwicklung zahlreicher weiterer
linearithmischer Sortieralgorithmen. Zu sagen, die linearithmische Komplexität
sei ein Fortschritt gegenüber der quadratischen Komplexität, ist eine gewaltige
Untertreibung. Wenn die Aufgabe darin besteht, eine Zahl von Elementen zu
sortieren, die bei einem Vorhaben wie einer Volkszählung gesammelt werden, so
macht dieses Verfahren den Unterschied zwischen 29 und 300 000 000 Sortier-
durchgängen aus. Kein Wunder, dass es das Verfahren der Wahl bei industriellen
Sortierproblemen ist.156

87
Sortieren

Mergesort kann auch in kleinem Maßstab auf alltägliche Sortierprobleme an-


gewandt werden. Einer der Gründe dafür, dass dieser Algorithmus so breite Ver-
wendung findet, ist seine problemlose Parallelisierung. Wenn Sie noch immer über
das Bücherregal nachdenken, bestünde die Mergesort-Lösung darin, eine Pizza zu
bestellen und ein paar Freunde einzuladen, deren Zahl nach Möglichkeit eine Potenz
von 2 sein sollte. Teilen Sie die Bücher gleichmäßig zwischen Ihren Freunden auf
und lassen Sie jede Person ihren eigenen Stapel sortieren. Bilden Sie anschließend
Paare von je zwei Personen, die ihre Stapel kollationieren. Wiederholen Sie den
Vorgang solange, bis nur noch zwei Stapel übrig sind, und verschmelzen sie diese
im Regal. Achten Sie darauf, die Bücher nicht mit Pizzasauce zu beschmieren.

UNVERGLEICHLICH: WIE DER


LOGARITHMUS ÜBERLISTET WIRD

In einem unauffälligen Gewerbepark außerhalb von Preston im Bundesstaat


Washington versteckt sich hinter einem von vielen unauffälligen grauen Ein-
gängen der Meister der nationalen Bibliothekensortierwettbewerbe von 2011 und
2013. Ein langes, in verschiedene Segmente unterteiltes Fließband bewegt 167
Bücher pro Minute,157 das heißt 85 000 am Tag, durch einen Balkencodescanner,
von dem aus die Bücher automatisch zu Bombenschachtklappen weitergeleitet
werden und in eine von 96 Tonnen fallen.158
Das Sortierzentrum in Preston ist eine der größten und effizientesten Buch-
sortieranlagen der Welt. Der Betreiber, das King County Library System, liefert
sich einen gesunden Wettbewerb mit der ähnlich gut ausgerüsteten New York
Public Library. Die beiden Einrichtungen wechseln einander seit vier Jahren als
Titelträger ab. »Sie glauben, der Bibliothekenverbund des King County kann uns
dieses Jahr schlagen?«, sagte Salvatore Magaddino, der stellvertretende Leiter
des Verleihbetriebs der New Yorker Bibliotheken, vor dem Duell im Jahr 2014.
»Vergessen Sie es.«159
Auch unter theoretischen Gesichtspunkten ist das Sortierzentrum in Preston
beeindruckend: Die Bücher, die durch sein System geschleust werden, werden in
O(n) sortiert, in linearer Zeit.
Die linearithmische Laufzeit O(n log n) von Mergesort ist in einem bedeut-
samen Sinn tatsächlich das Beste, was wir zu erreichen hoffen dürfen.160 Feststeht,

88
Unvergleichlich: Wie der Logarithmus überlistet wird

Ein Mergesort-Algorithmus in Aktion. Bei acht unsortierten Büchern in einem Regal


sortiert man die Bücher zunächst paarweise. Dann stellt man die Paare zu geordneten
Vierergruppen zusammen, und schließlich stellt man diese Gruppen zusammen, um ein
vollkommen sortiertes Regal zu erhalten.

89
Sortieren

dass es, wenn man n Elemente anhand einer Reihe von direkten Vergleichen
vollkommen sortieren will, unmöglich ist, sie weniger als O(n log n) Male zu
vergleichen. Das ist ein grundlegendes Gesetz des Universums, und es gibt keine
zwei Wege, um es zu umgehen.
Streng genommen bedeutet das jedoch nicht, dass das letzte Wort über das
Sortieren gesprochen ist. Denn manchmal braucht man keine vollkommen ge-
ordnete Gruppe – und unter Umständen ist sogar eine Sortierung vollkommen
ohne Vergleiche zwischen den einzelnen Elementen möglich. Diese beiden
Prinzipien ermöglichen grobe praktische Sortierungen, die schneller als in
linearithmischer Zeit bewältigt werden können. Ein schönes Beispiel dafür ist
ein als Bucketsort bezeichneter Algorithmus, und das Sortierzentrum in Preston
liefert das perfekte Anschauungsbeispiel für seine Anwendung.
Im Bucketsort-Verfahren werden die Gegenstände einer Reihe sortierter
Kategorien zugeordnet, wobei auf eine genauere Sortierung innerhalb der Kate-
gorien verzichtet wird; darauf kann später zurückgekommen werden. (In der
Informatik bezieht sich der Terminus »Bucket« – Eimer – einfach auf eine
Menge ungeordneter Daten, aber bei einigen der wirksamsten Anwendungen des
Bucketsort-Algorithmus, so zum Beispiel im King County Library System, wird
die Bezeichnung sehr buchstäblich genommen.) Das Besondere ist hier Folgendes:
Wenn wir n Dinge m Eimern zuordnen wollen, kann die Gruppierung in O(nm)
Zeit bewältigt werden – das heißt, der Zeitaufwand ist einfach proportional zur
Zahl der Gegenstände multipliziert mit der Zahl der Eimer. Und solange die
Zahl der Eimer verglichen mit der Zahl der Gegenstände relativ klein ist, wird
die O-Notation dies auf O(n) oder lineare Zeit runden.
Um die linearithmische Grenze tatsächlich durchbrechen zu können, muss
man die Verteilung kennen, aus der die zu sortierenden Elemente stammen.
Wählt man die Behälter nicht richtig, so verbessert man die Ausgangslage für
die Sortierung kaum; wenn beispielsweise alle Bücher im selben Behälter landen,
hat man überhaupt keinen Fortschritt erzielt. Hingegen ermöglichen es gut
gewählte Behälter, die Gegenstände in ähnlich große Gruppen zu unterteilen,
was in Anbetracht der grundlegenden Eigenschaft des Sortierens – »Die Menge
schmerzt« – ein großer Schritt zu einer vollständigen Sortierung ist. Im Sortier-
zentrum von Preston, dessen Aufgabe es ist, die Bücher nicht alphabetisch,
sondern nach Bestimmungsort zu ordnen, hängt die Wahl der Behälter von der
Zirkulationsstatistik ab. An einigen Bibliotheksstandorten zirkulieren mehr

90
Unvergleichlich: Wie der Logarithmus überlistet wird

Bücher als an anderen, weshalb ihnen teilweise zwei oder sogar drei Behälter
zugeteilt werden.
Von einer ähnlichen Kenntnis des Materials profitieren auch menschliche
Sortierer. Um Sortierexperten in Aktion zu sehen, machten wir einen Ausflug
zur Doe and Moffit-Bibliothek der Universität Berkeley, wo in Bücherregalen mit
einer Gesamtlänge von sage und schreibe 84 Kilometern für Ordnung gesorgt
werden muss – und das wird alles händisch gemacht. Entlehnte Bücher, die in
die Bibliothek zurückgebracht werden, landen zuerst in einem Bereich hinter den
Kulissen, wo sie nach ihrer Kennnummer in der Kongressbibliothek in Regale
eingeräumt werden. Beispielsweise enthalten mehrere Regale ein Durcheinander
von zurückgegebenen Büchern mit den Kennnummern PS3000–PS9999. Als
Nächstes laden Bibliotheksassistenten jeweils bis zu 150 Bücher in der richtigen
Ordnung auf Rollwagen, um sie in die Bibliotheksregale zurückzuschieben. Die
Assistenten sind Studenten, die in grundlegenden Sortiermethoden geschult
worden sind, im Lauf der Zeit jedoch ihre eigenen Strategien entwickelt haben.
Wenn sie ein wenig Erfahrung gesammelt haben, können sie einen Wagen mit
150 Büchern in weniger als 40 Minuten sortieren. Und ein wichtiger Teil der
Erfahrung ist, dass man weiß, was man zu erwarten hat.
Jordan Ho, Chemiestudent und vorzüglicher Sortierer, erklärte uns das Ver-
fahren, während wir einen beeindruckenden Bücherberg in den Regalen PS3000–
PS9999 durchgingen:
»Ich weiß aus Erfahrung, dass es zahlreiche 3500er gibt, also suche ich nach
Büchern mit einer Nummer unter 3500 und sortiere diese grob aus. Anschließend
mache ich mich an eine genauere Sortierung dieser niedrigeren Nummern. Nach-
dem ich die Nummern unter 3500 sortiert habe, weiß ich, dass eine große Gruppe
kommt – die Nummern zwischen 3500 und 3599 –, die ich als eigenen Bereich
behandle. Und wenn es besonders viele von denen gibt, unterteile ich diesen Be-
reich vielleicht noch weiter in 3510er, 3520er, 3530er usw.«161
Jordon sammelt eine Gruppe von etwa 25 Büchern auf seinem Wagen, bevor
er sie in der endgültigen Reihenfolge sortiert, was er anhand des Insertion­sort-
Algorithmus tut. Und seine sorgfältig gestaltete Strategie ist genau die richtige,
um das Ziel zu erreichen: ein Bucketsort, bei dem ihm die fundierte Prognose
dazu, wie viele Bücher er mit den verschiedenen Kennnummern haben wird,
verrät, wie seine Buckets aussehen sollten.

91
Sortieren

DAS SORTIEREN BEUGT DEM SUCHEN VOR

Die Kenntnis all dieser Sortieralgorithmen wird Ihnen gute Dienste leisten, wenn
Sie sich das nächste Mal entschließen, Ihr Bücherregal alphabetisch zu sortieren.
Wie Präsident Obama werden Sie wissen, dass Bubblesort keine gute Lösung
ist. Eine gute Strategie, die sowohl von menschlichen als auch von maschinellen
Bibliothekaren erfolgreich angewandt wird, ist Bucketsort – zumindest solange,
bis man bei Stapeln angelangt ist, die so klein sind, dass sich Insertionsort oder
eine Mergesort-Party mit Pizza lohnt.
Würden wir jedoch tatsächlich einen Informatiker bitten, uns bei diesem
Prozess zu helfen, so würde er uns als Erstes fragen, ob es überhaupt ratsam ist,
zu sortieren.
In der Informatik geht es um Abwägungen, wie den Studienanfängern erklärt
wird. Das haben wir bereits an der Spannung zwischen Suchen und Springen
und zwischen Erkundung und Verwertung gesehen. Eine der grundlegenden Ab-
wägungen ist jene zwischen Sortieren und Suchen. Das Grundprinzip ist Folgendes:
Der Aufwand für das Sortieren von Dingen wird einfach in Kauf genommen,
um den Aufwand für das Durchsuchen dieser Dinge zu verringern. Das richtige
Gleichgewicht hängt von den exakten Parametern der jeweiligen Situation ab, aber
wenn wir davon ausgehen, dass das Sortieren nur insofern nützlich ist, als es die
zukünftige Suche erleichtert, gelangen wir zu einer überraschenden Erkenntnis:
Wir sollten uns im Zweifel für die Unordnung entscheiden.
Etwas zu suchen, was man nie sortiert hat, ist einfach ineffizient, aber etwas
zu sortieren, was man nie suchen wird, ist völlige Zeitverschwendung.
Die Frage ist natürlich, wie man die zukünftige Nutzung im Voraus richtig
einschätzen kann.
Als Paradebeispiel für die Vorzüge des Sortierens bietet sich eine Internetsuch-
maschine wie Google an. Es wäre tatsächlich beeindruckend, könnte Google in
weniger als einer halben Sekunde das gesamte Internet nach einem Suchbegriff
durchforsten. Aber das tut die Suchmaschine nicht – weil es nicht nötig ist. Wenn
Sie Google sind, können Sie fast sicher sein, dass (a) Ihre Daten gesucht werden,
(b) die Daten nicht nur einmal, sondern wiederholt gesucht werden und (c) die für
die Sortierung benötigte Zeit »weniger wertvoll« ist als die für die Suche benötigte
Zeit. (Hier wird das Sortieren im Voraus, das heißt, bevor die Resultate benötigt
werden, von Maschinen erledigt, und die Suche wird von den Benutzern über-

92
Das Sortieren beugt dem Suchen vor

nommen, für die die Zeit von entscheidender Bedeutung ist.) All diese Faktoren
sprechen für einen gewaltigen Aufwand für die vorausschauende Sortierung, und
Google und andere Suchmaschinen betreiben einen solchen Aufwand.
Sollten Sie also Ihr Bücherregal alphabetisch ordnen? Auf die meisten Privat-
bibliotheken trifft fast keine der Bedingungen zu, die das Sortieren lohnenswert
machen. Es kommt eher selten vor, dass wir nach einem bestimmten Titel suchen.
Die Kosten einer Suche in einem unsortierten Bücherregal sind sehr gering: Wenn
wir ungefähr wissen, wo ein Buch steht, werden wir es in kurzer Zeit finden.
Und der Unterschied zwischen den zwei Sekunden, die wir brauchen würden,
um das Buch in einem sortierten Regal zu finden, und den zehn Sekunden, die
es dauert, in einem unsortierten Regal danach zu suchen, ist kaum der Rede wert.
Nur selten müssen wir ein Buch so dringend finden, dass es sich lohnen würde,
im Voraus mehrere Stunden mit der Sortierung zu verbringen, um später ein paar
Sekunden sparen zu können. Dazu kommt, dass wir mit flinken Augen suchen,
aber mit langsamen Händen sortieren.
Das Urteil ist klar: Ihr Bücherregal zu ordnen, wird mehr Zeit und Energie
verbrauchen, als das Suchen jemals kosten könnte.
Wahrscheinlich macht Ihnen Ihr unsortiertes Bücherregal im Alltag keine
Sorgen, aber der Posteingangsordner Ihres E-Mail-Programms beschäftigt Sie
mit einiger Sicherheit – und auch dies ist ein Bereich, in dem das Suchen dem
Sortieren eindeutig vorzuziehen ist. Elektronische Botschaften von Hand in
Ordnern abzulegen, dauert etwa genauso lange wie das Ablegen von Papier in
physischen Aktenordnern, aber E-Mails können sehr viel effizienter gesucht
werden als Mitteilungen auf Papier. Und je geringer die Kosten der Suche, desto
geringer der Wert des Sortierens.
Steve Whittaker ist einer der weltweit angesehensten Experten für den Um-
gang mit der elektronischen Post. Als wissenschaftlicher Mitarbeiter von IBM und
Professor an der Universität von Santa Cruz beschäftigt sich Whittaker seit fast
zwei Jahrhunderten mit der Frage, wie die Menschen ihre persönliche Information
organisieren. (Im Jahr 1996, das heißt zu einer Zeit, als viele Leute noch über-
haupt kein E-Mail hatten, veröffentlichte er einen Artikel über »Email-Über-
frachtung«.162) Im Jahr 2011 führte Whittaker eine Studie über die Such- und
Sortiergewohnheiten von E-Mail-Benutzern durch, deren Ergebnisse er unter
dem Titel »Vergeude ich meine Zeit mit der Organisation meiner E-Mails?«
vorlegte. Damit die Spannung nicht zu groß wird: Das Ergebnis war ein klares

93
Sortieren

Ja. »Es ist ein empirisches, aber auch auf der Erfahrung beruhendes Resultat«,
erklärt Whittaker. »Wenn ich Leute zu solchen Organisationsproblemen befrage,
sagen sie normalerweise, dass sie irgendwie einen Teil ihres Lebens damit ver-
geudet haben.«163
Die Computerwissenschaft zeigt, dass sowohl die Gefahren der Unordnung
als auch jene der Ordnung quantifizierbar sind und dass die Kosten in derselben
Währung gemessen werden können: der Zeit. Etwas ungeordnet zu lassen, mag
wie ein Akt des Hinausschiebens wirken: Man lädt die Kosten auf sein zukünftiges
Selbst ab, das mit Zinsen zurückzahlen muss, was das heutige Selbst nicht zu
zahlen bereit war. Aber ganz so einfach ist es nicht. Manchmal ist die Unordnung
mehr als die einfache Lösung. Sie ist die einzige Lösung.

SPORT SORTIEREN

Das Abwägen zwischen Suchen und Sortieren führt oft zu dem Ergebnis, dass
es effizienter ist, mit der Unordnung zu leben. Aber eine Zeitersparnis ist nicht
der einzige Grund dafür, dass wir Dinge sortieren: Manchmal ist die Herstellung
einer endgültigen Ordnung ein Selbstzweck. Und das kann man nirgendwo besser
sehen als auf dem Sportplatz.
Im Jahr 1883 gelangte Charles Lutwidge Dodgson zu einem klaren Urteil
über den Zustand des britischen Rasentennis. Wie er erklärte:
»Vor einer Weile hatte ich zufällig Gelegenheit, einem Rasentennisturnier
beizuwohnen. Die Klagen eines der Spieler, der in einer der ersten Runden be-
siegt worden war (und damit jede Chance auf einen Preis eingebüßt hatte) und
die quälende Erfahrung gemacht hatte, dass der zweite Preis an einen Spieler
ging, der sehr viel schlechter als er selbst spielte, öffneten mir die Augen für die
Mängel der gegenwärtigen Methode zur Zuerkennung der Preise.«164
Viele Zuschauer hätten ein solches »Gejammer« einfach als Äußerung eines
schlechten Verlierers betrachtet, aber Dodgson war kein gewöhnlicher Sportfan.
Er unterrichtete Mathematik in Oxford, und die Klagen des Sportsmanns be-
wegten ihn dazu, die Natur sportlicher Wettkämpfe gründlicher zu erforschen.
Dodgson war nicht einfach ein Oxford-Mathematiker – tatsächlich ist er
kaum als solcher in Erinnerung geblieben. Heute ist er vor allem unter seinem
Künstlernamen Lewis Carroll bekannt, unter dem er Alice im Wunderland und

94
Das Sortieren beugt dem Suchen vor

zahlreiche andere geliebte Werke der Literatur des 19. Jahrhunderts schrieb.
Dodgson verschmolz seine mathematischen und literarischen Talente, um eines
seiner weniger bekannten Werke zu verfassen: Lawn Tennis Tournaments: The True
Method of Assigning Prizes with a Proof of the Fallacy of the Present Method (Rasen-
tennisturniere: Die wahre Methode der Preiszuerkennung samt eines Beweises
der Abwegigkeit der gegenwärtigen Methode).
Dodgons Kritik richtete sich gegen das K.-o.-System, in dem die Spieler in
Ausscheidungsspielen gegeneinander antreten und mit der Niederlage in einem
einzigen Spiel aus dem Wettbewerb ausscheiden. Dodgson legte überzeugend dar,
dass der wirklich zweitbeste Spieler nicht nur der im Finale unterlegene, sondern
jeder der vom besten Spieler eliminierten Teilnehmer sein konnte. Sonderbarer-
weise findet bei den Olympischen Spielen ein Kampf um die Bronzemedaille statt,
den man als Eingeständnis der Tatsache betrachten könnte, dass das K.-o.-System
nicht genug Information darüber liefert, wer der drittbeste Teilnehmer ist.* In
Wahrheit liefert uns dieses System auch nicht genug Information über die Qualität
der Spieler, um zu bestimmen, welcher der zweitbeste ist – es ist nur dazu geeignet,
den Besten zu ermitteln. Wie es Dodgson ausdrückte: »Die gegenwärtige Methode
der Zuerkennung von Preisen ist mit Ausnahme vom ersten Preis vollkommen
sinnlos.« Anders ausgedrückt: Die Silbermedaille ist eine Lüge.
»Es ist eine mathematische Tatsache«, fuhr Dodgson fort, »dass die Wahr-
scheinlichkeit, dass der zweitbeste Spieler den verdienten Preis erhalten wird,
lediglich bei 16/31 liegt, während die Chance, dass die besten vier Spieler die
angemessenen Preise erhalten, nur bei 1 zu 12 liegt!«
Trotz seiner Eloquenz wirkte sich Dodgons Kritik kaum auf die Welt der
Tennisturniere aus. Seine Lösung, eine komplizierte dreifache Eliminierung, bei
der die Niederlage eines Spielers, der den Spieler X besiegt hatte, auch den Spieler
X aus dem Turnier werfen konnte, setzte sich nie durch.165 Aber während seine
Lösung umständlich war, war seine Kritik sehr treffend. (Leider werden noch
heute bei im K.-o.-Modus ausgetragenen Turnieren Silbermedaillen vergeben.)
Dogsons Gedankengang enthält jedoch noch eine tiefere Erkenntnis. Wir
Menschen sortieren nicht nur unsere Daten und unseren Besitz. Wir sortieren
auch uns selbst.

* In einigen Fällen, z. B. beim Boxen – wo es aus medizinischen Gründen nicht ratsam ist, einen Boxer,
der unter Umständen kurz zuvor eine K.-o.-Niederlage erlitten hat, erneut antreten zu lassen – werden
zwei Bronzemedaillen vergeben.

95
Sortieren

In verschiedensten sportlichen Wettbewerben – bei der Fußball-WM, bei


Olympischen Spielen und in allen möglichen Ligen – werden implizit Sortier-
verfahren angewandt. Ihre Spielzeiten, Tabellen und Playoffs sind Algorithmen
für die Produktion von Rangordnungen.
Einer der am häufigsten verwendeten Algorithmen im Sport ist das Rund-
laufverfahren in Meisterschaftsligen, bei dem jede von n Mannschaften gegen alle
anderen n – 1 Mannschaften antritt. Dies ist vermutlich das umfassendste Format,
aber es ist auch eines der aufwändigsten. Jedes Team gegen alle anderen antreten
zu lassen ist so, als würde man bei unserem Abendessen alle Gäste Umarmungen
austauschen lassen: man erhält das gefürchtete O(n2), die quadratische Zeit.
Bei Leiterturnieren, die in Sportarten wie Badminton, Squash und Racquetball
beliebt sind, wird ein lineares Ranking der Spieler erstellt, und jeder Spieler darf
den unmittelbar vor ihm platzierten Spieler direkt herausfordern; siegt er, so nimmt
er den Platz des Unterlegenen ein. Leitern sind die Bubblesort-Algorithmen der
Sportwelt und folglich ebenfalls quadratisch, denn es sind O(n2) Spiele erforder-
lich, um eine stabile Rangfolge zu finden.
Das vielleicht häufigste Turnierformat ist jedoch der Turnierbaum (Bracket),
der in der berühmten amerikanischen College-Basketballmeisterschaft zum Ein-
satz kommt. In dieser auch als »March Madness« bezeichneten Meisterschaft
folgen auf die »Runde der 64« die »Runde der 32«, die »Sweet 16« (Achtelfinale),
die »Elite Eight« (Viertelfinale), die »Final Four« (Halbfinale) und schließlich
das Finale. In jeder Runde wird das Teilnehmerfeld in der Hälfte geteilt – klingt
das nicht vertraut logarithmisch? Bei diesen Turnieren wird in der Praxis der
Mergesort-Algorithmus angewandt, wobei die Teilnehmer ausgehend von un-
sortierten Paaren Schritt für Schritt verglichen und eingeordnet werden.
Wir wissen, dass der Mergesort-Algorithmus in linearithmischer Zeit
funktioniert – O(n log n) –, und da 64 Mannschaften teilnehmen, können wir
erwarten, dass wir nur 6 Runden (192 Spiele) brauchen werden, um den Sieger zu
ermitteln, im Gegensatz zu einer gewaltigen Zahl von 63 Runden (das heißt 2016
Spielen), die mit einer Leiter oder einem Rundlaufverfahren erforderlich wären.
Das ist eine große Verbesserung: angewandtes Algorithmendesign.
Sechs Runden »March Madness« klingt gut, aber einen Augenblick: 192
Spiele? Das College-Basketballturnier besteht aus nur 63 Spielen.
Tatsächlich ist der Modus von March Madness kein echtes Mergesort-
Verfahren, denn es bringt keine vollständige Rangordnung aller 64 Mannschaften

96
Das Sortieren beugt dem Suchen vor

hervor.166 Um die Teams wirklich alle einstufen zu können, würden wir zusätzliche
Spiele brauchen, um den zweiten Rang, den dritten Rang usw. zu bestimmen – in
der Summe eine linearithmische Zahl von Spielen. Aber bei diesem Nachwuchs-
turnier passiert das nicht. Stattdessen wird so wie bei dem Tennisturnier, über das
sich Dodgson beklagte, ein K.-o.-Format angewandt, bei dem die ausgeschiedenen
Mannschaften nicht sortiert werden. Der Vorteil ist, dass dieser Algorithmus in
linearer Zeit läuft: Da in jedem Spiel genau ein Team eliminiert wird, braucht
man nur n – 1 Spiele – eine lineare Zahl – um ein Team übrig zu lassen. Der
Nachteil ist, dass man die Positionen abgesehen vom ersten Platz nie wirklich
bestimmen kann.
Ironischerweise ist beim K.-o.-System eigentlich überhaupt keine Turnier-
struktur erforderlich. Beliebige 63 Spiele würden ebenfalls einen einzigen un-
besiegten Champion hervorbringen. Beispielsweise könnte man einfach eine
einzige »Meistermannschaft« der Reihe nach gegen die Herausforderer antreten
lassen, bis einer von ihnen den Meister entthront, seinen Platz annimmt und
gegen die übrigen Mannschaften antritt. Dieses Format hätte jedoch den Nach-
teil, dass 63 getrennte Runden erforderlich wären, da die Spiele nicht parallel
stattfinden könnten; außerdem müsste ein Team möglicherweise 63 Partien am
Stück absolvieren, was mit Blick auf die Gesundheit der Spieler nicht ratsam wäre.
Michael Trick wurde mehr als ein Jahrhundert nach Dodgson geboren, aber
es gibt vielleicht niemanden, der die von dem unter anderem Namen berühmten
Schriftsteller begonnene mathematische Betrachtung des Sports so konsequent
weiterführt wie er. Wir sind Trick bereits im Kapitel über das optimale Stoppen
begegnet, aber in den Jahrzehnten, die seit seiner glücklosen Anwendung der
37-Prozent-Regel auf sein Liebesleben vergangen sind, ist er nicht nur ein Ehe-
mann und Professor für Operations Research geworden, sondern er gehört mittler-
weile auch zu den wichtigsten Planern der amerikanischen Baseballliga und der
College-Basketballligen, wobei er die Informatik einsetzt, um die Paarungen in
einer Saison festzulegen.167
Trick erklärt, dass es den Sportligen nicht darum geht, die Rankings möglichst
schnell und effizient zu bestimmen. Vielmehr sind die Spielpläne so gestaltet, dass
sie nach Möglichkeit über die gesamte Saison hinweg die Spannung aufrecht-
erhalten, etwas, womit sich die Sortiertheorie selten beschäftigt hat.
»Im Major League Baseball gibt es zum Beispiel oft einen Wettkampf um
die Spitzenposition in einer Division. Würden wir auf die Divisionen verzichten,

97
Sortieren

so könnten einige dieser Wettbewerbe ziemlich früh in der Saison entschieden


werden. Stattdessen sorgen wir dafür, dass die Teams in einer Division in den
letzten fünf Wochen der regulären Saison gegeneinander spielen. Der Grund für
diese Anordnung des Spielplans ist, dass es unerheblich ist, wer am Wettbewerb
in einer Division teilnimmt: Die Teams müssen in den letzten fünf Wochen der
regulären Saison mindestens sechsmal gegen ihren nächsten Konkurrenten an-
treten. Das sorgt für größeres Interesse am Spielplan oder an der Saison, weil so
die Beseitigung der Ungewissheit hinauszögert wird.«168
Dazu kommt, dass es im Sport natürlich nicht immer das Ziel ist, die Zahl der
Spiele zu minimieren. Wäre dies das Ziel, so wären einige Aspekte der Planung
von Sportwettkämpfen für Informatiker nicht nachvollziehbar. Über die reguläre
Saison der Baseballliga, die 2430 Spiele umfasst, sagt Trick; »Wir wissen, dass
n log n die richtige Zahl von Vergleichen für eine vollständige Sortierung ist.
Damit wäre alles geklärt. Warum plant die Liga dann n2 Spiele, mit denen im
Grunde nur der Beste gefunden werden kann?« Mit anderen Worten, warum ein
ganzes O(n2)–Rundlaufverfahren und noch einige Spiele mehr, wenn wir wissen,
dass wir eine vollständige Sortierung in linearithmischer Zeit bewältigen und in
einem K.-o.-Wettbewerb in weniger als n Spielen einen ungeschlagenen Meister
küren könnten? Nun, es ist nicht im Interesse der Liga, die Zahl der Spiele zu
minimieren. In der Informatik sind unnötige Vergleiche immer schlecht, denn sie
bedeuten eine Verschwendung von Zeit und Mühe. Aber im Sport ist es keineswegs
so. Schließlich sind in mehrerlei Hinsicht die Spiele selbst das Einzige, was zählt.

BERECHTIGTE KLAGEN: RAUSCHEN


UND ROBUSTHEIT

Eine weitere, vielleicht noch wichtigere Methode, um Algorithmen auf den


Sport abzustimmen, besteht darin, nicht zu fragen, mit welcher Sicherheit wir
die Silbermedaille gewinnen werden, sondern wie sicher wir sein können, die
Goldmedaille zu gewinnen.
Michael Trick erklärt, dass in einigen Sportarten, »zum Beispiel im Baseball,
jede Mannschaft unabhängig von ihrem Niveau 30 Prozent ihrer Spiele verlieren
und 30 Prozent ihrer Spiele gewinnen wird«.169 Das hat beunruhigende Aus-
wirkungen auf das K.-o.-System. Wenn zum Beispiel in der College-Basketball-

98
Berechtigte Klagen: Rauschenund Robustheit

meisterschaft in 70 Prozent der Fälle das stärkere Team ein Spiel gewinnt und für
den Gewinn der Meisterschaft sechs aufeinanderfolgende Siege erforderlich sind,
dann hat das beste Team nur eine Chance von 0,70 zur sechsten Potenz – das heißt
von weniger als 12 Prozent –, das Turnier zu gewinnen! Anders ausgedrückt: In
jedem Jahrzehnt wird nur einmal das wirklich beste Team das Turnier gewinnen.
In einigen Sportarten kann nicht einmal davon ausgegangen werden, dass eine
einzelne Auseinandersetzung mit einer Wahrscheinlichkeit von 70 Prozent mit
dem gerechten Ergebnis enden wird: Der Physiker Tom Murphy von der Uni-
versität San Diego wandte numerische Modellierungsverfahren auf den Fußball
an und gelangte zu dem Schluss, dass die geringe Zahl von Toren in Fußball-
spielen den Spielausgang sehr viel abhängiger vom Zufall macht, als die meisten
Fans glauben möchten. »Bei einem Resultat von 3:2 liegt die Wahrscheinlichkeit,
dass die siegreiche Mannschaft tatsächlich die bessere war, lediglich bei 5 zu 8
[…] Ich persönlich finde das nicht unbedingt überzeugend. Selbst bei einem
Kantersieg von 6:1 besteht eine Wahrscheinlichkeit von 7 Prozent dass es nur
ein statistischer Ausreißer war.«170
Die Informatiker bezeichnen dieses Phänomen als Rauschen. Sämtliche
Sortieralgorithmen, mit denen wir uns bisher beschäftigt haben, beruhen auf
der Annahme perfekter, makelloser, narrensicherer Vergleiche, die nie fälsch-
lich die kleinere von zwei Mengen als die größere einstufen werden. Sobald wir
die Möglichkeit von Rauschen in Vergleichen einräumen, werden einige der
Algorithmen, von denen die Informatik am meisten hält, wertlos – und einige
der Algorithmen, die mit Geringschätzung behandelt werden, erleben eine Auf-
erstehung.
Dave Ackley, Informatikprofessor an der University of New Mexico, be-
schäftigt sich mit der Schnittstelle zwischen Computerwissenschaft und »künst-
lichem Leben« – er ist überzeugt, dass die Informatik einiges von der Biologie
lernen kann. Zunächst einmal leben Organismen in einer Welt, in der nur wenige
Prozesse auch nur annähernd so zuverlässig sind wie jene, auf die Computer an-
gewiesen sind. Deshalb sind sie von Grund auf so gebaut, dass sie das aufweisen,
was die Forscher als Robustheit bezeichnen. Ackley glaubt, dass es an der Zeit
ist, dass wir beginnen, die Robustheit auch bei Algorithmen als Vorzug zu be-
trachten.171
Die Autoren von Sorting and Searching, dem maßgeblichen Programmier-
lehrbuch, stellen die gewagte These auf, Bubblesort habe »keine erkennbaren

99
Sortieren

erlösenden Eigenschaften«,172 aber die Forschungsergebnisse Ackleys und seiner


Kollegen deuten darauf hin, dass es vielleicht doch einen Platz für Algorithmen
wie Bubblesort gibt. Gerade seine Ineffizienz – er bewegt die Elemente immer nur
um eine Position weiter – macht ihn wenig anfällig für Rauschen; er ist sehr viel
robuster als Algorithmen wie Mergesort, bei denen jeder Vergleich ein Element
ein großes Stück weiterbewegen kann. Ausgerechnet Mergesorts Effizienz macht
ihn anfällig. Ein früher Fehler in einem Mergesort-Verfahren ist wie eine zufällige
Niederlage in der ersten Runde eines im K.-o.-Modus ausgetragenen Turniers, der
nicht nur die Titelträume eines Favoriten zerstören, sondern ihn auch auf Dauer
in die untere Hälfte des Teilnehmerfeldes verbannen kann.* Auf der anderen
Seite würde eine zufällige Niederlage in einem Leiterturnier einen Spieler wie
bei Bubblesort lediglich um einen Platz in der Rangliste zurückversetzten.
Aber tatsächlich erweist sich nicht Bubblesort als bester Algorithmus ange-
sichts von Rauschen im Komparator. Diese Ehre gebührt einem Algorithmus,
der als vergleichender Countingsort bezeichnet wird.173 Bei diesem Algorithmus
wird jedes Element mit allen anderen verglichen und anschließend eine Liste der
Elemente erstellt, die kleiner als dieses Element sind. Diese Zahl kann dann direkt
als Rang des Elements verwendet werden. Da er alle Paare vergleicht, ist der ver-
gleichende Countingsort so wie Bubblesort ein Algorithmus mit quadratischer
Laufzeit. Er ist in traditionellen Informatikanwendungen nicht beliebt, aber
außergewöhnlich fehlertolerant.
Die Funktionsweise dieses Algorithmus sollte vertraut klingen. Der ver-
gleichende Countingsort funktioniert genau wie ein Rundenturnier. Mit anderen
Worten, er hat große Ähnlichkeit mit einer regulären Saison, in der ein Sportteam
das gegen jede andere Mannschaft in seiner Division der Liga spielt und abhängig
von seiner Bilanz von Siegen und Niederlagen einen Tabellenrang einnimmt, der
über seine Position in der Setzliste für die Playoffs entscheidet.

* Es ist interessant, dass das »March Madness«-Turnier im amerikanischen College-Basketball gezielt


so gestaltet ist, dass dieser Mangel im Algorithmus ausgeglichen wird. Wie wir gesehen haben, ist das
größte Problem beim K.-o.-System ein Szenario, in dem das erste Team, das vom Sieger eliminiert
wird, tatsächlich das insgesamt zweitbeste Team ist, jedoch in der (unsortierten) unteren Hälfte des
Teilnehmerfelds landet. In der amerikanischen College-Basketballmeisterschaft wird dieses Problem
mit einer Setzliste umgangen, die verhindert, dass die besten Mannschaften einander in den ersten
Runden begegnen. Das Setzverfahren scheint zumindest im extremsten Fall zuverlässig zu sein, denn in
der Geschichte des Meisterschaftsturniers hat noch nie ein auf Platz 16 gesetztes Team das topgesetzte
Team besiegt.

100
Blood Sort: Hackordnungen und Dominanzhierarchien

Die Tatsache, dass der vergleichende Countingsort der robusteste bekannte


Sortieralgorithmus ist, ob seine Laufzeit nun quadratisch oder besser ist, verschafft
den Sportfans Klarheit: Sie müssen sich nicht beklagen, wenn ihr Team die Play-
offs nicht erreicht. In den Mergesort-Playoffs spielt das Glück eine große Rolle,
aber in der regulären Countingsort-Saison gilt das nicht. Die Meistertitel sind
nicht robust, aber der Tabellenrang in der Liga ist buchstäblich so robust wie nur
irgend möglich. Anders ausgedrückt: Wenn dein Team zu Beginn der Playoffs
ausscheidet, ist das Pech. Aber wenn dein Team die Playoffs nicht erreicht, musst
du dich mit der traurigen Wahrheit abfinden, dass es nicht gut genug gewesen
ist. Vielleicht spenden dir die anderen enttäuschten Fans in der Sportbar Trost,
aber von einem Informatiker darfst du kein Mitleid erwarten.

BLOOD SORT: HACKORDNUNGEN


UND DOMINANZHIERARCHIEN

In sämtlichen bisher betrachteten Beispielen wird der Sortiervorgang von oben


diktiert: Ein Bibliothekar räumt Bücher in Regale, die Basketballliga sagt den
Teams, wann sie gegen wen spielen werden. Aber was ist, wenn die direkten Ver-
gleiche nur aus freien Stücken stattfinden? Wie sieht die Sortierung aus, wenn
sie organisch, das heißt von unten nach oben stattfindet?
Dann könnte sie wie Online-Poker funktionieren.
Im Gegensatz zu den meisten Sportwettbewerben, die von einer Organisation
geregelt werden, wirkt Poker trotz seiner im letzten Jahrzehnt deutlich gestiegenen
Popularität ein wenig anarchisch. In einigen bekannten Turnieren werden die
Teilnehmer ausdrücklich sortiert (und entsprechend bezahlt), aber viele der Spiele
sind immer noch »Cash-Games«, bei denen zwei oder mehr Spieler spontan ver-
einbaren, um wirkliches Geld zu spielen.
Es dürfte kaum jemanden geben, der diese Welt besser kennt als Isaac Haxton,
einer der weltbesten Cash-Game-Spieler. In den meisten Sparten genügt es, so
gut wie möglich zu sein, und je weniger Zweifel man an den eigenen Fähigkeiten
hat, desto besser. Aber, wie Haxton erklärt: »Die in mancher Hinsicht wichtigste
Fähigkeit eines professionellen Pokerspielers ist die Fähigkeit, zu beurteilen,
wie gut er ist. Wenn man nicht der absolut beste Spieler der Welt ist, kann man
ziemlich sicher sein, pleite zu gehen, wenn man bereit ist, endlos gegen Leute zu
spielen, die besser sind als man selbst.«174

101
Sortieren

Haxton ist ein Heads-up-Spezialist, der No-Limits spielt: Er spielt in direkten


Duellen mit beliebig hohen Einsätzen gegen einen einzigen Kontrahenten. Bei
Cash-Games mit mehreren Teilnehmern wird es oft einen schwachen Spieler
geben – zum Beispiel einen wohlhabenden Amateur – der einen Tisch voller
Profis ernährt, denen die Kräfteverhältnisse untereinander ziemlich egal sind. In
der Welt der Heads-up-Partien sieht es anders aus. »Es muss Uneinigkeit darüber
bestehen, wer von beiden besser ist«, erklärt Haxton, »oder einer der Spieler muss
freiwillig verlieren.«
Was geschieht also, wenn es einen einigermaßen klaren Konsens gibt und
niemand bereit ist, gegen einen besseren Spieler anzutreten? Unter diesen Be-
dingungen kämpfen die Spieler eigentlich nur um die Plätze am Tisch. Auf den
meisten Poker-Sites im Internet gibt es nur eine begrenzte Zahl von Tischen.
»Wenn man also Heads-up mit unbegrenztem Einsatz spielen will, wobei die
Blinds bei fünfzig oder hundert Dollar liegen, gibt es nur zehn verfügbare Tische«,
erklärt Haxton, »weshalb nur die nach allgemeinem Konsens besten zehn Spieler,
die in diesem Moment spielen werden […], herumsitzen und auf jemanden warten,
der gegen sie antreten will.« Und wenn sich ein überlegener Spieler an einen dieser
Tische setzt? Wenn der dort wartende Spieler nicht bereit ist zu setzen, räumt
er seinen Platz.
»Stellen Sie sich zwei Affen vor«, erklärt Christof Neumann.175 »Der eine
sitzt friedlich auf seinem Platz und knabbert an seinem Futter. Nun nähert
sich der andere Affe diesem Platz. Und der erste Affe erhebt sich und räumt
den Platz.«
Neumann meint das nicht als Pokermetapher. Er ist Verhaltens­biologe an der
Universität Neuchâtel und studiert das Dominanzverhalten bei Makaken. Was
er hier beschreibt, wird als Verdrängung bezeichnet.
Zur Verdrängung kommt es, wenn ein Tier gestützt auf seine Kenntnis der
Hierarchie zu dem Schluss gelangt, dass eine Konfrontation keinen Ertrag ver-
spricht. In vielen Tiergesellschaften sind Ressourcen und Chancen – Nahrung,
Fortpflanzungspartner, bevorzugte Räume und so weiter – knapp, weshalb irgend-
wie entschieden werden muss, wer was bekommt. Die frühzeitige Festlegung einer
Ordnung ist für alle Beteiligten vorteilhafter als eine gewaltsame Auseinander-
setzung, wann immer sich eine Gelegenheit zur Paarung bietet oder ein Busch
mit besonders köstlichen Früchten entdeckt wird. Wir mögen zusammenzucken,
wenn wir Tiere derselben Spezies sehen, die die Zähne fletschen oder einander

102
Blood Sort: Hackordnungen und Dominanzhierarchien

anknurren, aber in den Augen der Biologen ist eine Hackordnung Gewalt, die
der Gewalt vorbeugt.
Kommt Ihnen das bekannt vor? Wenn ja, so liegt es daran, dass wir es hier
mit einer Abwägung zwischen Suchen und Sortieren zu tun haben.
Die Errichtung einer Hackordnung ist im Grunde eine faustkämpferische
Lösung für ein Berechnungsproblem. Daher dürfte das Schnabelkürzen in Hühner-
farmen ein zwar gut gemeinter, aber kontraproduktiver Eingriff sein: Diese
Maßnahme unterbindet individuelle Auseinandersetzungen zur Klärung der
Rangordnung und erschwert es der Hühnerschar erheblich, ein Sortierverfahren
anzuwenden. Die Folge ist, dass der Antagonismus innerhalb der Gruppe in vielen
Fällen tatsächlich zunimmt.
Eine Betrachtung des tierischen Verhaltens unter computerwissenschaftlichen
Gesichtspunkten legt mehrere Schlüsse nahe. Zum einen dürften die feind-
seligen Konfrontationen, denen jedes Individuum ausgesetzt ist, mit zunehmender
Größe der Gruppe zahlreicher werden – und zwar mindestens in logarithmischem
und vielleicht sogar in quadratischem Ausmaß. Tatsächlich haben Studien zum
»Kampfverhalten« von Hennen gezeigt, dass »die Aggressionsakte pro Henne
mit wachsender Gruppengröße zunehmen«.176 Die Sortiertheorie legt also den
Schluss nahe, dass eine ethische Tierhaltung eine Begrenzung der Gruppengröße
erforderlich macht. (In freier Wildbahn leben Haushühner in Gruppen von zehn
bis zwanzig Individuen, was weit von den Schargrößen in der Massentierhaltung
entfernt ist.) Die Forschung hat auch gezeigt, dass die Aggressionen nach einigen
Wochen nachlassen, sofern der Schar nicht neue Individuen hinzugefügt werden,
was ebenfalls ein Beleg dafür ist, dass sich die Gruppe sortiert.
Der Schlüssel zum Verständnis der dezentralisierten Sortierung in der Natur,
erklärt Jessica Flack, Co-Direktorin des Center for Complexity and Collective
Computation an der University of Wisconsin in Madison, ist die Tatsache, dass
Dominanzhierarchien letzten Endes Informationshierarchien sind.177 Diese de-
zentralisierten Sortiersysteme erfordern einen beträchtlichen Berechnungsauf-
wand. Die Zahl der Kämpfe in einer Gruppe von Makaken wird nur dadurch
minimiert, dass alle Affen ein detailliertes – und ähnliches – Verständnis der
Hierarchie haben. Andernfalls wird Gewalt ausbrechen.
Wenn es um die Frage geht, wie gut sich die Beteiligten darauf ver-
stehen, die gegenwärtige Ordnung zu beurteilen, sollte man erwarten, weniger
Konfrontationen zu sehen, je größer die Fähigkeit einer Spezies zum Denken und

103
Sortieren

Erinnern wird. Und vielleicht kommt der Mensch einer optimalen effizienten
Sortierung tatsächlich am nächsten. Wie Haxton über die Pokerwelt sagt: »Ich
bin einer der weltweit besten Heads-up-Spieler mit unbegrenztem Einsatz und
habe eine ziemlich genaue Vorstellung vom Ranking der zwanzig besten Spieler.
Ich glaube, dass jeder von ihnen ein ähnliches Ranking im Kopf hat. Ich würde
sagen, dass im Wesentlichen Konsens darüber besteht, wer welchen Rang in dieser
Liste einnimmt.« Nur wenn Spieler das Ranking unterschiedlich einschätzen,
kommt es zu einem Cash-Game.

EIN WETTLAUF STATT EINES KAMPFES

Wir haben zwei verschiedene Nachteile des Bemühens von Gruppen um eine
Sortierung gesehen. Es gibt mindestens eine linearithmische Zahl von Aus-
einandersetzungen, was zur Folge hat, dass alle Individuen einem stärkeren
Konkurrenzkampf ausgesetzt sein, wenn die Gruppe wächst. Und sämtliche
Konkurrenten sind gezwungen, den ständig fluktuierenden Status aller anderen
Individuen zu beobachten, weil sie ansonsten in unnötige Kämpfe geraten werden.
Das belastet nicht nur den Körper, sondern auch den Geist.
Es muss jedoch nicht so sein. Es gibt Möglichkeiten, für Ordnung zu sorgen,
ohne diesen Preis bezahlen zu müssen.
Beispielsweise gibt es einen Sportwettkampf, bei dem Zehntausende
Konkurrenten in der Zeit, die für die Durchführung einer einzigen Veranstaltung
benötigt wird, vollkommen sortiert werden können. (Im Gegensatz dazu würde
ein Rundenturnier mit zehntausend Spielern hundert Millionen Begegnungen er-
forderlich man). Das einzige Problem ist, dass die für die Veranstaltung benötigte
Zeit von den langsamsten Teilnehmern abhängt. Bei diesem Wettkampf handelt
es sich um einen Marathon, der eine bedeutsame Tatsache veranschaulicht: Ein
Rennen unterscheidet sich grundlegend von einem Duell.178
Nehmen wir den Unterschied zwischen Boxkämpfen und Skirennen, zwischen
Fechtturnieren und Langläufen. Ein Boxer bei den Olympischen Spielen muss
O(log n) Schlagverletzungen – normalerweise zwischen vier und sechs – in Kauf
nehmen, um es auf das Siegerpodest zu schaffen, weshalb die Zulassung einer
größeren Zahl von Kämpfern zum Wettkampf die Gesundheit aller Teilnehmer
gefährden würde. Hingegen muss sich ein Skeletonfahrer, eine Skispringerin
oder ein Halfpipe-Spezialist unabhängig von der Größe des Teilnehmerfelds

104
Ein Wettlauf statt eines Kampfes

nur auf eine konstante Zahl von Konfrontationen mit der Schwerkraft einlassen.
Eine Fechterin liefert sich O(log n) Male der Gnade ihrer Gegnerin aus, aber ein
Marathonläufer muss nur ein einziges Rennen überstehen. Die Möglichkeit, ein
einfaches numerisches Leistungsmaß anzuwenden, führt zu einem Algorithmus
mit konstanter Laufzeit.
Dieser Übergang von den »Ordnungszahlen« (die lediglich Aufschluss über
den Rang geben) zu den »Kardinalzahlen« (die dem Format von etwas direkt
ein Maß zuordnen) ermöglicht die natürliche Ordnung einer Gruppe, ohne dass
paarweise Vergleiche erforderlich wären. Dementsprechend ermöglicht er die
Festlegung von Dominanzhierarchien ohne das Erfordernis direkter Begegnungen
zwischen jeweils zwei Konkurrenten. Ein Beispiel dafür ist die Fortune 500-Liste,
und zwar insofern, als sie eine Art von Unternehmenshierarchie darstellt. Um das
wertvollste amerikanische Unternehmen zu finden, müssen die Analysten nicht
Microsoft mit General Motors, dann General Motors mit Chevron, Chevron
mit Walmart usw. vergleichen. Diese Wettbewerbe, in denen anscheinend Äpfel
und Birnen verglichen werden (Wie viele Softwareinstallationen sind wie viele
Öl-Futures wert?) werden anhand eines monetären Maßstabs (Dollar) in Ver-
gleiche zwischen Äpfeln und Äpfeln verwandelt. Ein Benchmark – irgendein
Benchmark – löst das Berechnungsproblem der Aufskalierung.
Im Silicon Valley zum Beispiel gibt es eine Redewendung über Meetings:
»Du gehst zum Geld, das Geld kommt nicht zu dir.«179 Verkäufer wenden sich
an Gründer, Gründer wenden sich an Wagniskapitalgeber, Wagniskapitalgeber
wenden sich an ihre Investoren. Es ist möglich, dass jemandem die Grundlagen
dieser Hierarchie missfallen, aber man kann keinen Einspruch gegen ihr Urteil
erheben. So gehen individuelle paarweise Interaktionen mit einem Mindestmaß
an Statuskämpfen einher. Im Großen und Ganzen weiß jedes Personenpaar
ohne die Notwendigkeit von Verhandlungen, wer wem welches Maß an Respekt
schuldet. Alle wissen, wo sie einander begegnen müssen.
Ähnlich verhält es sich auf dem Meer. In der Theorie wird das Wegerecht
auf See durch eine Reihe komplexer Konventionen geregelt, aber welches Schiff
welchem die Vorfahrt lassen muss, hängt in der Praxis von einem einfachen
Prinzip ab, nämlich dem »Gesetz der Bruttotonnage«: Im Grunde weicht einfach
das kleinere Schiff dem größeren aus. Bei einigen Tierarten gibt es ebenfalls eine
derart einfache Dominanzhierarchie. Wie Neumann erklärt: »Man sehe sich bei-
spielsweise die Fische an: Der größere ist der dominante. So einfach ist das.«180

105
Sortieren

Und da es so einfach ist, ist es friedlich. Anders als Hühner und Primaten sorgen
Fische ohne Blutvergießen für Ordnung.
Wenn wir uns die Faktoren ansehen, die das Zusammenleben in großen
menschlichen Gesellschaften möglich machen, ist es naheliegend, uns auf die
Technologien zu konzentrieren: Landwirtschaft, Metallverarbeitung, Maschinen.
Möglicherweise genauso wichtig ist jedoch die kulturelle Praxis, den Status an
quantifizierbaren Maßstäben zu messen. Natürlich muss das Geld nicht das
Kriterium sein; auch eine Regel wie »Ehre deine Eltern« regelt Statusfragen
unter Bezugnahme auf eine gemeinsame Menge. Dasselbe Prinzip kommt in
den Beziehungen zwischen Ländern sowie innerhalb von Ländern zur An-
wendung. Man hört oft, das Bruttoinlandsprodukt – das der Einladungsliste
zu diplomatischen Gipfeltreffen wie dem G-20-Treffen zugrunde liegt – sei ein
zu grober, unvollkommener Maßstab. Aber die Tatsache, dass überhaupt ein
Maßstab existiert, ermöglicht es, den nationalen Status anhand eines einzigen
Bezugspunkts zu bestimmen, der allen Ländern einen Rang zuweist, anstatt eine
zumindest linearithmische Zahl von diplomatischen Rangeleien und Resolutionen
erforderlich zu machen. Da Statuskonflikte zwischen Ländern oft militärisch
ausgetragen werden, spart das nicht nur Zeit, sondern auch Menschenleben.
Eine linearithmische Zahl von Kämpfen kann bei kleinen Gruppen gut
funktionieren; in der Natur ist es so. Aber in einer Welt, in der der Status an-
hand von paarweisen Vergleichen bestimmt wird – gleichgültig, ob diese nun mit
Wortwechseln oder Schusswechseln einhergehen –, gerät die Konfrontation rasch
außer Kontrolle, wenn die Gesellschaft wächst. Eine im industriellen Maßstab
funktionierende Gesellschaft mit Tausenden oder Millionen Individuen, die sich
denselben Raum teilen müssen, erfordert einen großen Schritt: einen Schritt von
den Ordnungszahlen zu den Kardinalzahlen.
So sehr wir uns über das tägliche Hamsterrennen beklagen mögen, unter-
scheidet uns eben die Tatsache, dass es kein Kampf, sondern ein Rennen ist, von
den Affen, den Hühnern – und den Hamstern.

106
4
ZWISCHENSPEICHERN
VERGISS ES

Bei der praktischen Nutzung unseres Intellekts ist das Vergessen eine
ebenso wichtige Funktion wie das Erinnern.
William James181

I
ch habe ein Problem: Mein Schrank platzt aus allen Nähten, und jedes Mal,
wenn ich die Tür öffne, fallen Schuhe, Hemden und Unterwäsche heraus. Ich
denke: »Es wird Zeit, dass ich das organisiere.« Jetzt habe ich zwei Probleme.182
Genauer gesagt, muss ich erstens entscheiden, was ich behalten soll, und
zweitens, wie ich es ordnen kann. Glücklicherweise gibt es eine kleine Industrie,
die sich mit doppelten Problemen dieser Art beschäftigt und uns bereitwillig
Ratschläge gibt.
Wenn es um die Frage geht, was man behalten soll, rät uns Martha Stewart,
einige Fragen zu beantworten: »Wie lange habe ich das schon? Kann ich es noch
gebrauchen? Habe ich noch ein anderes Exemplar davon? Wann habe ich es zu-
letzt getragen oder verwendet?« Was die Organisation dessen anbelangt, was man
behalten will, empfiehlt sie, »ähnliche Dinge zu Gruppen zusammenzufassen«.183
Andere Experten auf dem Gebiet sind derselben Ansicht. Francine Jay stellt in
The Joy of Less folgende Regel auf: »Hängen Sie alle Röcke zusammen, alle Hosen
zusammen, alle Kleider zusammen, alle Mäntel zusammen.184 Andrew Mellen, der
sich selbst als den »am besten organisierten Mann in Amerika« bezeichnet, gibt
folgende Anweisung: »Die Gegenstände werden nach Typ sortiert – alle Hosen

107
Zwischenspeichern

zusammen, alle Hemden zusammen, alle Mäntel usw. Innerhalb jeder Gruppe
werden sie weiter nach Farbe und Stil sortiert – langärmelige oder kurzärmelige,
Ausschnitt usw.«185 Sieht man von dem Sortierproblem ab, dass das verursachen
könnte, klingt es wie ein guter Rat; jedenfalls scheinen sich die Experten in dieser
Frage einig zu sein.
Allerdings gibt es noch eine andere, größere Industrie, deren Mitglieder sich
ebenfalls intensiv mit der Lagerung von Dingen beschäftigen und ganz andere
Vorstellungen haben.
Ein Kleiderschrank stellt eine ähnliche Herausforderung dar wie die, die ein
Computer bei der Verwaltung seines Speichers bewältigen muss: Der Raum ist be-
grenzt, und das Ziel lautet, sowohl Geld als auch Zeit zu sparen. Seit es Computer
gibt, zerbrechen sich die Informatiker den Kopf über das doppelte Problem, was
aufbewahrt und wie es angeordnet werden soll. Die Resultate dieser jahrzehnte-
langen Bemühungen zeigen, dass Martha Stewart in ihrem vier Sätze langen Rat
dazu, was weggeworfen werden sollte, tatsächlich mehrere verschiedene und nicht
vollkommen kompatible Empfehlungen gibt – von denen obendrein eine Vorrang
vor den anderen haben sollte.
Die Wissenschaft von der Speicherverwaltung zeigt auch, wie genau wir
unseren Kleiderschrank (und unser Büro) ordnen sollten. Auf den ersten Blick
scheint der Computer Martha Stewards Maxime zu befolgen, Ȋhnliche Dinge
in Gruppen zusammenzufassen«. Betriebssysteme ermutigen uns, unsere Dateien
in Ordnern abzulegen und Hierarchien aufzubauen, die sich immer weiter ver-
zweigen, je spezifischer der Inhalt wird. Aber so wie sich hinter dem aufgeräumten
Schreibtisch eines Gelehrten die Unordnung in seinem Kopf verbergen kann, ver-
deckt die scheinbare Ordnung des Dateisystems das sorgfältig gestaltete Chaos,
das hinter der Fassade der verschachtelten Ordner in der Speicherung der Daten
herrscht.
Was dort wirklich geschieht, wird als Zwischenspeicherung bezeichnet.
Die Zwischenspeicherung (Caching) spielt eine entscheidende Rolle in der
Speicherarchitektur und liegt sowohl der Anordnung der Prozessoren auf Milli-
meterebene als auch der globalen Geografie des Internets zugrunde. Sie eröffnet
uns einen neuen Blick auf all die verschiedenen Speichersysteme und Speicher-
banken im menschlichen Leben – nicht nur auf unsere Maschinen, sondern auch
auf unsere Schränke, Büros und Bibliotheken. Und auf unser Gehirn.

108
Die Gedächtnishierarchie

DIE GEDÄCHTNISHIERARCHIE

Eine Frau hatte einen sehr scharfen Verstand, aber fast kein Gedächt-
nis. […] Sie erinnerte sich an genug, um zu arbeiten, und sie arbeitete
hart.
Lydia Davis186

Etwa ab dem Jahr 2008 musste sich jeder, der sich einen neuen Computer zulegen
wollte, bei der Wahl der Speicherlösung mit einer kniffligen Frage beschäftigen:
Er musste zwischen Größe und Geschwindigkeit abwägen. Die Computerhersteller
gehen gegenwärtig von Festplatten zu nichtflüchtigen Datenspeichern (solid-state
drive, SSD) über, das heißt zu Festplatten ohne bewegliche Teile; in derselben
Preisklasse weist eine herkömmliche Festplatte eine sehr viel größere Kapazität
auf, aber eine SSD bietet eine sehr viel höhere Leistung. Die meisten Benutzer
wissen das mittlerweile oder werden es bald herausfinden, wenn sie nach einem
neuen Computer Ausschau halten.
Was gelegentliche Computernutzer möglicherweise nicht wissen ist, dass
genau dieselbe Abwägung in verschiedenen Maßstäben auch vom Rechner selbst
vorgenommen wird – tatsächlich ist sie eines der Grundprinzipien der Computer-
technik.187
Im Jahr 1946 legten Arthur Burks, Herman Goldstine und John von Neu-
mann, drei Forscher an der Universität Princeton, einen Vorschlag für den Aufbau
eines elektrischen »Gedächtnisorgans« vor.188 In einer idealen Welt, schrieben sie,
würde die Maschine natürlich in rasend schneller Geschwindigkeit unbegrenzte
Datenmengen speichern können, aber in der Praxis sei das nicht möglich. (Es
ist immer noch nicht möglich.) Stattdessen schlugen die drei Forscher die in
ihren Augen nächstbeste Lösung vor: eine »Hierarchie von Speichern, wobei
jede eine größere Kapazität hat als die vorhergehende, jedoch weniger schnell
zugänglich ist«. Da der Speicher also eine Pyramide aus verschiedenen Formen
des Gedächtnisses sein würde – er würde aus einem kleinen schnellen und einem
großen langsamen Gedächtnis bestehen – konnte man möglicherweise die Vor-
teile von beiden nutzen.
Der Grundgedanke hinter einer Speicherhierarchie sollte jedem einleuchten,
der schon einmal eine Bibliothek genutzt hat: Wenn man beispielsweise für eine
Arbeit ein bestimmtes Forschungsgebiet studiert, gibt es einige Bücher, auf die

109
Zwischenspeichern

man bei mehreren Gelegenheiten zurückgreifen muss. Anstatt jedes Mal in die
Bibliothek zurückzukehren, kann man natürlich die betreffenden Bücher im
Katalog suchen und für die Benutzung daheim ausleihen.
In der Computertechnik blieb diese Idee der »Speicherhierarchie« eine
Theorie, bis im Jahr 1962 im englischen Manchester ein Supercomputer namens
Atlas in Betrieb genommen wurde.189 Der Hauptspeicher des Rechners bestand
aus einer großen Trommel, die rotierte, damit Information gelesen und darauf
abgelegt werden konnte, ähnlich einem Wachszylinder-Phonograhen. Aber Atlas
hatte zudem einen kleineren, schnelleren »Arbeitsspeicher«, der aus polarisierten
Magneten bestand. Die Daten konnten von der Trommel auf die Magneten über-
tragen, dort manipuliert und anschließend wieder auf die Trommel geschrieben
werden.
Kurz nach der Entwicklung von Atlas erkannte der Mathematiker Maurice
Wilkes von der Universität Cambridge, dass dieser kleinere und schnellere Speicher
nicht nur geeignet war, um mit den Daten zu arbeiten, bevor sie wieder ab-
gespeichert wurden. Er konnte auch verwendet werden, um gezielt Informations-
happen für die spätere Nutzung aufzubewahren, wobei er ähnliche zukünftige
Abfragen vorwegnehmen würde. So konnte man die Arbeit des Rechners erheb-
lich beschleunigen. Wenn das, was man zu einem späteren Zeitpunkt erneut
brauchte, noch immer im Arbeitsspeicher lag, musste man es überhaupt nicht
von der Trommel laden. Der kleinere Speicher »sammelt automatisch Worte,
die aus einem langsameren Hauptspeicher kommen«, wie es Wilkes ausdrückte,
»und hält sie abrufbereit für die folgende Verwendung, ohne dass es notwendig
ist, auf den Hauptspeicher zuzugreifen, um sie erneut zu laden«.190
Der Schlüssel lag natürlich darin, diesen kleinen, schnellen, kostbaren Speicher
so zu verwalten, dass man dort möglichst oft finden würde, was man suchte. Um
noch einmal auf die Bibliotheksanalogie zurückzukommen: Wenn es möglich ist,
nur einen Ausflug in die Bibliothek zu machen und sich alle für die Arbeit be-
nötigten Bücher zu holen, um den Rest der Woche zu Hause arbeiten zu können,
ist das fast so gut, als läge jedes Buch in der Bibliothek bereits auf dem Tisch
im Lesesaal bereit. Je öfter man in die Bibliothek zurückkehrt, desto langsamer
kommt die Arbeit voran und desto weniger Material hat man zur Verfügung.
Wilkes’ Vorschlag wurde Ende der Sechzigerjahre im 360/85-Supercomputer
von IBM umgesetzt, wo der Begriff des »Cache« eingeführt wurde.191 Seit damals
ist der Cache/Pufferspeicher in der Computertechnik allgegenwärtig. Die Idee,

110
Die Gedächtnishierarchie

Informationsstücke, auf die man häufig zurückgreift, ständig bereitzuhalten, ist so


bedeutsam, dass sie in jedem Bereich der Berechnung verwendet wird. Prozessoren
haben einen Cache-Speicher. Festplatten haben einen Cache-Speicher. Betriebs-
systeme haben einen Cache-Speicher. Webbrowser haben einen Cache-Speicher.
Und die Server, die diese Browser mit Inhalten versorgen, haben ebenfalls Cache-
Speicher, was es erst möglich macht, Ihnen augenblicklich dasselbe Video von einer
auf einem Staubsauger reitenden Katze zu zeigen, das auch Millionen andere …
Aber wir greifen uns selbst vor.
Die Geschichte des Computers im vergangenen halben Jahrhundert ist als eine
Geschichte des jährlichen exponentiellen Wachstums dargestellt worden – was
teilweise am »mooreschen Gesetz« liegt, jener berühmten Prognose des Intel-
Ingenieurs Gordon Moore aus dem Jahr 1975, dass sich die Zahl der Transistoren
auf einem Computerchip alle zwei Jahre verdoppeln werde.192 Diese Prognose
erwies sich als richtig – aber die Speicherleistung stieg nicht im selben Maß.
Das bedeutet, dass die Kosten des Zugriffs auf den Speicher im Verhältnis zur
Verarbeitungszeit ebenfalls exponentiell steigen. Zur Veranschaulichung: Je
schneller man eine Forschungsarbeit schreiben kann, desto größer ist die durch
jeden zusätzlichen Ausflug in die Bibliothek verursachte Produktionseinbuße.
Desgleichen ist eine Fabrik, die jedes Jahr ihre Produktionsgeschwindigkeit ver-
doppelt – aber aus dem Ausland dieselbe Zahl von Teilen geliefert bekommt, die
mit unverändert geringer Geschwindigkeit befördert werden – wenig mehr als eine
Fabrik, deren Betrieb doppelt so oft stillsteht. Eine Weile schien es so, als bringe
das mooresche Gesetz wenig mehr als Prozessoren hervor, die immer schneller
und immer häufiger Däumchen drehen konnten. In den Neunzigerjahren erhielt
dieses Phänomen einen Namen: Man nannte es den »Memory Wall«.
Das beste Mittel, um zu verhindern, dass die Informatik an dieser Mauer zum
Stillstand kommt, ist eine immer komplexere Hierarchie: Cache für Cache für
Cache, entlang der gesamten Kette. Moderne Laptops, Tablets und Smartphones
haben eine Speicherhierarchie, die aus sechs Ebenen besteht, und die intelligente
Nutzung der Speicher ist in der Informatik nie wichtiger gewesen als heute.193
Beginnen wir also mit der ersten Frage, die sich aufdrängt, wenn man vor
einem Cache-Speicher (oder Kleiderschrank) steht: Was tun, wenn er voll ist?

111
Zwischenspeichern

VERDRÄNGUNG UND HELLSEHEREI

Man gelangt zwangsläufig an einen Punkt, an dem man für jede zu-
sätzliche Information, die man aufnimmt, etwas vergisst, was man
vorher wusste. Daher ist es von größter Bedeutung zu verhindern,
dass nutzlose Fakten nützliche verdrängen.
Sherlock Holmes194

Wenn sich ein Cache-Speicher füllt, müssen wir offenkundig zusätzlichen Platz
schaffen, wenn wir weitere Informationen speichern wollen. Das wird in der
Informatik als »Cache-Ersetzung« oder »Cache-Verdrängung« bezeichnet. Wie
Wilkes schrieb: »Da der Cache nur einen Bruchteil der Größe des Hauptspeichers
haben kann, können die Worte nicht für unbegrenzte Zeit darin aufbewahrt
werden, weshalb in das System ein Algorithmus eingebaut werden muss, der sie
progressiv überschreibt.«195 Solche Algorithmen werden als Cache-Algorithmen
oder auch »Ersetzungsverfahren« bezeichnet.
Wie wir gesehen haben, spielte IBM eine Rolle in der Frühphase der Ent-
wicklung von Cache-Speichern in den Sechzigerjahren. Es überrascht nicht, dass
dort auch bahnbrechende frühe Forschung zu Cache-Algorithmen betrieben wurde.
Vielleicht keine dieser Arbeiten war so wichtig wie die von László »Les« Bélády.
Bélády, 1928 in Ungarn geboren, studierte Maschinenbau, bevor er während des
ungarischen Aufstands im Jahr 1956 mit einer Tasche, die lediglich »eine Unter-
wäschegarnitur« und sein Hochschuldiplom enthielt, nach Deutschland floh. Von
dort aus ging er nach Frankreich, und im Jahr 1961 wanderte er gemeinsam mit
seiner Frau, seinem kleinen Sohn und »tausend Dollar in der Tasche« in die Ver-
einigten Staaten aus.196 Zu dem Zeitpunkt, als er bei IBM anheuerte und begann,
sich mit der Cache-Ersetzung zu beschäftigen, hatte er offenbar ein gutes Gespür
dafür entwickelt, was man behalten und was man zurücklassen sollte.
Im Jahr 1966 veröffentlichte Bélády eine Arbeit über Cache-Algorithmen, die
in den folgenden fünfzehn Jahren die am häufigsten zitierte Arbeit auf dem Ge-
biet der Informatik werden sollte.197 Darin erklärte er, dass das Ziel des Speicher-
managements bestehe darin, die Zahl der Fälle zu minimieren, in denen man im
Cache nicht findet, was man sucht, weshalb man auf den langsameren Hauptspeicher
zurückgreifen muss; eine solche Situation wird als »Cache-Miss« bezeichnet. Wenn
der Cache-Speicher voll ist, besteht die optimale Cache-Ersetzungsstrategie – im

112
Verdrängung und Hellseherei

Grunde definitionsgemäß, wie Bélády schreibt – darin, jene Daten zu verdrängen,


die wir von diesem Moment an am längsten nicht benötigen werden.
Natürlich ist es leichter gesagt als getan, genau zu wissen, wann man etwas
erneut benötigen wird.
Der hypothetisch allwissende, vorausschauende Algorithmus, der die
optimale Strategie anwenden wird, wird zu Ehren des Pioniers auch als Bélády-
Algorithmus bezeichnet. Hierbei handelt es sich um das, was die Informatiker
als »hellseherischen« Algorithmus bezeichnen: Er stützt sich auf Daten aus der
Zukunft. Das ist nicht unbedingt so verrückt, wie es klingt – es gibt Fälle, in
denen ein System möglicherweise weiß, was es zu erwarten hat –, aber im All-
gemeinen ist Hellsicht schwer zu finden, und die Softwareingenieure pflegen zu
scherzen, dass sie bei dem Versuch, den Bélády-Algorithmus in der Praxis anzu-
wenden, auf »Implementierungsschwierigkeiten« stoßen. Die Herausforderung
besteht also darin, einen Algorithmus zu finden, der in all den Fällen, in denen
wir in der Gegenwart gefangen sind und nur raten können, was uns erwartet, der
Hellsicht möglichst nahe kommt.
Wir könnten einfach die Random Eviction (zufällige Verdrängung) aus-
probieren und willkürlich Einträge überschreiben, um im Cache Platz für neue
Daten zu schaffen. Eines der verblüffenden frühen Resultate der Caching-Theorie
ist, dass dieser Zugang, obwohl er alles andere als perfekt ist, keineswegs schlecht
ist. Wie sich herausstellt, wird ein System einfach dadurch effizienter, dass es
einen Cache-Speicher hat, gleichgültig, wie dieser verwaltet wird. Daten, die
man häufig verwendet, werden ohnehin bald wieder im Cache landen. Eine
weitere einfache Verdrängungsstrategie ist First-In, First-Out (FIFO), wobei
das, was zu einem gegebenen Zeitpunkt am längsten im Cache liegt, verdrängt
oder überschrieben wird. (Hier wird also Martha Stewarts Frage gestellt: »Wie
lange habe ich es schon?«) Eine dritte Strategie ist Least Recently Used (LRU):
Die Daten, die am längsten nicht verwendet worden sind, werden verdrängt. (Das
beantwortet Stewarts Frage »Wann habe ich es zuletzt getragen oder benutzt?«)
Wie sich herausstellt, legen diese beiden Anweisungen von Stewart nicht
nur sehr verschiedene Strategien nahe, sondern einer ihrer Vorschläge ist dem
anderen klar überlegen. Bélády verglich die Strategien Random, FIFO und
mehrere Varianten von LRU in verschiedenen Szenarien und stellte fest, dass
LRU durchweg der Hellsicht am nächsten kam.198 Seine Wirksamkeit verdankt
das LRU-Prinzip einer Eigenschaft, welche die Informatiker als »zeitliche Lokali-

113
Zwischenspeichern

tät« bezeichnen: Wenn ein Programm eine bestimmte Information einmal ab-
gerufen hat, ist es wahrscheinlich, dass es sie in der nahen Zukunft erneut abrufen
wird. Die zeitliche Lokalität ist teilweise ein Ergebnis der Art und Weise, wie
Computer Probleme lösen (zum Beispiel führen sie in einer Schleife eine rasche
Abfolge verbundener Lese- und Schreibvorgänge durch), aber sie hat auch mit
der Art und Weise zu tun, in der Menschen Probleme lösen. Wenn Sie an Ihrem
Computer arbeiten, springen Sie möglicherweise zwischen E-Mail-Programm,
Webbrowser und Textverarbeitungsprogramm hin und her. Die Tatsache, dass
Sie eines dieser Programme vor Kurzem aufgerufen haben, ist ein Hinweis darauf,
dass Sie es wahrscheinlich bald wieder tun werden, und unter ansonsten unver-
änderten Bedingungen ist das Programm, das Sie am längsten nicht benutzt
haben, wahrscheinlich auch das, das sie in nächster Zeit nicht aufrufen werden.
Dieses Prinzip ist sogar in die Schnittstelle eingebaut, die der Computer
seinem Benutzer zeigt. Die Fenster auf Ihrem Bildschirm haben eine sogenannte
»Z-Ordnung«, eine simulierte Tiefe, die bestimmt, welches Programm über
welches gelegt wird. Dasjenige, dessen Nutzung am längsten zurückliegt, landet
ganz hinten. Aza Raskin, ehemaliger Kreativchef bei Firefox, drückt es so aus:
»Einen Großteil der Zeit, die Sie mit einem modernen Browser (Computer) ver-
bringen, verbringen Sie mit dem digitalen Gegenstück des Durchblätterns von
Papieren.«199 Dieses »Durchblättern« hat auch ein exaktes Gegenstück in den
Task-Switching-Schnittstellen von Windows und Mac OS: Wenn Sie Alt + Tab
oder Command + Tab drücken, werden Ihnen die Anwendungen in der Reihen-
folge der letzten Verwendung angezeigt.
Die Verdrängungs-Strategien sind sehr vielfältig und beinhalten Algorithmen,
welche die Häufigkeit der Nutzung und die letzte Nutzung verfolgen, Algorithmen,
die den Zeitpunkt des vorletzten Zugriffs verfolgen usw..200 Aber trotz des Über-
flusses an innovativen Cache-Algorithmen, darunter einige, die LRU unter ge-
eigneten Bedingungen übertreffen, bevorzugen die Informatiker LRU sowie
geringfügig abgewandelte Versionen dieses Algorithmus, und er wird in viel-
fältigen Anwendungen und in unterschiedlichen Maßstäben verwendet.201 LRU
lehrt uns, dass das Nächste, was wir erwartungsgemäß brauchen werden, das
letzte ist, was wir verwendet haben, während das, was wir danach brauchen
werden, wahrscheinlich das Vorletzte sein wird, was wir verwendet haben. Und
das Letzte, was wir zu brauchen erwarten können, ist das, was wir die längste
Zeit nicht verwendet haben.

114
Die Bibliothek wird umgekrempelt

Sofern wir keine guten Gründe haben, etwas anderes anzunehmen, scheint
ein Spiegelbild der Vergangenheit unser bester Führer zur Zukunft zu sein. Der
Hellsicht am nächsten kommt die Annahme, dass sich die Geschichte wieder-
holt, und zwar rückwärts.

DIE BIBLIOTHEK WIRD UMGEKREMPELT

Tief im Bauch der Gardner Stacks, des unterirdischen Magazins der University
of California in Berkeley, verbirgt sich hinter einer verschlossenen Tür, auf der
»Nur für Mitarbeiter« steht, vollkommen unzugänglich für die Bibliotheks-
benutzer einer der kostbarsten Schätze des kalifornischen Bibliothekensystems.
Cormac McCarthy, Thomas Pynchon, Elizabeth Bishop und J. D. Salinger;
Anaïs Nin, Susan Sontag, Junot Díaz und Michael Chabon; Annie Proulx, Mark
Strand und Philip K. Dick; William Carlos Williams, Chuck Palahniuk und
Toni Morrison; Denis Johnson, Juliana Spahr, Jorie Graham und David Sedaris;
Sylvia Plath, David Mamet, David Foster Wallace und Neil Gaiman … Das ist
keine Sammlung seltener Bücher, sondern der Cache-Speicher der Bibliothek.202
Wie wir bereits gesehen haben, ist die Bibliothek in Kombination mit unserem
eigenen Büro ein natürliches Beispiel für eine Speicherhierarchie. Tatsächlich
ist die Bibliothek an sich mit ihren verschiedenen Abteilungen und Lagern ein
ausgezeichnetes Beispiel für eine Speicherhierarchie mit mehreren Ebenen. Die
Folge ist, dass dort zahlreiche Zwischenspeicherprobleme gelöst werden müssen.
Es muss entschieden werden, welche Bücher im beschränkten Ausstellungsraum
in den Lesesälen untergebracht, welche im Magazin auf bewahrt und welche
in externe Lager geschickt werden sollen. Die Regeln dafür, welche Bücher an
Außenstellen gelagert werden sollen, sind von Bibliothek zu Bibliothek unter-
schiedlich, aber alle bedienen sich einer Form von LRU. Beth Dupuis, die in der
Bibliothek der Universität Berkeley für das Magazinmanagement verantwortlich
ist, erklärt: »Beispielsweise wird ein Buch, das seit zwölf Jahren nicht benutzt
worden ist, aus dem Hauptmagazin entfernt.«203
Am anderen Ende des Spektrums findet man den »Vorsortierungsbereich«
der Bibliothek, den wir uns im vorigen Kapitel angesehen haben. Dort landen
die Bücher, die von einer Entleihe zurückgekommen sind, bevor sie vollkommen
sortiert werden und ins Magazin zurückgeschickt werden. Das Komische ist, dass

115
Zwischenspeichern

die fleißigen Assistenten, die sie wieder in ihre Regale einräumen, in gewissem
Sinn die Ordnung verringern.
Der Grund dafür ist Folgender: Wenn die zeitliche Lokalität zutrifft, dann
enthalten die Regale, in denen die Vorsortierung vorgenommen wird, die
wichtigsten Bücher im gesamten Gebäude. Da diese Bücher zuletzt entlehnt
wurden, sind sie gemäß zeitlicher Lokalität zugleich diejenigen, nach denen die
Benutzer in Zukunft am ehesten suchen werden. Es scheint ein Verbrechen zu
sein, dass das Regal, dass die vermutlich relevantesten Bücher auf Kilometern
von Magazinregalen enthält, ständig von tüchtigen Mitarbeitern, die natürlich
nur ihre Arbeit machen, seines Inhalts beraubt wird.
Unterdessen sind in der Eingangshalle der Moffit Undergraduate Library –
dort befinden sich die zugänglichsten Regale – die zuletzt erworbenen Bücher
der Bibliothek ausgestellt. Das ist eine Art von FIFO-Cache, denn hier haben
nicht die zuletzt gelesenen, sondern die zuletzt hinzugefügten Bücher Vorrang.
Die Leistungsvorteile des LRU-Algorithmus, die in den meisten Tests, welche
die Informatiker durchgeführt haben, nachgewiesen worden sind, legen folgenden
Schluss nahe: Man sollte das Innerste der Bibliothek nach außen kehren. Man sollte die
neugekauften Bücher im Hinterzimmer lagern – für jene, die sie finden wollen.
Und man sollte die zuletzt zurückgegebenen Bücher in die Eingangshalle holen,
damit die Benutzer darin stöbern können.
Der Mensch ist ein soziales Geschöpft, und die Studenten würden es vermut-
lich interessant finden zu erfahren, welches die Lesegewohnheiten ihrer Kollegen
sind. So würde eine organischere und offenere Version dessen entstehen, was die
Universitäten anstreben, wenn sie »allgemeine Lektüre« vorgeben, damit ihre
Studenten gemeinsame intellektuelle Bezugspunkte finden. Hier würden sich
die auf dem Campus gelesenen Bücher auch in die Bücher verwandeln, die am
wahrscheinlichsten zufällig von anderen Studenten entdeckt werden. Es wäre
eine von der Basis ausgehende Version der Einführungsliteratur.
Aber ein System wie dieses wäre nicht nur von sozialem Nutzen. Da die zu-
letzt zurückgegebenen Bücher wahrscheinlich auch die sind, die als nächste aus-
geliehen werden, wäre es obendrein effizienter. Es stimmt, dass es die Studenten
verwirren würde, beliebte Bücher manchmal im Magazin und manchmal in der
Eingangshalle zu finden. Aber gerade erst zurückgegebene Bücher, die auf ihre
Rückkehr ins Regal warten, fehlen in jedem Fall im Magazin. Während dieses
kurzen Aufenthalts im Niemandsland sind sie unzugänglich. Würde man statt-

116
�����������������������������

dessen zulassen, dass die zurückgegebenen Bücher die Lobby schmücken, so


hätten die Studenten eine Chance, den Kreislauf von Verbringung ins Magazin
und erneuter Suche im Regal zu unterbrechen. Es müssten keine Mitarbeiter
ins Magazin gehen, um die Bücher zu lagern, und es müssten keine Studenten
ins Magazin gehen, um sie wieder herauszuholen. Genau so soll die Zwischen-
speicherung funktionieren.

DIE WOLKE AM ENDE DER STRASSE

»Wir haben von unserem Land wirklich eine Karte im Maßstab eins zu eins
angefertigt.«
»Haben Sie sie fleißig benutzt?«, erkundigte ich mich.
»Bisher wurde sie noch nie ausgebreitet«, gestand Mein Herr. »Die Bauern
haben Einspruch erhoben und behauptet, das ganze Land würde zugedeckt und
das Sonnenlicht ausgesperrt! Deshalb verwenden wir jetzt das Land selber als
Karte, und ich darf Ihnen versichern, es leistet uns beinahe ebensogute Dienste.«204
Wir stellen uns das Internet oft als flaches, unabhängiges und lose verbundenes
Netzwerk vor. Tatsächlich ist es nichts von alledem. Gegenwärtig wird ein Viertel
des gesamten Internetverkehrs von einem einzigen Unternehmen abgewickelt,
dem es gelingt, sich fast vollkommen aus den Schlagzeilen herauszuhalten. Dieses
in Massachusetts ansässige Unternehmen heißt Akamai, und sein Geschäft ist
die Cache-Speicherung.205
Wir stellen uns das Internet auch als abstraktes, immaterielles und post-­
geografisches Gebilde vor. Man sagt uns, unsere Daten befänden sich »in der
Wolke«, was auf einen diffusen, unbestimmbaren Ort hindeutet. Auch diese
Vorstellungen sind falsch. Tatsächlich besteht das Internet aus Bündeln physischer
Kabel und Metallkästen. Und es ist sehr viel enger an die Geografie gebunden,
als man meinen könnte.
Die Ingenieure denken bei der Entwicklung von Computerhardware in einem
sehr kleinen geografischen Maßstab: Der schnellere Speicher wird normaler-
weise näher beim Prozessor platziert, um die Distanz zu verringern, welche die
Information in den Kabeln zurücklegen muss. Die heutigen Prozessorzyklen
werden in Gigahertz gemessen, was bedeutet, dass die Arbeitsschritte in Bruch-
teilen von Nanosekunden durchgeführt werden. Um das einordnen zu können:
Dies ist die Zeit, die das Licht braucht, um einige Zentimeter zu reisen. Daher

117
Zwischenspeichern

ist der physische Aufbau eines Computers eine wichtige Frage. Und wenn man
dasselbe Prinzip in sehr viel größerem Maßstab anwendet, stellt sich heraus, dass
die tatsächliche Geografie von entscheidender Bedeutung für das Funktionieren
des Internets ist, in dem die Kabel nicht Zentimeter, sondern potenziell Tausende
Kilometer lang sind.
Wenn man einen Cache von Webinhalten anlegen kann, der physisch, geo-
grafisch näher bei den Menschen ist, die diese Inhalte brauchen, kann man diese
Seiten schneller bedienen. Ein Großteil des Datenverkehrs im Internet wird
mittlerweile von »Content Distribution Networks« (CDN) bewältigt, Verteilungs-
netzen, in denen auf Computern in aller Welt Kopien beliebter Websites aufbe-
wahrt werden. Das erlaubt es den Benutzern, die diese Seiten aufrufen wollen,
ihre Daten von einem Computer in der Nähe zu beziehen. Es ist kein Transport
über Kontinente hinweg vom ursprünglichen Server erforderlich.
Die größten CDN werden von Akamai betrieben: Die Anbieter von Inhalten
bezahlen dafür, dass ihre Websites zur Leistungssteigerung »akamaisiert« werden.
Beispielsweise erhält ein Australier, der Videos der BBC streamt, seine Daten
wahrscheinlich von lokalen Akamai-Servern in Sydney; seine Anfrage wird nie bis
nach London weitergeleitet. Das ist nicht nötig. Akamais Chefarchitekt Stephen
Ludin erklärt: »Wir sind überzeugt – und wir haben das Unternehmen auf dieser
Überzeugung aufgebaut – dass die Entfernung zählt.«206
Zuvor haben wir darauf hingewiesen, dass bestimmte Arten von Computer-
speichern schneller arbeiten, aber höhere Kosten pro Speichereinheit haben, wes-
halb eine »Speicherhierarchie« entwickelt wird, die für ein Gleichgewicht zwischen
Geschwindigkeit und Kosteneinsparungen sorgen soll. Aber die Speicher müssen
nicht wirklich aus verschiedenem Material gemacht sein, damit das Zwischen-
speichern Sinn hat. Das Caching ist ebenso nützlich, wenn nicht die Leistung,
sondern die Nähe die knappe Ressource ist.
Diese grundlegende Erkenntnis – Dateien, die gefragt sind, sollten in der
Nähe des Orts gespeichert werden, an dem sie verwendet werden – gilt auch
für die rein physische Umgebung. Zum Beispiel wird in den riesigen Vertriebs-
lagern von Amazon im Allgemeinen auf jegliche für den Menschen verständliche
Organisation von der Art, wie man sie in einer Bibliothek oder in einem Kaufhaus
findet, verzichtet. Stattdessen legen die Mitarbeiter eingehende Artikel in ein
beliebiges Regal, in dem gerade ein Platz frei ist – Batterien liegen Seite an Seite
mit Bleistiftspitzern, Windeln, Grills und Gitarreschnellkursen auf DVD –, wobei

118
�����������������������������

sie den Regalplatz des Artikels einscannen, damit er in eine zentrale Datenbank
eingespeist werden kann. Aber es gibt noch immer eine sichtbare Ausnahme von
diesem desorganisiert wirkenden Lagersystem: Artikel, die sehr gefragt sind,
werden in einem separaten Bereich gelagert, wo sie schneller zugänglich sind als
die übrigen Produkte. Das ist Amazons Cache-Speicher.207
Vor Kurzem wurde Amazon ein Patent für eine Innovation erteilt, die noch
einen Schritt weitergeht. Das Patent gilt für eine »vorauseilende Lieferung«, 208 die
von den Medien so dargestellt wurde, als könnte Amazon Produkte verschicken,
noch bevor seine Kunden diese Produkte gekauft haben.209 Wie jedes Techno-
logieunternehmen wäre Amazon natürlich glücklich, eine solche dem idealen
Bélády-Algorithmus vergleichbare Hellsicht zu besitzen, aber da sie unmöglich
ist, greift das Unternehmen auf die Zwischenspeicherung zurück. Tatsächlich
bezieht sich das Patent auf den Versand von Artikeln, die in einem bestimmten
Gebiet in jüngster Zeit sehr gefragt gewesen sind, in ein Versandlager in diesem
Gebiet – es ist wie ein CDN für physische Güter. Gibt ein Kunde in diesem Gebiet
eine Bestellung auf, so befindet sich der Artikel bereits in der Nähe. Die Kaufent-
scheidungen individueller Konsumenten vorherzusagen ist schwierig, aber wenn es
darum geht, die Käufe von ein paar Tausend Personen zu prognostizieren, greift
das Gesetz der großen Zahlen: Jemand in Berkeley wird an einem gegebenen Tag
Recycling-Toilettenpapier bestellen, und wenn er es tut, hat das Toilettenpapier
den größten Teil des Wegs zu ihm bereits zurückgelegt.
Wenn die Dinge, die in einem Gebiet beliebt sind, auch aus diesem Gebiet
kommen, bekommen wir es mit einer noch interessanteren Geografie der Cloud
zu tun. Im Jahr 2011 entwarf der Webdesigner Micah Mertes eine Karte der
Vereinigten Staaten anhand der »Lokalen Favoriten« von Netflix in den einzel-
nen Bundesstaaten – die Karte zeigte, welche Filme in jedem dieser Staaten un-
gewöhnlich beliebt waren.210 Wie sich herausstellte, sehen die Leute besonders
gern Filme, die dort spielen, wo sie selbst leben. Das Publikum im Bundesstaat
Washington bevorzugt Singles, der in Seattle spielt, die Leute in Louisiana sehen
besonders gern The Big Easy, der natürlich in New Orleans angesiedelt ist, und die
Einwohner von Los Angeles haben, was keine große Überraschung ist, eine Vor-
liebe für L.A. Story. Die Leute in Alaska lieben Braving Alaska, und in Montana
ist Montana Sky besonders beliebt.* Und da das lokale Caching nirgendwo nütz-

* Nicht geklärt ist, warum My Own Private Idaho die meisten Anhänger in Maine hat.

119
Zwischenspeichern

licher ist als bei den sehr großen Dateien, die für HD-Video benötigt werden, hat
Netflix dafür gesorgt, dass die Dateien von L.A. Story so wie die Figuren und,
was sehr viel wichtiger ist, die Fans des Films in Los Angeles beheimatet sind.211

CACHING AN DER HEIMATFRONT

Die Zwischenspeicherung hat ihren Ursprung in dem Bemühen, die digitale


Information in Computern zu organisieren, aber es ist klar, dass sie genauso auf
die Organisation physischer Objekte in menschlichen Umgebungen angewandt
werden kann. Als wir mit John Hennessy sprachen, dem Präsidenten der Universität
Stanford, der auch zu den Pionieren der Computertechnik gehörte und zur Ent-
wicklung der modernen Caching-Systeme beitrug, sah er sofort die Verbindung:
»Die Zwischenspeicherung ist so naheliegend, weil wir uns ihrer unentwegt
bedienen. Die Menge an Information, die ich erhalte … mit einigen Dingen muss
ich mich sofort beschäftigen, eine Reihe von Dingen liegen auf meinem Schreib-
tisch, und andere Dinge werden abgelegt und schließlich im Archivsystem der
Universität abgelegt, wo es einen ganzen Tag dauert, um etwas, das ich erneut
brauche, wieder zutage zu fördern. Aber wir wenden diese Technik ständig an,
um unser Leben zu organisieren.«212
Die direkte Parallele zwischen diesen Problemen bedeutet, dass es möglich ist,
die von der Informatik gefundenen Lösungen gezielt auf unser Heim anzuwenden.
Erstens bietet sich, wenn Sie darüber entscheiden müssen, was Sie behalten und
was Sie wegwerfen sollten, LRU als Prinzip an – es ist sehr viel besser als FIFO.
Sie müssen nicht unbedingt das T-Shirt aus Ihren Studententagen wegwerfen,
wenn Sie es noch gelegentlich tragen. Aber die Karohose, die Sie vor einer Ewig-
keit das letzte Mal angehabt haben? Die kann ruhig ein Secondhandschnäppchen
für jemand anderen werden.
Zweitens sollten Sie die Geografie nutzen. Bewahren Sie alle Dinge in der
Nähe des Ortes auf, an dem sie tatsächlich verwendet werden. Das ist keine
konkrete Empfehlung in den meisten Ratgebern zur Organisation des Haushalts,
aber in Systemen, mit denen wirkliche Menschen gute Erfahrungen gemacht
haben, taucht sie regelmäßig auf. »Ich bewahre meine Lauf- und Trainingssachen
in einer Kiste auf, die im Garderobenschrank bei der Haustür steht«, sagt eine
Person, die Julie Morgenstern in ihrem Buch Organizing from the Inside Out zitiert.
»Ich mag es, die Sachen nahe bei der Haustür zu haben.«213

120
Caching an der Heimatfront

Ein etwas extremeres Beispiel beschreibt William Jones in dem Buch Keeping
Found Things Found:
»Eine Ärztin erzählte mir, wie sie bei der Aufbewahrung von Dingen umging:
›Meine Kinder halten mich für bescheuert, aber ich lege die Dinge dort ab, wo
ich glaube, dass ich sie später wieder brauchen werde, selbst wenn das nicht sehr
sinnvoll scheint.‹ Sie beschrieb mir ein Beispiel für ihre Methode: Sie bewahrt
hinter der Couch im Wohnzimmer zusätzliche Staubsaugersäcke auf. Hinter der
Couch im Wohnzimmer? Hat das irgendeinen Sinn? […] Wie sich herausstellt,
wird der Staubsauger normalerweise für den Teppich im Wohnzimmer benutzt.
[…] Wenn ein Staubsack voll ist und ausgetauscht werden muss, passiert das
normalerweise im Wohnzimmer. Und genau da sind die Staubsaugersäcke.«214
Eine weitere Erkenntnis, die es noch nicht in die Ratgeber zur Schrank-
organisation geschafft hat, kann aus der Speicherhierarchie mit mehreren
Ebenen abgeleitet werden. Einen Cache zu haben, ist effizient, aber noch vor-
teilhafter können mehrere Ebenen von Cache-Speichern sein – vom kleinsten
und schnellsten zum größten und langsamsten. Wenn es um unsere häuslichen
Gegenstände geht, ist unser Schrank eine Cache-Ebene, unser Keller eine zweite
und unser Mietlager eine dritte. (Natürlich dauert es unterschiedlich lange, die
Gegenstände aus diesen Pufferspeichern zurückzuholen, weshalb wir uns bei der
Entscheidung darüber, was von einer Ebene auf die nächstniedrigere verdrängt
werden soll, am LRU-Prinzip orientieren sollten.) Vielleicht können wir die Dinge
auch beschleunigen, indem wir eine weitere Speicherebene hinzufügen, die noch
kleiner, schneller erreichbar und näher gelegen ist als der Schrank.
Toms ansonsten sehr tolerante Frau lehnt es ab, Kleidung neben dem Bett zu
speichern, obwohl er darauf beharrt, dass dies eine sehr effiziente Methode der
Zwischenspeicherung ist. Glücklicherweise haben wir in unseren Gesprächen mit
Informatikern auch für dieses Problem eine Lösung gefunden. Rik Belew von
der Universität San Diego, der Suchmaschinen unter kognitiven Gesichtspunkten
studiert, empfiehlt den Einsatz eines Herrendieners.215 Diese Gestelle sieht man
heute kaum noch, aber ein stummer Diener ist im Grunde ein Kleiderschrank für
eine Garnitur, ein Bügel für Sakko, Krawatte und Hose – das perfekte Hardware-
element für die Zwischenspeicherbedürfnisse im Haus. Das ist ein Beleg dafür,
dass die Informatiker uns nicht nur Zeit sparen, sondern auch unsere Ehe retten
können.

121
Zwischenspeichern

EINORDNEN UND STAPELN

Nachdem wir entschieden haben, was wir wo aufbewahren wollen, müssen wir
die Frage klären, wie wir es organisieren können. Wir haben darüber gesprochen,
was in den Schrank gehört und wo der Schrank stehen sollte – aber wie sollten
die Dinge im Schrank angeordnet werden?
In allen Ratschlägen zur Haushaltsorganisation, mit denen wir uns bisher
beschäftigt haben, finden wir die Idee, »Gleiches mit Gleichem« zusammenzu-
legen. Es gibt vielleicht niemanden, der diesen Ratschlag kategorischer ablehnt als
Yuko Noguchi. »Ich möchte betonen«, erklärt er, »dass ein grundlegendes Prinzip
meiner Methode lautet, die Dateien nicht nach Inhalt zu gruppieren.«216 Noguchi
ist Wirtschaftswissenschaftler an der Universität Tokio und hat mehrere Bücher
geschrieben, in denen er »Supertricks« beschreibt, mit denen wir unser Büro und
unser Leben in Ordnung bringen können. Die Titel dieser Bücher lauten übersetzt
Superüberzeugungsmethode, Superarbeitsmethode, Superlernmethode und, was für uns
in diesem Zusammenhang relevant ist, Superorganisationsmethode.
Zu Beginn seiner wissenschaftlichen Laufbahn fühlte sich Noguchi ständig
überfordert von einem Übermaß an Information – Korrespondenz, Daten,
Manuskripte –, was zur Folge hatte, dass er jeden Tag einen beträchtlichen Teil
seiner Zeit mit Versuchen verbrachte, all diese Information zu organisieren. Um
sich diese Arbeit zu ersparen, hielt er Ausschau nach einer Alternative. Zunächst
steckte er jedes Dokument in eine Mappe, die mit Bezeichnung und Datum des
Dokuments versehen war, und legte alle diese Mappen in eine große Schachtel.
Das sparte Zeit – er musste sich keine Gedanken über den Aufbewahrungsort
für jedes einzelne Dokument machen –, ermöglichte jedoch keine Organisation.
Irgendwann Anfang der Neunzigerjahre gelang ihm ein Durchbruch: Er begann,
die Mappen immer auf der linken Seite in die Schachtel zu stecken. Das »Super-
ablagesystem« war geboren.217
Noguchi betont, dass die Regel »Links einordnen« sowohl bei neuen als auch bei
alten Mappen befolgt werden muss: Jedes Mal, wenn man eine Mappe hervorholt, um
ihren Inhalt zu verwenden, muss man sie ganz links wieder in die Schachtel stecken.
Und wenn man eine Mappe sucht, muss man ebenfalls immer links beginnen. Das
bedeutet, dass die zuletzt verwendeten Mappen am schnellsten zu finden sind.
Diese Methode begann Noguchi einfach deshalb anzuwenden, weil es leichter
war, jede Mappe links einzuordnen, anstatt den Ort zu suchen, an dem man sie

122
Einordnen und stapeln

gefunden hatte. Erst im Lauf der Zeit wurde ihm bewusst, dass dieses Verfahren
nicht nur einfach, sondern auch verblüffend effizient war.
Das Noguchi-Ablagesystem spart offenkundig Zeit, wenn man etwas nach
der Verwendung ablegen will. Die Frage ist jedoch, ob es auch die Suche nach den
Informationen erleichtert, die man braucht. Zweifellos widerspricht die Methode
den Empfehlungen der Effizienzgurus, die uns raten, ähnliche Dinge gemeinsam
aufzubewahren. Tatsächlich lässt sogar die Etymologie des Worts »organisiert«
an einen aus Organen zusammengesetzten Körper denken, und diese Organe sind
nichts anderes als Gebilde aus Zellen von ähnlicher Form und Funktion.
Aber die Informatik gibt uns etwas, das uns die meisten Effizienzgurus nicht
geben können: Garantien.
Noguchi konnte das zu jener Zeit nicht wissen, aber sein Ablagesystem stellt
eine Erweiterung des LRU-Prinzips dar. LRU sagt uns, dass wir jedes Mal, wenn
wir etwas in unserem Speicher ablegen, das älteste gespeicherte Element ent-
fernen sollten – aber es sagt uns nicht, wohin wir das neue Element tun sollen. Die
Antwort auf diese Frage finden wir in Forschungsergebnissen, die Informatiker in
den Siebziger- und Achtzigerjahren veröffentlichten. Ihre Version des Problems wird
als »selbstorganisierende Listen« bezeichnet und hat große Ähnlichkeit mit Noguchis
Ablagedilemma. Nehmen wir an, wir haben eine Reihe von Elementen in einer
Sequenz und müssen sie periodisch durchsuchen, um bestimmte Elemente zu finden.
Die Suche selbst muss linear sein – wir müssen die Elemente von Anfang an eins nach
dem anderen durchgehen –, aber sobald wir das gesuchte Element gefunden haben,
können wir es an einer beliebigen Stelle der Sequenz wieder ablegen. Wo müssen
wir die Elemente platzieren, um die Suche so effizient wie möglich zu gestalten?
In der maßgeblichen Arbeit über selbstorganisierende Listen, die Daniel Sleator
und Robert Tarjan im Jahr 1985 vorlegten, wird (entsprechend der klassischen
Methode der Informatik) die Worst-Case-Leistung verschiedener Methoden zur
Organisation der Liste mit Blick auf alle möglichen Abfragesequenzen unter-
sucht.218 Da die Suche am Anfang beginnt, liegt es nahe, die Sequenz so anzu-
ordnen, dass die Elemente, die am wahrscheinlichsten gesucht werden, auch am
Anfang auftauchen. Aber welche Elemente werden das sein? An diesem Punkt
wünschen wir uns erneut, hellseherische Fähigkeiten zu besitzen. »Wenn man die
Sequenz im Voraus kennt«, erklärt Tarjan, der seine Zeit zwischen der Universität
Princeton und dem Silicon Valley aufteilt, »kann man die Datenstruktur so an-
passen, dass die Gesamtzeit für die gesamte Sequenz minimiert wird. Das ist der

123
Zwischenspeichern

optimale Offline-Algorithmus – Gottes Algorithmus, wenn Sie so wollen, oder


der Algorithmus im Himmel. Selbstverständlich kennt niemand die Zukunft,
weshalb die Frage lautet, wie nahe wir angesichts einer unbekannten Zukunft
dem optimalen Algorithmus im Himmel kommen können.« Die Resultate von
Sleator und Tarjan zeigten, dass sich einige »sehr einfache Selbstanpassungsvor-
gänge verblüffenderweise mit einem konstanten Faktor« der Hellsicht annähern.219
Wenn man das LRU-Prinzip anwendet und ein Element einfach immer an der
Spitze der Liste wieder einfügt, wird die für die Suche aufgewandte Gesamtzeit
nie mehr als doppelt so lange sein, als wenn man die Zukunft gekannt hätte.220
Diese Garantie kann kein anderer Algorithmus geben.
Wenn uns klar wird, dass das Noguchi-Ablagesystem ein Beispiel für die
Anwendung des LRU-Prinzips ist, begreifen wir, dass es nicht bloß effizient,
sondern tatsächlich optimal ist.221
Gestützt auf die Ergebnisse Sleators und Tarjans können wir noch zu einer
weiteren Erkenntnis gelangen, indem wir das Noguchi-Ablagesystem auf die
Seite drehen: Dreht man eine Schachtel, in der vertikal Mappen stecken, auf die
Seite, so wird ein Stapel daraus. Und Stapel durchsucht man naturgemäß von
oben nach unten, und jedes Mal, wenn man ein Dokument herausholt, landet es
anschließend nicht dort, wo man es gefunden hat, sondern obenauf.*
Die Mathematik der selbstorganisierenden Listen deutet also auf eine radikale
Erkenntnis hin: Der große Stapel Papiere auf Ihrem Schreibtisch ist keineswegs
ein Hort des Chaos, für den Sie sich schuldig fühlen müssen, sondern eine der am
besten gestalteten und effizientesten Strukturen, die es gibt. Was auf andere wie
ein Durcheinander wirken mag, ist in Wahrheit ein selbstorganisierendes Durch-
einander. Die Papiere wieder oben auf den Stapel zu werfen, ist das Beste, was
man tun kann, sofern man die Zukunft nicht kennt. Im vorhergehenden Kapitel
haben wir Fälle untersucht, in denen es sich als effizienter erwies, etwas unsortiert
zu lassen, anstatt sich die Zeit zu nehmen, alles zu sortieren; in diesem Fall gibt
es jedoch einen ganz anderen Grund dafür, dass wir es nicht organisieren müssen.
Wir haben es bereits getan.

* Sie können auch Ihren Computer zwingen, Ihnen die Dateien in einem Stapel anzuzeigen. In der
standardmäßigen Schnittstelle zum Durchsuchen der Dateien gehen Sie die Ordner in alphabetischer
Reihenfolge durch, aber LRU legt nahe, diese Einstellung zu ändern und Ihre Ordner und Dateien
nicht nach dem »Namen«, sondern nach dem Kriterium »Zuletzt geöffnet« anzuzeigen. Was Sie su-
chen, wird sich fast immer weit oben befinden.

124
Die Kurve des Vergessens

DIE KURVE DES VERGESSENS

Natürlich wäre keine Auseinandersetzung mit der Speicherung von Information


vollständig ohne Erwähnung des »Speicherorgans«, das uns am nächsten ist: des
menschlichen Gehirns. In den letzten Jahrzehnten haben die Erkenntnisse der
Informatik das Bild der Psychologie vom menschlichen Gedächtnis revolutioniert.
Es heißt, die Erforschung des Gedächtnisses habe im Jahr 1879 an der Uni-
versität Berlin begonnen, wo ein junger Psychologe namens Hermann Ebbinghaus
herauszufinden versuchte, wie das menschliche Gedächtnis funktioniert. Er
wollte beweisen, dass man den Verstand mit der mathematischen Präzision der
Naturwissenschaften untersuchen konnte. Also begann er mit Selbstversuchen.
Ebbinghaus setzte sich jeden Tag hin, um eine Liste sinnloser Silben aus-
wendig zu lernen. Anschließend prüfte er, wie gut er sich an die Listen der
vorhergehenden Tage erinnerte. So gelangte er zu vielen grundlegenden Er-
kenntnissen der Gedächtnisforschung. Beispielsweise stellte er fest, dass eine
Liste besser in Erinnerung bleibt, wenn man sie mehrere Male übt, und dass die
Zahl der Elemente, an die man sich erinnern kann, im Lauf der Zeit abnimmt.
Seine Resultate lieferten eine Kurve der schwindenden Erinnerung, die heute als
»Vergessenskurve« bezeichnet wird.
Ebbinghaus schuf die Grundlage für eine glaubwürdige quantitative Wissen-
schaft des Gedächtnisses, aber seine Forschung hinterließ auch ein Rätsel: Warum
verläuft die Kurve so? Besagt sie, dass das Gedächtnis gut oder schlecht ist? Was
liegt diesem Phänomen zugrunde? Diese Fragen beschäftigen die Psychologen
seit mehr als hundert Jahren.
Im Jahr 1987 untersuchte der Psychologe und Informatiker John Anderson
von der Carnegie Mellon Universität die Informationsabrufungssysteme von Uni-
versitätsbibliotheken.222 Anderson wollte eigentlich zeigen, wie die Struktur dieser
Systeme gestützt auf das Studium des menschlichen Gedächtnisses verbessert
werden konnte. Doch er gelangte zum umgekehrten Ergebnis: Die Informations-
wissenschaft konnte den fehlenden Baustein für die Erforschung des Verstands
liefern.223
»Ich hatte seit Langem das Gefühl, dass in den vorhandenen Theorien des
menschlichen Gedächtnisses – einschließlich meiner eigenen – etwas fehlte«,
erklärt Anderson. »In all diesen Theorien wird das Gedächtnis im Grunde
als willkürliche und nichtoptimale Konfiguration dargestellt. […] Ich war der

125
Zwischenspeichern

Meinung, dass die grundlegenden Gedächtnisprozesse durchaus adaptiv und


möglicherweise sogar optimal waren, aber ich hatte nie einen Rahmen ge-
funden, in dem ich das darlegen konnte. In der Arbeit der Informatiker über die
Informationsrückgewinnung fand ich diesen Rahmen.«224
Eine naheliegende Erklärung für das Vergessen ist, dass im Verstand ein-
fach kein Platz mehr ist. Der Kerngedanke hinter Andersons neuartigem Ver-
ständnis des Gedächtnisses ist hingegen, dass das Vergessen kein Problem der
Speicherung, sondern eines der Organisation ist. Diese Theorie besagt, dass der
Platz für die Speicherung von Erinnerungen im Verstand eigentlich unbegrenzt
ist, dass wir jedoch nur eine begrenzte Menge an Zeit haben, um danach zu
suchen. Anderson veranschaulicht das anhand der Analogie einer Bibliothek mit
einem einzigen, willkürlich langen Regal – einem Noguchi-Ablagesystem im
Maßstab der Kongressbibliothek. Man kann unendlich Erinnerungen in diesem
Regal ablegen, aber je näher beim Anfang des Regals sie liegen, desto schneller
kann man sie wiederfinden.
Wenn es so ist, braucht man für ein gutes Gedächtnis dasselbe wie für einen
guten Cache-Speicher: Man muss wissen, welche Erinnerungen man in Zukunft
am ehesten brauchen wird.
Wenn wir die Möglichkeit der Hellsicht ausschließen, besteht die beste
Methode, um solche Vorhersagen für das menschliche Leben anzustellen, darin,
die Welt selbst zu verstehen. Gemeinsam mit seinem Kollegen Lael Schooler
begann Anderson Studien, die von Ebbinghaus inspiriert waren. Aber sie unter-
suchten nicht den menschlichen Verstand, sondern den Verstand der menschlichen
Gesellschaft. Die beiden Forscher stellten eine einfache Frage: Nach welchen
Mustern »vergisst« die Welt – wie verblassen Ereignisse und Bezugspunkte im
Lauf der Zeit? Anderson und Schooler untersuchten drei menschliche »Um-
gebungen«: Schlagzeilen in der New York Times, Tonbandaufnahmen von Eltern,
die mit ihren Kindern sprachen, und Andersons E-Mail-Posteingang.225 In allen
drei Umgebungen beobachteten sie, dass ein Wort am wahrscheinlichsten un-
mittelbar nach der letzten Verwendung wieder auftaucht und dass die Wahr-
scheinlichkeit, es erneut zu sehen, im Lauf der Zeit sinkt.
Mit anderen Worten: Unsere Realität selbst weist eine statistische Struktur
auf, die der Ebbinghaus-Kurve folgt.226
Das legt einen bemerkenswerten Schluss nahe: Wenn das Muster, in dem
unsere Erinnerungen verblassen, dem Muster entspricht, in dem die Begriffe

126
Die Kurve des Vergessens

in unserer Umgebung aus dem gesellschaftlichen Bewusstsein verschwinden,


dann könnte es tatsächlich eine sehr gute Erklärung für die Vergessenskurve
von Ebbinghaus geben – nämlich die, dass das Gehirn perfekt auf die Welt ab-
gestimmt ist und genau jene Dinge verfügbar macht, die am wahrscheinlichsten
benötigt werden.

Von
Von
Ebbinghaus
Ebbinghaus
erinnerte
erinnerte
Daten
Daten Worte
Wortein in
NewNew
York
York
Times-Schlagzeilen
Times-Schlagzeilen
6060 1616

Wahrscheinlichkeit der Beobachtung (in %)


Wahrscheinlichkeit der Beobachtung (in %)
Wahrscheinlichkeit der Erinnerung (in %)
Wahrscheinlichkeit der Erinnerung (in %)

5555 1414

5050 1212

4545 1010

4040 8 8

3535 6 6

3030 4 4

2525 2 2

2020 0 0
0 0 200
200 400
400 600
600 800
800 0 0 2020 4040 6060 8080 100
100
Seit
Seit
dem
dem
Lesen
Lesen
vergangene
vergangene
Stunden
Stunden Seit
Seit
dem
dem
letzten
letzten
Auftauchen
Auftauchen
vergangene
vergangene
Tage
Tage

Menschliches Gedächtnis und menschliche Umgebungen. Die linke Grafik zeigt den
Prozentsatz der sinnlosen Silben aus einer Liste, an die sich Ebbinghaus erinnern konn-
te, als Funktion der Zahl der Stunden, die vergangen waren, seit er die Liste auswendig
gelernt hatte. Die rechte Grafik zeigt die Wahrscheinlichkeit, dass ein Wort an einem
gegebenen Tag in einer Schlagzeile der New York Times auftauchte, als Funktion der
Zeit, die vergangen war, seit das Wort zuletzt in einer Schlagzeile auftauchte.

Indem die Zwischenspeicherung die Betonung auf die Zeit legt, zeigt sie uns, dass
die Erinnerung mit unvermeidlichen Abwägungen einhergeht und bis zu einem
gewissen Grad ein Nullsummenspiel ist. Wir können nicht jedes Buch aus der
Bibliothek auf dem Schreibtisch haben, es kann nicht jedes Produkt im Schau-
fenster des Ladens liegen, es kann nicht jede Schlagzeile in der oberen Hälfte der
Seite stehen, es kann nicht jedes Papier ganz oben auf dem Stapel liegen. Genauso
können wir nicht jedes Faktum, jedes Gesicht und jeden Namen präsent haben.
»Die Vorstellung, das menschliche Gedächtnis sei keineswegs optimal, ist
ein verbreitetes Vorurteil«, schreiben Anderson und Schooler. »Wer diese Ein-
schätzung vertritt, verweist auf unsere zahlreichen frustrierenden Gedächtnis-
aussetzer. Doch diese Kritik lässt die Aufgabe außer Acht, die das Gedächtnis
bewältigen muss: Es muss versuchen, eine riesige Menge an Erinnerungen zu
verwalten. In jedem System, das große Datenmengen verwalten muss, kommt es

127
Zwischenspeichern

zwangsläufig zu Fehlern bei der Datenrückgewinnung. Es ist einfach zu teuer,


eine unbegrenzte Zahl von Elementen ständig bereitzuhalten.«227
Diese Tatsache führt uns zu einer weiteren wichtigen Erkenntnis über das
Gedächtnis: Wenn diese Abwägungen tatsächlich unvermeidlich sind und das
Gehirn optimal auf die umgebende Welt abgestimmt ist, dann ist das, was wir
als unvermeidlichen, mit dem Alter einhergehenden »kognitiven Niedergang«
bezeichnen, in Wahrheit möglicherweise etwas anderes.

DIE TYRANNEI DER ERFAHRUNG

Ein großes Buch ist ein großes Ärgernis.


Kallimachos, alexandrinischer Bibliothekar
(ca. 300 – ca. 240 v. Chr.)228

Warum bauen sie nicht das ganze Flugzeug aus dem Material, aus
dem sie die Black Box machen?
Steven Wright, Komiker

Dass bei Computern eine Speicherhierarchie in Form kaskadierender Cache-


Speicher erforderlich ist, liegt nicht zuletzt daran, dass es nicht möglich ist, den
gesamten Speicher aus der teuersten Hardware zu bauen. Beispielsweise wird für
die derzeit schnellsten Pufferspeicher die SRAM-Technologie verwendet, die
pro Byte etwa tausendmal so viel kostet wie die Flash-Speicher in Solid-State-
Laufwerken. Aber der eigentliche Beweggrund für die Zwischenspeicherung
geht darüber hinaus. Tatsächlich würden wir selbst dann, wenn wir einen maß-
geschneiderten Rechner haben könnten, der nur die schnellsten verfügbaren
Speicher nutzte, immer noch Cache-Speicher brauchen.
Wie John Hennessy erklärt, genügt die Größe allein, um die Geschwindigkeit
zu beeinträchtigen:
»Wenn man etwas größer macht, wird es inhärent langsamer. Wenn eine
Stadt wächst, dauert es länger, in dieser Stadt von Punkt A nach Punkt B zu
gelangen. Wenn man eine Bibliothek vergrößert, dauert es länger, dort ein Buch
zu finden. Je größer ein Stapel Papiere auf dem Schreibtisch wird, desto länger
wird es dauern, darin ein Dokument zu finden. Cache-Speicher sind eine Lösung

128
Die Tyrannei der Erfahrung

für dieses Problem. […] Wenn Sie beispielsweise in diesem Augenblick losgehen,
um einen Prozessor zu kaufen, werden Sie auf dem Chip einen Level 1-Cache
und einen Level 2-Cache bekommen. Der Grund dafür ist – sogar auf dem Chip
gibt es zwei Cache-Speicher –, dass die Größe des Cache-Speichers der ersten
Ebene begrenzt werden muss, damit er mit der Zyklusrate des Prozessors Schritt
halten kann.«229
Je größer ein Speicher wird, desto länger dauert es zwangsläufig, eine
Informationseinheit darin zu finden und herauszuholen.
Obwohl Brian und Tom erst Mitte dreißig sind, bleiben sie bereits häufiger als
früher in einem Gespräch hängen, weil ihnen der Name von jemandem »auf der
Zunge liegt«, aber eben nicht einfällt. Allerdings hatte Brian im Alter von zehn
Jahren auch nur ein paar Dutzend Spielkameraden in der Schule; zwanzig Jahre
später hat er Hunderte Kontakte auf seinem Handy und Tausende Bekannte auf
Facebook. Er hat in vier Städten gelebt und an jedem dieser Orte einen eigenen
Kreis von Freunden, Bekannten und Kollegen aufgebaut. Tom hat an diesem
Punkt in seiner wissenschaftlichen Laufbahn mit Hunderten Wissenschaftlern
zusammengearbeitet und Tausende Studenten unterrichtet. (Tatsächlich haben
die Autoren für dieses Buch mit etwa Hundert Personen gesprochen und berufen
sich auf tausend andere Autoren.) Natürlich sind solche Effekte keineswegs auf
soziale Verbindungen beschränkt: Ein typischer Zweijähriger kennt zweihundert
Worte, der durchschnittliche Erwachsene dreißigtausend. Und im episodischen
Gedächtnis werden der Lebenserfahrung jedes Jahr etwa 350 000 wache Minuten
hinzugefügt.
So betrachtet ist es ein Wunder, dass die beiden Autoren – und die meisten
anderen Menschen – überhaupt geistig mithalten können. Überraschend ist nicht
die Verlangsamung des Gedächtnisses, sondern die Tatsache, dass der Verstand
angesichts einer derartigen Datenakkumulation überhaupt funktionstüchtig und
reaktionsfähig bleibt.
Wenn die grundlegende Herausforderung für das Gedächtnis tatsächlich
nicht in der Speicherung, sondern in der Organisation besteht, sollten wir mög-
licherweise unsere Vorstellung von den Auswirkungen des Alterns auf unsere
geistigen Fähigkeiten überdenken. Ein von Michael Ramscar geleitetes Team
von Psychologen und Linguisten an der Universität Tübingen ist zu dem Er-
gebnis gelangt, dass das, was wir als »kognitiven Niedergang« bezeichnen – also
Verzögerungen und Rückgewinnungsfehler – möglicherweise nicht einfach auf

129
Zwischenspeichern

eine Verlangsamung oder Störung des Suchvorgangs zurückzuführen ist, sondern


(zumindest teilweise) eine unvermeidliche Konsequenz der Tatsache ist, dass die
zu bewältigende Informationsmenge größer und größer wird. 230 Unabhängig
von den anderen Problemen, die mit dem Altern einhergehen, bewältigen ältere
Gehirne – die einen größeren Bestand an Erinnerungen speichern müssen – mit
jedem zusätzlichen Tag schwierigere Berechnungsprobleme. Die Alten dürfen mit
gutem Recht über die Geschwindigkeit der Jungen spotten: »Es liegt nur daran,
dass ihr noch nichts wisst!«
Ramscar und seine Kollegen haben am Beispiel der Sprache gezeigt, wie
sich zusätzliche Information auf das menschliche Gehirn auswirkt. Anhand
einer Reihe von Simulationen wiesen die Forscher nach, dass es allein dadurch,
dass man mehr weiß, schwieriger wird, Worte, Namen und sogar Buchstaben
zu erkennen. Egal wie gut der Organisationsplan ist, das Durchsuchen größerer
Informationsmengen wird unvermeidlich länger dauern. Das Problem ist nicht,
dass wir vergessen, sondern dass wir uns erinnern. Wir verwandeln uns in Archive.
Ein Verständnis der unvermeidlichen Berechnungserfordernisse des Gedächt-
nisses, erklärt Ramscar, sollte es uns erleichtern, die Auswirkungen des Alterns
auf die Kognition zu bewältigen: »Ich glaube, dass ältere Menschen vor allem
versuchen sollten, sich darüber klar zu werden, dass ihr Verstand ein natürlicher
Informationsverarbeitungsapparat ist. Manche Dinge, die zu Frustration führen,
wenn wir älter werden (etwa die Erinnerung an Namen!), sind ein Ergebnis der
Menge an Material, das wir verarbeiten müssen […] und sind nicht unbedingt ein
Hinweis auf geistiges Versagen.« Sein Fazit: »Vieles von dem, was gegenwärtig
als Niedergang bezeichnet wird, ist in Wahrheit einfach Lernen.«231
Die Zwischenspeicherung liefert uns Begriffe, die uns das Verständnis dieser
Vorgänge erleichtern. Wir sagen »geistiger Aussetzer«, wo wir eigentlich »Cache-
Miss« sagen müssten. Die unverhältnismäßigen gelegentlichen Fehler bei der
Informationsrückgewinnung rufen uns in Erinnerung, wie sehr wir ansonsten
davon profitieren, dass wir das, was wir rasch brauchen, rasch abrufen können.
Wenn wir älter werden und beginnen, diese sporadischen Aussetzer zu be-
merken, müssen wir also nicht verzagen: Die Länge der Verzögerungen deutet
teilweise auf das Ausmaß unserer Erfahrung hin. Dass die Rückgewinnung
mühsam wird, liegt einfach daran, dass wir viel wissen. Und die Tatsache, dass
diese Verzögerungen selten sind, belegt, wie gut wir dieses Wissen angeordnet
haben: Die wichtigsten Dinge haben wir sofort zur Hand.

130
5
ABLAUFPLANUNG
EINS NACH DEM ANDEREN

So wie wir unsere Tage verbringen, verbringen wir natürlich unser


Leben.
Annie Dillard232

»Warum schreiben wir nicht ein Buch über die Theorie der Ablauf-
planung?«, fragte ich. […] »Es sollte nicht allzu viel Zeit kosten!« Wie
in der Kriegführung kommt es beim Bücherschreiben oft zu schweren
Fehlkalkulationen. Fünfzehn Jahre später ist Scheduling immer noch
nicht fertig.
Eugene Lawler 233

M
ontagmorgen, und Sie haben einen noch leeren Zeitplan und eine lange
Liste von Aufgaben. Einige können Sie erst in Angriff nehmen, nachdem
andere abgeschlossen sind (man kann die Spülmaschine erst einräumen,
nachdem man das gereinigte Geschirr ausgeräumt hat), und einige können erst
ab einem bestimmten Zeitpunkt erledigt werden (die Nachbarn werden sich
beschweren, wenn Sie den Müll vor Dienstagabend auf die Straße stellen). Bei
einigen Aufgaben müssen Sie eine Frist einhalten, während andere zu einem
beliebigen Zeitpunkt erledigt werden können; viele Erledigungen können Sie
nicht lange hinausschieben, obwohl es keine feste Frist gibt. Manche Aufgaben
sind dringend, aber nicht wichtig. Andere sind wichtig, aber nicht dringend.
Sie glauben, sich daran zu erinnern, dass Aristoteles sagte: »Wir sind, was wir

131
Ablaufplanung

wiederholt tun.«234 Sie wollen den Boden aufwischen, mehr Zeit mit den Kindern
verbringen, Ihre Steuererklärung rechtzeitig einreichen, Französisch lernen.
Was sollen Sie also wann tun und in welcher Reihenfolge? Ihr Leben wartet.
Obwohl es uns immer gelingt, irgendeinen Weg zu finden, die Dinge zu tun,
mit denen wir unser Leben verbringen, glauben die meisten von uns nicht, dass wir
besonders gut darin sind – daher verkaufen sich die Ratgeber zur Ablaufplanung
immer gut. Leider weichen die Ratschläge, die wir darin finden, oft voneinander
ab und sind widersprüchlich. David Allen rät uns in Wie ich die Dinge geregelt
kriege, alles, was zwei Minuten oder weniger in Anspruch nimmt, in dem Moment
zu erledigen, in dem es uns in den Sinn kommt.235 In dem Konkurrenzbestseller
Eat That Frog! erfahren wir, dass wir mit der schwierigsten Aufgabe beginnen
und uns von da an immer leichteren Dingen zuwenden sollten.236 In Vorbei mit
der Aufschieberei! finden wir den Vorschlag, soziale Beziehungen und Freizeit als
Erstes zu planen und anschließend die Lücken mit Arbeit zu füllen – anstatt es
wie die meisten von uns anders herum zu machen.237 William James, der »Vater
der amerikanischen Psychologie«, schrieb, es gebe »nichts Ermüdenderes als die
ewige Gegenwart einer unerledigten Aufgabe«, 238 aber Frank Partnoy spricht sich
in Wait dafür aus, Aufgaben bewusst nicht sofort zu erledigen.239
Jeder Guru hat sein eigenes System, und es ist schwer zu entscheiden, auf
welchen man hören sollte.

DIE WISSENSCHAFT VOM RICHTIGEN


VERBRINGEN DER ZEIT

Das Zeitmanagement ist anscheinend ein Problem, das so alt ist wie die Zeit
selbst, aber die Wissenschaft von der Ablaufplanung wurde erst in den Werks-
hallen erfunden, die in der Industriellen Revolution entstanden. Im Jahr 1874
verzichtete Frederick Taylor, der Sohn eines wohlhabenden Rechtsanwalts, auf
seinen Studienplatz in Harvard, um eine Lehre als Maschinist bei Enterprise
Hydraulic Works in Philadelphia zu beginnen. Vier Jahre später schloss er die
Lehre ab und begann bei Midvale Steele Works zu arbeiten, wo er sich vom Dreher
zum Vorarbeiter der Maschinenwerkstatt und schließlich zum Chefingenieur
hocharbeitete. In dieser Tätigkeit gelangte er zu der Überzeugung, dass die von
ihm beaufsichtigten Maschinen (und Menschen) die Zeit nicht gut nutzten, was

132
Die Wissenschaft vom richtigen Verbringen der Zeit

ihn zur Entwicklung einer Methode bewegte, die er als »wissenschaftliche Be-
triebsführung« bezeichnete.
Taylor richtete ein Planungsbüro ein, in dem er eine Tafel aufhängte, auf
der für jedermann sichtbar der Ablaufplan der Fabrik zu sehen war. Der Plan
beinhaltete sämtliche Maschinen in der Werkshalle samt ihrer gegenwärtigen
Funktionen und der ausstehenden Aufgaben. Ausgehend von dieser Praxis ent-
wickelte Taylors Kollege Henry Gantt in den Zehnerjahren des 20. Jahrhunderts
die Gantt-Diagramme, die in vielen großen Bauprojekten des Jahrhunderts zum
Einsatz kommen sollten, vom Hoover-Damm bis zum amerikanischen Interstate-
Autobahnnetz.240 Ein Jahrhundert später zieren noch immer Gantt-Diagramme
die Wände und Bildschirme von Projektmanagern bei Amazon, Ikea, SpaceX
und anderen Unternehmen.241
Taylor und Gantt machten die Ablaufplanung zu einem Untersuchungsgegen-
stand und gaben ihr eine visuelle und konzeptuelle Form. Aber das grundlegende
Problem, welcher Zeitplan der beste war, lösten sie nicht. Der erste Hinweis
darauf, dass dieses Problem überhaupt gelöst werden konnte, tauchte erst einige
Jahrzehnte später in einem Artikel auf, den der Mathematiker Selmer Johnson
von der RAND Corporation im Jahr 1954 veröffentlichte.242
Das von Johnson untersuchte Szenario war das Buchbinden, wo jedes Buch mit
einer Maschine gedruckt und mit einer anderen gebunden werden muss. Aber eine
allgemein bekannte Version dieser Zwei-Maschinen-Konfiguration ist uns allen
aus unserem Alltag bekannt: die Wäsche. Wenn wir unsere Kleidung waschen,
muss sie der Reihe nach durch die Waschmaschine und den Trockner geschleust
werden, und verschiedene Ladungen werden unterschiedliche Zeiträume in An-
spruch nehmen. Stark verschmutzte Kleidung muss vielleicht gründlicher und
länger gewaschen werden, während das Trocknen die übliche Zeit in Anspruch
nimmt. Also fragte Johnson: Welches ist die beste Vorgehensweise, wenn man
mehrere Wäscheladungen am selben Tag abarbeiten muss?
Seine Antwort: Man muss zunächst den Arbeitsschritt finden, der am
wenigsten Zeit in Anspruch nimmt – also die Ladung, die am schnellsten ge-
waschen oder getrocknet werden kann. Wenn der kürzeste Arbeitsschritt der
Waschgang ist, sollte man diesen zuerst erledigen. Wenn der kürzeste Schritt das
Trocknen einer Ladung ist, sollte man diesen zuletzt erledigen. Diese Einstufung
sollte bei allen anderen Wäscheladungen wiederholt werden, das heißt, der Zeit-
plan sollte von beiden Enden zur Mitte hin abgearbeitet werden.

133
Ablaufplanung

Johnsons Algorithmus funktioniert, weil unabhängig davon, wie die Wäsche-


ladungen gereiht werden, am Anfang der Trockner eine Weile stillstehen wird,
während die Waschmaschine bereits läuft, und am Ende die Waschmaschine
stillstehen wird, während der Trockner noch läuft. Indem man die kürzesten
Waschgänge an den Anfang und die kürzesten Trockengänge ans Ende des Ab-
laufplans setzt, maximiert man die Menge der Überschneidung – das heißt den
Zeitraum, in dem Waschmaschine und Trockner gleichzeitig laufen. So kann man
die Gesamtzeit, die für die Wäsche aufgewendet werden muss, auf das absolute
Mindestmaß reduzieren.
Johnsons Analyse hatte den ersten optimalen Algorithmus für die Ablauf-
planung hervorgebracht: Mit dem kürzesten Waschgang beginnen und mit dem
kürzesten Trockengang abschließen. Über den unmittelbaren Nutzen hinaus
verdanken wir Johnsons Arbeit zwei grundlegende Erkenntnisse: Erstens kann
man die Ablaufplanung algorithmisch ausdrücken, zweitens gibt es optimale Ab-
laufplanungslösungen. Johnson gab den Anstoß zu einer intensiven wissenschaft-
lichen Auseinandersetzung mit dem Thema. Die Forschung begann, Strategien
für eine Vielzahl hypothetischer Fabriken mit jeder erdenklichen Art und Zahl
von Maschinen zu entwickeln.
Wir werden uns auf einen winzigen Teilbereich der einschlägigen Literatur
konzentrieren: auf jene Literatur, die sich anders als beim Buchbinden oder beim
Waschen mit der Planung für eine einzelne Maschine beschäftigt. Denn das
wichtigste Scheduling-Problem betrifft nur eine einzige Maschine: uns selbst.

WIE MAN FRISTEN EINHÄLT

Bei der Ablaufplanung für eine einzelne Maschine stoßen wir sofort auf ein
Problem. Johnson ging es in seiner Arbeit über das Buchbinden darum, die
Gesamtzeit, die zwei Maschinen für die Bewältigung ihrer Aufgaben benötigten,
zu minimieren. Wenn wir hingegen alle Aufgaben mit einer einzigen Maschine
bewältigen wollen, so wird der gesamte Zeitaufwand immer derselbe sein, wes-
halb die Reihenfolge der Tätigkeiten irrelevant ist.
Dieser Punkt ist grundlegend und widerspricht zugleich der Intuition, weshalb
es sich lohnt, ihn zu wiederholen: Wenn wir nur eine einzige Maschine haben
und alle unsere Aufgaben erledigen wollen, so werden wir immer dieselbe Zeit
dafür brauchen, egal in welcher Reihenfolge wir die Aufgaben in Angriff nehmen.

134
Wie man Fristen einhält

Damit können wir in Bezug auf die Ablaufplanung für eine einzelne Maschine
die erste Lehre ziehen, noch bevor wir überhaupt begonnen haben: Wir müssen
unsere Ziele explizit machen. Wir können keinem Zeitplan den Vorzug geben, bevor
wir nicht wissen, wie wir die Resultate messen sollen. Das ist ein wichtiges Thema
in der Informatik: Um planen zu können, muss man zuerst ein Maß wählen.
Und wie sich herausstellt, wird sich das Maß, das wir hier wählen, direkt darauf
auswirken, welche Planungsansätze am besten abschneiden.
Die ersten Arbeiten zur Ablaufplanung für eine einzige Maschine wurden
bald nach Johnsons Studie zum Buchbinden veröffentlicht und beschrieben ver-
schiedene plausible Maße, für die es jeweils eine einfache, optimale Strategie gab.
Natürlich sind Tätigkeiten häufig innerhalb einer bestimmten Frist zu
erledigen, wobei die Verspätung Aufschluss darüber gibt, wie weit die Frist über-
schritten wurde. Wir können uns also die »maximale Verspätung« einer Reihe
von Tätigkeiten als die Verspätung jener Tätigkeit vorstellen, welche die Frist
am weitesten überschritten hat – das ist die Art von Kriterium, die für einen
Arbeitgeber bei einer Leistungsbeurteilung wichtig ist. (Oder die für den Kunden
im Einzelhandel oder bei einer Dienstleistung wichtig ist, wo die »maximal ver-
spätete« Tätigkeit dem Kunden die längste Wartezeit verursacht.)
Wenn es unser Ziel ist, die maximale Verspätung zu verringern, dann besteht
die beste Strategie darin, als Erstes die Aufgabe in Angriff zu nehmen, die als
Erste erledigt sein muss, und uns von dort bis zu der Tätigkeit vorzuarbeiten,
die als Letzte fertiggestellt werden muss. Diese Strategie, die als Earliest Due
Date (Frühester Fertigstellungstermin) bezeichnet wird, ist leicht nachvollzieh-
bar.243 (Beispielsweise bedeutet »Fertigstellungstermin« in einem Dienstleistungs-
kontext, wo er bei jedem Klienten der Augenblick ist, in dem der Klient zur Tür
hereinkommt, einfach, dass die Klienten in der Reihenfolge der Ankunft bedient
werden.) Aber einige seiner Implikationen sind durchaus überraschend. Beispiels-
weise ist irrelevant, wie lange die Fertigstellung jeder einzelnen Tätigkeit dauert:
Die Dauer ändert den Plan nicht, weshalb man sie tatsächlich gar nicht kennen
muss. Wichtig ist nur, wann die Aufgaben erfüllt sein müssen.
Möglicherweise wenden Sie die Earliest-Due-Date-Strategie bereits an, um
Ihre Arbeit zu bewältigen, weshalb Sie wahrscheinlich nicht auf die Erkennt-
nisse der Computerwissenschaft angewiesen sind, um zu wissen, dass dies eine
vernünftige Strategie ist. Es gibt jedoch etwas, das Sie möglicherweise nicht
wissen: Es ist auch die optimale Strategie. Genauer gesagt, sie ist optimal unter

135
Ablaufplanung

der Annahme, dass Sie nur an einem Maß interessiert sind, nämlich an der Ver-
ringerung der maximalen Verspätung. Wenn das nicht Ihr Ziel ist, könnte eine
andere Strategie besser sein.
Nehmen wir beispielsweise den Kühlschrank. Vielleicht gehören Sie zu den
vielen Leuten, die sich im Rahmen der Solidarischen Landwirtschaft (SoLaWi)
in regelmäßigen Abständen frisches Obst und Gemüse aus der Umgebung ins
Haus liefern lassen. Diese Lebensmittel sind unterschiedlich lang haltbar, wes-
halb es vernünftig scheint, sie in der Reihenfolge der Zeitpunkte, zu denen mit
dem Beginn der Fäulnis zu rechnen ist, zu verzehren, das heißt abhängig vom
»frühesten Fertigstellungstermin«, wie wir das Verfallsdatum in diesem Fall
nennen wollen. Aber nicht so schnell: Die Earliest-Due-Date-Strategie ist optimal
geeignet, um die maximale Verspätung zu verringern, was bedeutet, dass sie die
Fäulnis des am stärksten verdorbenen Lebensmittels minimieren wird, das Sie essen
müssen. Aber das ist möglicherweise nicht der appetitlichste Maßstab, an dem
man sich beim Verzehr von Lebensmitteln orientieren sollte.
Vielleicht wäre es besser, stattdessen die Zahl der Lebensmittel zu ver-
ringern, die verderben. Hier können wir anhand einer als Moore-Algorithmus
bezeichneten Strategie den besten Zeitplan entwickeln.244 Dieser Algorithmus
besagt, dass wir so wie bei Earliest Due Date zunächst den Verzehr unserer
Lebensmittel in der Reihe des Verfallsdatums planen sollen, das heißt, wir sollten
die zuerst verderbenden Früchte zuerst essen und uns der Reihe nach vorarbeiten.
Aber sobald wir den Eindruck gewinnen, dass wir das nächste Lebensmittel in
der Reihe nicht mehr rechtzeitig essen können, müssen wir innehalten, uns die
bereits geplanten Mahlzeiten erneut ansehen und das größte Produkt in unserem
Vorrat wegwerfen (das heißt das Lebensmittel, dessen Konsum die meisten Tage
in Anspruch nehmen wird). Beispielsweise müssen wir uns von der Wassermelone
trennen, die ein halbes Dutzend Rationen liefert, denn wenn wir gar nicht erst
versuchen, sie zu essen, können wir alle folgenden Lebensmittel sehr viel früher
in Angriff nehmen. Dieses Muster wiederholen wir, wobei wir die Lebensmittel
nach Verfallsdatum sortieren und jedes Mal, wenn wir hinter den Zeitplan zurück-
fallen, das größte bereits eingeplante Lebensmittel wegwerfen. Sobald alles, was
übrig ist, in der Reihenfolge des Verfallsdatums gegessen werden kann, ohne dass
etwas verdirbt, haben wir unseren Plan.
Der Moore-Algorithmus minimiert die Zahl der Produkte, die Sie weg-
werfen müssen. Natürlich können Sie die aussortierten Lebensmittel auch gern

136
Dinge erledigen

kompostieren, der örtlichen Tafel spenden oder Ihrem Nachbarn schenken.


In einem industriellen oder bürokratischen Kontext, in dem man ein Projekt
nicht einfach streichen kann, aber in dem nicht der Schweregrad, sondern die
Zahl der verspäteten Projekte immer noch unsere größte Sorge ist, ist es für den
Moore-Algorithmus unerheblich, wie diese verspäteten Tätigkeiten gehandhabt
werden. Alles, was aus dem Kernbereich Ihres Zeitplans entfernt wird, kann am
Ende erledigt werden, und zwar in beliebiger Reihenfolge. Es spielt keine Rolle,
weil bereits alle Tätigkeiten zu spät erledigt werden.

DINGE ERLEDIGEN

Tue die schwierigen Dinge, solange sie einfach sind, und tue die
großen Dinge, solange sie klein sind.
Laotse

Manchmal sind Fristen nicht unsere größte Sorge, sondern wir wollen eine Auf-
gabe einfach erledigen: Wir wollen möglichst viel möglichst schnell hinter uns
bringen. Wie sich herausstellt, ist die Übersetzung dieses einfachen Wunsches in
ein klares Maß für einen Zeitplan schwieriger, als es den Anschein hat.
Eine Möglichkeit besteht darin, die Sache vom Standpunkt eines Außen-
stehenden zu betrachten. Wir haben gesehen, dass bei der Ablaufplanung für
eine einzelne Maschine nichts, was wir tun, etwas daran ändern wird, wie lange
wir brauchen werden, um alle Aufgaben zu erledigen – aber wenn beispielsweise
jede Aufgabe ein wartender Klient ist, dann gibt es einen Weg, um möglichst
wenig von der kollektiven Zeit der Klienten zu verschwenden. Nehmen wir an,
wir haben am Montagmorgen ein viertägiges und ein eintägiges Projekt in der
Agenda. Wenn wir das größere Projekt nach Ablauf der vier Tage am Donnerstag-
nachmittag und anschließend das kleinere am Freitagnachmittag fertigstellen
(dann sind fünf Tage verstrichen), haben unsere Klienten insgesamt 4 + 5 = 9
Tage gewartet. Kehren wir die Ordnung jedoch um, so können wir das kleine
Projekt am Montag und das große am Freitag abschließen, womit die Klienten
insgesamt nur 1 + 5 = 6 Tage warten müssen. Für uns ist es in beiden Fällen eine
volle Arbeitswoche, aber im zweiten Fall haben wir unseren Klienten insgesamt
drei Tage Wartezeit gespart. Die Schedulingtheoretiker bezeichnen dieses Maß
als die »Summe der Fertigstellungszeiten«.

137
Ablaufplanung

Die Minimierung der Summe der Fertigstellungszeiten führt zu einem ein-


fachen optimalen Algorithmus, der als Shortest Processing Time (Kürzeste
Bearbeitungszeit) bezeichnet wird: Man sollte immer zuerst die Tätigkeit aus-
führen, die man am schnellsten fertigstellen kann.245
Wenn wir es nicht bei jedem Projekt mit ungeduldigen Klienten zu tun haben,
ist die Shortest-Processing-Time-Regel geeignet, die Dinge zu erledigen. (Es ist
vielleicht keine Überraschung, dass dieser Algorithmus der Empfehlung in dem
Ratgeber Wie ich die Dinge geregelt kriege entspricht, jede Tätigkeit, die weniger
als zwei Minuten in Anspruch nimmt, sofort zu erledigen.) Natürlich ist es un-
möglich, die für die Bewältigung aller Aufgaben benötigte Gesamtzeit zu ver-
kürzen, aber die Shortest-Processing-Time-Regel wird den Stress möglicherweise
verringern, indem sie die Zahl der unerledigten Aufgaben so rasch wie möglich
verringert. Das hier verwendete Maß – die Summe der Fertigstellungszeiten –
kann auch anders ausgedrückt werden: Es ist gleichbedeutend damit, sich vor
allem auf die Verkürzung der Liste unerledigter Dinge zu konzentrieren. Wenn
jede unerledigte Aufgabe eine offene Wunde ist, dann wird es den Schmerz ver-
ringern, die einfachsten Dinge rasch zu erledigen.
Natürlich sind nicht alle unerledigten Aufgaben gleich geschaffen. Vermutlich
sollten wir zuerst ein wirkliches Feuer in der Küche löschen, bevor wir mit einer
klärenden E-Mail an einen Klienten »einen Brand löschen«, selbst wenn wir für
die Bewältigung der ersten Aufgabe ein wenig länger brauchen werden. Bei der
Ablaufplanung wird die unterschiedliche Bedeutung in einer Variable erfasst, die
als Gewicht bezeichnet wird. Wenn wir unsere To-do-Liste abarbeiten, können wir
buchstäblich fühlen, wie uns mit jeder erledigten Aufgabe ein Gewicht von den
Schultern genommen wird. Die für die Bewältigung einer Aufgabe erforderliche
Zeit gibt Aufschluss darüber, wie lange wir diese Last tragen müssen, womit mit
der Verringerung der Summe der gewichteten Fertigstellungszeiten (das heißt der
Dauer jeder Tätigkeit multipliziert mit ihrem Gewicht) die gesamte Belastung
minimiert wird, der wir ausgesetzt sind, während wir unsere Aufgaben abarbeiten.
Die optimale Strategie zur Erreichung dieses Ziels ist eine einfache Ab-
wandlung der Kürzesten Bearbeitungszeit: Wir müssen das Gewicht jeder Tätig-
keit durch die Zeit teilen, die ihre Fertigstellung in Anspruch nehmen wird,
und dann von der höchsten Bedeutung pro Einheitszeit (wir können das auch als
»Dichte« bezeichnen, um bei der Metapher des Gewichts zu bleiben) der Reihe
nach bis zur niedrigsten voranschreiten. Und während es schwierig sein mag, jeder

138
Dinge erledigen

unserer täglichen Aufgaben eine Bedeutung (ein Gewicht) zuzuordnen, finden


wir in dieser Strategie doch eine hübsche Faustregel: Man darf einer Tätigkeit,
die doppelt so viel Zeit in Anspruch nehmen wird wie eine andere, nur Vorrang
geben, wenn sie auch doppelt so wichtig ist.
In geschäftlichen Kontexten kann das »Gewicht« problemlos in den Geldbetrag
übersetzt werden, den man mit einer Tätigkeit einnehmen wird. Die Methode, Be-
lohnung durch Dauer zu teilen, erfordert in diesem Kontext also, dass man jeder Tätig-
keit einen Stundensatz zuweist. (Wenn Sie ein Berater oder eine Freiberuflerin sind,
wird das in der Praxis möglicherweise bereits für Sie getan: Dividieren Sie einfach
das Honorar für jedes Projekt durch seine Größe, und sortieren Sie die Projekte vom
höchsten zum niedrigsten Stundenhonorar.) Interessanterweise kann diese Strategie
auch auf die Futtersuche von Tieren angewandt werden, wobei Nüsse und Beeren
den Platz von Dollar und Cent einnehmen. Um die Rate der Energieakkumulation
aus der Nahrung zu erhöhen, sollten Tiere ihre Nahrungsquellen abhängig vom
Kaloriengehalt gemessen an der Zeit reihen, die erforderlich ist, um an die Nahrung
heranzukommen und sie zu fressen. Und genau das tun sie anscheinend.246
Wird dieses Prinzip nicht auf Einkommen, sondern auf Schulden angewandt,
so dient es als Grundlage für eine als »Schuldenlawine« bezeichnete Strategie, um
wieder in die schwarzen Zahlen zu kommen. Diese Schuldensenkungsstrategie
besteht darin, Zahl und Größe der Schulden vollkommen zu ignorieren und das
für die Schuldentilgung verfügbare Geld einfach zur Rückzahlung der Schulden
mit dem höchsten Zinssatz zu verwenden. Dies entspricht der Abarbeitung der
Aufgaben in der Reihenfolge ihrer Bedeutung pro Einheitszeit. Und es ist die
Strategie, die die gesamte Schuldenlast am schnellsten verringern wird.
Wenn wir hingegen nicht die Menge, sondern die Zahl der Schulden verringern
wollen – wenn zum Beispiel der Aufwand, der uns durch die Beschäftigung mit
zahlreichen Rechnungen und Anrufen von Schuldeneintreibern entsteht, schwerer
wiegt als der Unterschied der Zinssätze – dann sind wir wieder bei der nicht
gewichteten Sorte von Shortest Processing Time (Kürzester Bearbeitungszeit),
das heißt bei dem Ziel, die Aufgabe »einfach zu erledigen«: Hier müssen wir die
geringsten Schulden zuerst zurückzahlen, um sie aus dem Weg zu schaffen. Die
Schuldenexperten bezeichnen diesen Zugang als »Schuldenschneeball«.247 Ob
man in der Praxis der Senkung des Dollarbetrags der Schulden Vorrang vor der
Verringerung der Menge der ausstehenden Schulden geben sollte, bleibt sowohl
in den Medien als auch in der Wirtschaftsforschung umstritten.

139
Ablaufplanung

SUCHEN WIR UNS UNSERE PROBLEME AUS

Das bringt uns zurück zum Ausgangspunkt unserer Untersuchung der Ablauf-
planung für eine einzige Maschine. Ein Sprichwort besagt: »Ein Mann mit einer
Uhr weiß, wie spät es ist; ein Mann mit zwei Uhren ist nie sicher.« Die Informatik
kann uns in der Ablaufplanung für einzelne Maschinen optimale Algorithmen für
verschiedene Maße liefern, aber welches Maß wir verwenden wollen, hängt von
uns ab. In vielen Fällen können wir entscheiden, welches Problem wir lösen wollen.
Das eröffnet uns die Möglichkeit, einen vollkommen neuen Zugang zur
Prokrastination zu wählen, der klassischen Pathologie der Zeiteinteilung. Wir
stellen uns die Neigung zum Aufschieben normalerweise als einen fehlerhaften
Algorithmus vor. Und wenn sie genau das Gegenteil davon wäre? Was wäre, wenn
sie eine optimale Lösung für das falsche Problem wäre?
In einer Episode der Fernsehserie Akte X gibt es eine Szene, in der der
bettlägrige FBI-Agent Mulder, der von einem Vampir mit obsessiv-kompulsiver
Zwangsstörung attackiert wird, eine Tüte Sonnenblumenkerne auf dem Boden
ausstreut, um den Vampir aufzuhalten. Der Vampir, der sein Zwangsverhalten
nicht unterdrücken kann, macht sich daran, die Kerne einen nach dem anderen
einzusammeln. Schließlich geht die Sonne auf, bevor er Mulder das Blut aussaugen
kann.248 Die Informatiker würden das als »Ping-Angriff« oder »Denial-of-Service-
Attacke« bezeichnen: Man überhäufe ein System mit einer überwältigenden Zahl
trivialer Aufgaben, und die wichtigen Dinge gehen im Chaos verloren.
Wir verbinden die Prokrastination normalerweise mit Faulheit oder An-
strengungsvermeidung, aber sie kann genauso leicht Personen (oder Computer,
oder Vampire) befallen, die sich ernsthaft bemühen, ihre Aufgaben so schnell wie
möglich zu erledigen. In einer von David Rosenbaum von der Penn State Uni-
versity geleiteten Studie, deren Ergebnisse im Jahr 2014 veröffentlicht wurden,
wurden die Versuchsteilnehmer aufgefordert, einen von zwei schweren Eimern ans
andere Ende eines Flurs zu tragen. Einer der Eimer stand direkt bei der jeweiligen
Versuchsperson, der andere auf halbem Weg im Gang. Zur Überraschung der
Forscher nahmen die Versuchsteilnehmer den neben ihnen stehenden Eimer und
schleppten ihn ans andere Ende des Flurs – wobei sie an dem anderen Eimer
vorbeikamen, den sie nur halb so weit hätten tragen müssen. Die Forscher erklären,
dass »dieses scheinbar irrationale Verhalten eine Neigung zum Aufschieben verrät,
ein Begriff, mit dem wir die Beschleunigung der Teilzielerfüllung beschreiben,

140
Suchen wir uns unsere Probleme aus

für die sogar eine erhöhte körperliche Anstrengung in Kauf genommen wird.«249
Die Beschäftigung mit zahlreichen belanglosen Aktivitäten, um die Arbeit an
einem großen Projekt hinauszuschieben, kann ebenfalls als »Beschleunigung der
Teilzielerfüllung« betrachtet werden, was nichts anderes bedeutet als Folgendes:
Personen, die Dinge vor sich herschieben, wählen eine (optimale!) Strategie, um
die Zahl der unerledigten Aufgaben, mit denen sie sich beschäftigen müssen,
möglichst rasch zu verringern. Es ist nicht so, dass sie eine schlechte Strategie
wählen, um Dinge zu erledigen, sondern sie haben eine ausgezeichnete Strategie,
um das falsche Ziel zu erreichen.
Die Arbeit am Computer bringt eine weitere Gefahr mit sich, wenn es um die
bewusste und gezielte Betrachtung unserer Maße für die Ablaufplanung geht:
Die Benutzerschnittstelle kann uns subtil (oder nicht ganz so subtil) ihre eigenen
Bewertungskriterien aufzwingen. Beispielsweise ist der heutige Smartphone-Be-
nutzer daran gewöhnt, über den Icons der Apps »Badges« zu sehen, weiße Zahlen
vor rotem Hintergrund, die uns genau sagen, wie viele Aufgaben wir bei der App
zu erfüllen haben. Wenn es sich um einen E-Mail-Posteingang handelt, in dem die
Zahl der ungelesenen Nachrichten angezeigt wird, dann haben alle Nachrichten
implizit dasselbe Gewicht. Kann man uns also einen Vorwurf daraus machen,
dass wir den nicht gewichteten Shortest-Processing-Time-Algorithmus auf das
Problem anwenden – dass wir die leichtesten E-Mails allesamt zuerst erledigen
und uns den schwierigsten zuletzt zuwenden –, um diese Zahl so schnell wie
möglich zu verringern?
Die Menge macht’s – im Leben wie im Tod. Wenn tatsächlich alle Auf-
gaben dasselbe Gewicht haben, sollten wir uns an genau diese Regel halten. Aber
wenn wir uns nicht in Sklaven von Kleinigkeiten verwandeln wollen, müssen wir
handeln. Zunächst einmal müssen wir dafür sorgen, dass das Ein-Maschinen-
Problem, das wir lösen, auch tatsächlich das Problem ist, das wir lösen wollen. (Im
Fall der Benachrichtigungs-Badges von Applikationen besteht die Lösung mög-
licherweise einfach darin, sie abzuschalten, wenn es uns nicht gelingt, sie unseren
tatsächlichen Prioritäten anzupassen, und wenn wir den Impuls zur optimalen
Verringerung einer beliebigen Zahl von Aufgaben nicht unterdrücken können.)
Die Konzentration darauf, nicht einfach Dinge zu erledigen, sondern ge­
wichtige Dinge zu erledigen, das heißt, die in einem gegebenen Augenblick
wichtigsten Aufgaben zu bewältigen, scheint ein wirksames Heilmittel für die
Prokrastination zu sein. Aber wie sich herausstellt, ist auch das noch nicht genug.

141
Ablaufplanung

Und eine Gruppe von Computer-Scheduling-Experten lernte diese Lektion auf


die dramatischste Art, die man sich vorstellen kann, nämlich unter den Augen
der Welt auf der Oberfläche des Mars.

PRIORITÄTSUMKEHRUNG UND
PRÄZEDENZBESCHRÄNKUNG

Im Sommer 1997 hatte die Menschheit Grund zu feiern. Zum ersten Mal rollte
ein Rover über den Mars. Das 150 Millionen Dollar teure Raumfahrzeug Mars
Pathfinder war mit einer Geschwindigkeit von fast 26 000 Stundenkilometern
500 Millionen Kilometer weit durch das Weltall gerast und auf der felsigen Ober-
fläche des Roten Planeten gelandet.
Doch jetzt schob er seine Aufgaben vor sich her.
Daheim auf der Erde verfolgten die Ingenieure im Jet Propulsion Laboratory
(JPL) besorgt und ratlos, wie Pathfinder nicht arbeitete. Die vorrangige Aufgabe
der Marssonde, die darin bestand, Daten durch seinen »Informationsbus« zu
schleusen, wurde aus unerklärlichen Gründen vernachlässigt. Stattdessen ver-
brachte der Roboter seine Zeit damit, Aufgaben von untergeordneter Bedeutung
zu erledigen. Was ging da vor? Wusste der Roboter nicht, was er zu tun hatte?
Plötzlich bemerkte Pathfinder, dass der Informationsbus eine inakzeptabel
lange Zeit inaktiv war, und leitete in Ermangelung einer subtileren Abhilfemaß-
nahme einen vollständigen Neustart ein, was die Mission fast um einen ganzen
Tag verzögerte.
Ein oder zwei Tage später passierte dasselbe erneut.
Die JPL-Ingenieure suchten fieberhaft nach einer Lösung und schafften es
schließlich, das Verhalten von Pathfinder zu reproduzieren und zu diagnostizieren.
Schuld an dem Fehlverhalten war ein klassischer Ablaufplanungsfehler namens
Prioritätsumkehrung. Bei einer Prioritätsumkehrung beansprucht eine Tätigkeit
mit untergeordneter Priorität eine Systemressource (zum Beispiel Zugriff auf eine
Datenbank), um eine Aufgabe zu erledigen, wird jedoch auf halbem Weg durch
einen Timer angehalten, der das Scheduler-Programm aufruft. Dieses löst eine
Tätigkeit mit hoher Priorität aus, die jedoch nicht durchgeführt werden kann,
weil die Datenbank besetzt ist. Also arbeitet der Scheduler die Prioritätenliste ab
und leitet stattdessen verschiedene nicht blockierte Aktivitäten mittlerer Priorität

142
Prioritätsumkehrung und Präzedenzbeschränkung

ein – nicht aber die Aktivität mit hoher Priorität (die blockiert ist) oder jene mit
niedriger Priorität, die für die Blockade verantwortlich ist (und nun hinter den
verschiedenen Funktionen mit mittlerer Priorität in der Warteschleife sitzt). In
einem solchen Albtraumszenario kann die prioritäre Aufgabe des Systems unter
Umständen für einen beliebig langen Zeitraum vernachlässigt werden.*
Sobald die JPL-Ingenieure das Pathfinder-Problem als prioritär erkannt
hatten, schrieben sie ein Programm zur Korrektur des Fehlers und schickten es
zum Hunderte Millionen Kilometer entfernten Mars-Rover. Worin bestand die
Lösung, die da durch das Sonnensystem flog? Es war eine Prioritätsvererbung.
Wenn man entdeckt, dass eine Aufgabe mit geringer Priorität eine Ressource
mit hoher Priorität blockiert, sollte man dieser Niedrigprioritätsaufgabe vorüber-
gehend die höchste Priorität zugestehen: Sie sollte die Priorität der Aufgabe
»erben«, die sie blockiert.
Der Komiker Mitch Hedberg berichtet über einen Besuch in einem Casino, wo
»dieser Typ an mich herantrat und sagte: ›Sie müssen sich bewegen, Sie blockieren
den Notausgang.‹ Als würde ich nicht hinauslaufen, wenn ein Feuer ausbräche.«250
Das Argument des Türstehers war die Prioritätsumkehrung, Hedbergs Antwort
die Prioritätsvererbung. Dass Hedberg entspannt vor dem Notausgang steht,
während panische Menschen auf ihn zulaufen, gibt seinem Nichtstun, das eigent-
lich niedrige Priorität hat, Vorrang vor dem hochprioritären Selbsterhaltungs-
trieb der anderen Menschen, aber das ändert sich, wenn er ihre Priorität erbt:
Angesichts einer panischen Menschenmenge, die auf ihn zu stürmt, wird er ihre
Priorität ziemlich schnell übernehmen. Wie Hedberg erklärt: »Wer entflammbar
ist und Beine hat, der blockiert nie einen Notausgang.«
Aus diesen Beispielen können wir lernen, dass die Bereitschaft, Aufgaben zu
erledigen, nicht genügt, um Fallen im Zeitplan zu vermeiden, und dasselbe gilt
für die Bereitschaft, die wichtigen Dinge zu erledigen. Die Entschlossenheit, die
wichtigste Aufgabe zu erledigen, soviel Mühe es auch kosten mag, kann zu einem
Verhalten führen, das auf alle Welt wie Prokrastination wirkt, wenn man dabei
kurzsichtig vorgeht. Wie bei einem Auto, dessen Reifen bei dem Versuch durch-

* Komischerweise führte Glenn Reeves, der Leiter des für die Software von Pathfinder verantwortlichen
Teams, den Fehler auf »Termindruck« und auf die Tatsache zurück, dass die Behebung dieses Problems
während der Entwicklung »geringere Priorität« gehabt habe. (Aus einer E-Mail von Glenn Reeves an
seine Kollegen vom 15. Dezember 1997, Betreff »What really happened on Mars?«, zugänglich unter:
http://research.microsoft.com/en-us/um/people/mbj/Mars_Pathfinder/Authoritative_Account.html.)
Die Ursache des Problems war also in gewissem Sinn ein Spiegelbild des Problems.

143
Ablaufplanung

drehen, möglichst schnell loszufahren, kann das Bemühen um augenblickliche


Fortschritte zur Stagnation führen. Goethe wird die Aussage zugeschrieben, die
wichtigsten Dinge dürften nie der Gnade der unwichtigsten Dinge ausgeliefert
werden, 251 aber obwohl dieser Wahrspruch weise klingt, trifft er manchmal ein-
fach nicht zu. Manchmal kann das Wichtigste nicht getan werden, bevor das
Unwichtigste abgeschlossen ist, weshalb die einzige Möglichkeit darin besteht,
dem Unwichtigen die gleiche Bedeutung wie dem Wichtigen zuzusprechen, was
es blockiert.
Wenn eine Aufgabe nicht in Angriff genommen werden kann, bevor eine
andere erledigt ist, sprechen die Ablaufplanungstheoretiker von einer »Präzedenz-
beschränkung«. Die Operations-Research-Expertin Laura Albert McLay erklärt,
dass die Berücksichtigung dieses Prinzips in ihrem eigenen Haushalt schon oft
entscheidend gewesen ist: »Es kann sehr hilfreich sein, sich diese Dinge bewusst
zu machen. Wenn man mit drei Kindern den Alltag bewältigen will, muss man
sich die Zeit natürlich gut einteilen. […] Wir können das Haus nicht verlassen,
ohne dass die Kinder gefrühstückt haben, und sie können nicht frühstücken,
wenn ich ihnen keinen Esslöffel gebe. Manchmal verzögert sich alles, weil man
eine Kleinigkeit vergessen hat. Wenn man einen Algorithmus für die Ablauf-
planung anwenden will, ist es sehr hilfreich zu wissen, was das ist, und es zu
berücksichtigen. Es hilft mir jeden Tag, Dinge zu erledigen.«252
Dasselbe Prinzip wandte der Planungsexperte Jan Karel Lenstra an, als er im
Jahr 1979 seinem Freund Gene beim Umzug in eine neue Wohnung in Berkeley
half. »Gene schob etwas hinaus, das erledigt werden musste, bevor wir etwas tun
konnten, das dringend war.« Lenstra erinnert sich, dass sie einen Lieferwagen
zurückgeben mussten, den sie jedoch brauchten, um ein Gerät zurückzubringen,
das sie jedoch brauchten, um etwas in der Wohnung zu reparieren. Die Reparatur
in der Wohnung schien nicht dringend (daher wurde sie hinausgeschoben), aber
die Rückgabe des Lieferwagens war es. »Ich erklärte ihm, dass wir die erste Auf-
gabe als noch dringender einstufen mussten«, berichtet Lenstra. Als wichtiger
Vertreter der Scheduling-Theorie war er durchaus berufen, seinem Freund in
diesen Fragen Ratschläge zu geben, aber in diesem Fall war er mit einer be-
sonders köstlichen Ironie konfrontiert: Dies war ein Lehrbeispiel für eine durch
Präzedenzbeschränkungen verursachte Prioritätsumkehrung – und der vielleicht
renommierteste Experte für Präzedenzbeschränkungen war niemand anderer als
sein Freund Gene, das heißt Eugene Lawler.253

144
Die Bremsschwelle

DIE BREMSSCHWELLE

Wenn man bedenkt, dass er einen großen Teil seines Lebens mit der Klärung
der Frage verbrachte, wie man eine Abfolge von Aufgaben am effizientesten
erledigen konnte, ist es verblüffend, auf welchen Umwegen Eugene Lawler zu
seiner Berufung gelangte.254 Er studierte Mathematik an der Florida State Uni-
versity und begann im Jahr 1954 ein Doktoratsstudium in Harvard, verließ die
Universität jedoch, ohne dissertiert zu haben. Er studierte eine Weile Wirtschafts-
wissenschaften und begann nach einem Zwischenstopp in der Armee in einer
Maschinenbaufabrik zu arbeiten (wo er wohl mit seinem späteren Forschungs-
gebiet konfrontiert wurde), bevor er 1958 nach Harvard zurückkehrte, seinen
Doktor machte und einen Posten an der University of Michigan annahm. Im Jahr
1969 besuchte er in einem Sabbatjahr Berkeley und wurde bei einer Demonstration
gegen den Vietnamkrieg festgenommen. Im Jahr darauf wurde er in den Lehr-
körper von Berkeley aufgenommen und verwandelte sich rasch in das »soziale
Gewissen« der Informatikabteilung.255 Nach seinem Tod im Jahr 1994 rief die
Association for Computing Machinery zu seinen Ehren eine Auszeichnung ins
Leben, die Personen verliehen wird, die sich um die Nutzung des humanitären
Potenzials der Computerwissenschaft verdient gemacht haben.256
Lawlers frühe Forschung zu Präzedenzbeschränkungen legte den Schluss
nahe, dass man diese Hindernisse relativ leicht bewältigen konnte. Man nehme
zum Beispiel den Earliest-Due-Date-Algorithmus, der die maximale Verspätung
einer Gruppe von Tätigkeiten minimiert. Wenn die Aufgaben Präzedenz-
beschränkungen unterworfen sind, wird die Anordnung schwieriger: Man kann
nicht einfach in der Reihenfolge der Fertigstellungstermine vorgehen, wenn einige
Aufgaben nicht in Angriff genommen werden können, bevor andere erledigt sind.
Aber im Jahr 1968 bewies Lawler, dass dies kein Problem ist, solange man den
Ablaufplan von hinten nach vorne gestaltet: Man muss sich nur die Aufgaben
ansehen, von denen keine anderen Aufgaben abhängen, und sie mit dem spätesten
Fertigstellungstermin ans Ende des Zeitplans stellen. Anschließend wiederholt
man diesen Prozess und berücksichtigt erneut nur jene Aufgaben, von denen keine
(der bisher noch nicht eingeplanten) Tätigkeiten abhängen.257
Aber als sich Lawler eingehender mit den Präzedenzbeschränkungen be-
schäftigte, machte er eine interessante Entdeckung. Wie wir gesehen haben,
ist der Shortest-Processing-Time-Algorithmus die optimale Strategie, wenn

145
Ablaufplanung

wir so möglichst schnell eine möglichst große Zahl von Aufgaben in unserer
To-do-Liste abhaken wollen. Sind jedoch einige unserer Aufgaben Präzedenz-
beschränkungen unterworfen, so gibt es keine einfache oder offenkundige Ab-
wandlung von Shortest-Processing-Time, um dieser Tatsache gerecht zu werden.
Obwohl das wie ein elementares Ablaufplanungsproblem wirkte, gelang es
weder Lawler noch einem anderen Forscher, eine effiziente Lösung dafür zu
finden. Es war sogar noch schlimmer: Lawler entdeckte bald, dass dieses Problem
zu denen gehörte, für die es nach Einschätzung der meisten Informatiker keine
effiziente Lösung gab – es war »nicht handhabbar«.* Die erste Bremsschwelle, auf
die die Scheduling-Theorie stieß, war in Wahrheit eine Ziegelmauer.258
Wie wir beim Szenario »Dreifach oder nichts« gesehen haben, zu dem die
optimale Stopptheorie wenig zu sagen hat, gibt es nicht für jedes Problem, das
formuliert werden kann, eine Lösung. In der Ablaufplanung ist definitionsgemäß
klar, dass es für jede Gruppe von Aufgaben und Beschränkungen irgendeinen Plan
gibt, der am besten ist, weshalb es für Scheduling-Probleme an sich immer eine
Lösung gibt – es kann jedoch sein, dass es einfach keinen Algorithmus gibt, mit
dem man in einem angemessenen Zeitraum den optimalen Ablauf finden kann.
Angesichts dessen konnten Forscher wie Lawler und Lenstra nicht umhin,
folgende Frage zu stellen: Wie groß war der Anteil der nicht handhabbaren
Scheduling-Probleme? Zwanzig Jahre, nachdem Selmer Johnson mit seiner Arbeit
über das Buchbinden den Anstoß zur Erforschung der Ablaufplanung gegeben
hatte, verwandelte sich die Suche nach individuellen Lösungen in ein sehr viel
größeres und ehrgeizigeres Unternehmen: in eine Entdeckungsreise, deren Ziel
es war, das gesamte Reich der Scheduling-Theorie zu kartieren.259
Dabei stellten die Forscher fest, dass schon die geringste Änderung an einem
Scheduling-Problem dazu führen kann, dass es sich von einem handhabbaren in
ein nicht handhabbares Problem verwandeln konnte und umgekehrt. Beispiels-
weise verringert der Moore-Algorithmus die Zahl der verspäteten Tätigkeiten
(oder verdorbenen Früchte), wenn sie alle den gleichen Wert haben – aber wenn
einige wichtiger sind als andere, wird das Problem unlösbar und es gibt keinen
Algorithmus mehr, der automatisch den optimalen Zeitplan liefern kann. 260
Desgleichen verwandeln sich fast alle Probleme, für die es eigentlich effiziente
Lösungen gibt, in unlösbare, wenn man eine bestimmte Zeit warten muss, bevor

* In Kapitel 8 werden wir uns eingehender mit den »nicht handhabbaren« Problemen befassen.

146
Alles fallen lassen: Präemption und Ungewissheit

man einige der Aufgaben in Angriff nehmen kann.261 Das Verbot, die Mülltonne
vor Einbruch der Dunkelheit auf die Straße zu schieben, mag vernünftig sein,
aber es wird den Kalender unhandlich machen.
Die Wissenschaftler sind noch damit beschäftigt, die Grenzen der Scheduling-
Theorie zu ziehen. Eine neuere Studie hat gezeigt, dass der Status von 7 Prozent
der Probleme noch ungeklärt ist; dies ist die Terra incognita der Ablaufplanung.262
Über die 93 Prozent die wir verstehen, gibt es keine guten Nachrichten: Nur
9 Prozent dieser Probleme können effizient gelöst werden, die übrigen 84 Pro-
zent haben sich als schwer handhabbar erwiesen.* Mit anderen Worten, für die
meisten Ablaufplanungsprobleme gibt es keine handhabbare Lösung. Wenn Sie
den Eindruck haben, dass die Organisation Ihres Kalenders eine überwältigende
Aufgabe ist, liegt das möglicherweise daran, dass es tatsächlich so ist. Dennoch
sind die beschriebenen Algorithmen oft der Ausgangspunkt für die Lösung dieser
schwierigen Probleme – es mag keine perfekten Lösungen geben, aber zumindest
lassen sich jene finden, die so gut wie irgend möglich sind.

ALLES FALLEN LASSEN: PRÄEMPTION


UND UNGEWISSHEIT

Der beste Zeitpunkt, um einen Baum zu pflanzen, war vor zwanzig


Jahren. Der zweitbeste ist heute.
Redensart

Bisher haben wir uns nur mit den Faktoren beschäftigt, welche die Ablaufplanung
erschweren. Es ist jedoch auch möglich, die Planung zu erleichtern. Dazu muss
man einen laufenden Vorgang unterbrechen und zu einem anderen übergehen.
Wie sich herausstellt, verändert diese als »Präemption« bezeichnete Strategie die
Spielregeln vollkommen.
Eine Verringerung der maximalen Verspätung (zum Beispiel beim Bedienen
der Kunden in einem Coffeeshop) oder der Summe der Fertigstellungszeiten

* Die Lage ist jedoch nicht so trüb, wie man angesichts dieser Zahlen meinen könnte, denn hier sind
auch Ablaufplanungsprobleme enthalten, die mehrere Maschinen betreffen – sie haben also eher mit
dem Management einer Gruppe von Mitarbeitern als mit der Organisation des Terminkalenders zu
tun.

147
Ablaufplanung

(zum Beispiel zur raschen Abarbeitung der To-do-Liste) wird rasch unmöglich,
wenn bestimmte Tätigkeiten nicht bis zu einem bestimmten Zeitpunkt in Angriff
genommen werden können. Aber es gibt durchaus effiziente Lösungen dafür,
wenn präemptive Eingriffe erlaubt sind. In beiden Fällen sind die klassischen
Strategien – Frühester Fertigstellungstermin (Earliest Due Date) und Kürzeste
Bearbeitungszeit (Shortest Processing Time) – mit einer einigermaßen einfachen
Modifikation am ehesten erfolgversprechend.263 Wenn der Zeitpunkt kommt, zu
dem eine Aufgabe in Angriff genommen werden muss, können wir diese Aufgabe
mit dem gegenwärtig laufenden Vorgang vergleichen. Wenn wir Earliest-Due-
Date anwenden und die neue Aufgabe noch vor der gegenwärtigen bewältigt
werden muss, müssen wir den Schalter umlegen; wenn nicht, können wir den
gegenwärtigen Vorgang weiterlaufen lassen. Wenn wir mit Shortest-Processing-
Time arbeiten und die neue Aufgabe schneller als die gegenwärtige abgeschlossen
werden kann, sollten wir die gegenwärtige unterbrechen und die neue in Angriff
nehmen; wenn nicht, können wir den gegenwärtigen Vorgang fortsetzen.
Nun kann der Betreiber einer Maschinenwerkstatt in einer guten Woche
möglicherweise genau wissen, was in den nächsten Tagen von ihm erwartet wird,
aber die meisten von uns sind normalerweise zumindest teilweise im Blindflug
unterwegs. Zum Beispiel kann es sein, dass wir nicht einmal sicher sind, wann wir
in der Lage sein werden, ein bestimmtes Projekt in Angriff zu nehmen. (Wann
wird mir Soundso eine klare Antwort auf diese und jene Frage geben?) Und jeden
Augenblick können wir telefonisch oder per E-Mail darüber in Kenntnis gesetzt
werden, dass wir eine ganz neue Aufgabe in unseren Zeitplan aufnehmen müssen.
Wie sich herausstellt, sind Earliest-Due-Date und Shortest-Processing-Time
selbst dann, wenn wir nicht wissen, wann eine Tätigkeit beginnen wird, immer
noch optimale Strategien, die uns (im Durchschnitt) das beste mögliche Ergebnis
angesichts von Ungewissheit garantieren. Wenn zu unvorhersehbaren Zeitpunkten
Aufgaben auf unserem Schreibtisch landen, besteht die optimale Strategie zur
Verringerung der maximalen Verspätung immer noch in der präemptiven Version
von Earliest-Due-Date – wir wechseln zur neuen Aufgabe, wenn sie früher fertig-
gestellt werden muss als die gegenwärtige; ansonsten kann sie ignoriert werden.264
Auch die präemptive Version von Shortest-Processing-Time – wir vergleichen
die für die Fertigstellung der laufenden Tätigkeit erforderliche Zeit mit der Zeit,
die wir benötigen würden, um die neue Aufgabe zu erledigen – ist die optimale
Strategie zur Minimierung der Summe der Fertigstellungszeiten.265

148
Die Präemption ist nicht kostenlos: Der Kontextwechsel

Die gewichtete Version von Shortest-Processing-Time könnte sogar die beste


generelle Scheduling-Strategie in Situationen der Ungewissheit sein. Sie be-
inhaltet eine einfache Empfehlung für das Zeitmanagement: Jedes Mal, wenn
eine neue Aufgabe hereinkommt, teilen wir ihre Bedeutung durch die für die
Erledigung benötigte Zeit. Ist dieser Wert höher als der für die Tätigkeit, mit
der wir gegenwärtig beschäftigt sind, so wechseln wir zur neuen Aufgabe; wenn
nicht, bleiben wir bei der gegenwärtigen. Dieser Algorithmus kommt einem
Generalschlüssel oder einem Schweizer Armeemesser für die Ablaufplanung
am nächsten. Unter bestimmten Annahmen verringert er nicht nur die Summe
der gewichteten Fertigstellungszeiten, was man erwarten würde, sondern auch
die Summe der Gewichte der verspätet erledigten Aufgaben und die Summe der
gewichteten Verspätungen dieser Vorgänge.266
Interessant ist, dass eine Optimierung all dieser anderen Maße unmöglich
ist, wenn wir den Zeitpunkt des Beginns und die Dauer der Vorgänge im Voraus
kennen. So liefert die Auseinandersetzung mit der Auswirkung der Ungewiss-
heit auf die Ablaufplanung eine Erkenntnis, die der Intuition widerspricht: Es
gibt Fälle, in denen die Hellsicht ein Hindernis ist. Selbst mit vollkommener
Kenntnis der Zukunft kann die Gestaltung des perfekten Zeitplans praktisch
unmöglich sein. Im Gegensatz dazu wird uns die Anpassung an die Situation und
die Reaktion auf hereinkommende Aufträge keinen so perfekten Zeitplan liefern
wie ein Blick in die Zukunft – aber das Beste, was wir tun können, ist sehr viel
leichter zu berechnen. Das ist ein gewisser Trost. Wie der Wirtschaftsautor und
Programmierer Jason Fried schreibt: »Sie denken, Sie könnten nicht anfangen,
solange Sie keinen hieb- und stichfesten Plan haben? Ersetzen Sie »Plan« durch
»Vermutung« und entspannen Sie sich.«267 Die Scheduling-Theorie belegt das.
Wenn die Zukunft im Nebel liegt, brauchen wir keinen Kalender, sondern
eine To-do-Liste.

DIE PRÄEMPTION IST NICHT KOSTENLOS:


DER KONTEXTWECHSEL

Je eiliger ich gehe, desto weiter falle ich zurück.


Stickerei, gesehen in Boonville (Kalifornien)

149
Ablaufplanung

Programmierer führen keine Gespräche, weil sie nicht unter-


brochen werden dürfen. […] Sich mit anderen Menschen (oder
ihrer Repräsentation in Telefonen und Türklingeln) abzustimmen,
bedeutet zwangsläufig, den Gedankenfluss zu unterbrechen. Unter-
brechungen bedeuten sichere Fehler. Man darf den Gedankenfluss
nicht unterbrechen.
Ellen Ullman268

Die Scheduling-Theorie erzählt alles in allem also eine durchaus ermutigende


Geschichte. Es gibt einfache, optimale Algorithmen für viele Scheduling-
Probleme, und diese Probleme haben verblüffende Ähnlichkeit mit Situationen,
denen wir täglich in unserem Leben begegnen. Aber wenn es darum geht, die
Ablaufplanung für eine einzelne Maschine in der realen Welt vorzunehmen,
wird es kompliziert.
Erstens sind sowohl Menschen als auch Computerbetriebssysteme mit einer
besonderen Herausforderung konfrontiert: Die Maschine, welche die Abläufe
planen muss, ist zugleich die Maschine, deren Abläufe geplant werden. Womit
sich die Klärung der To-do-Liste in einen Punkt auf der To-do-Liste verwandelt –
und selbst ebenfalls priorisiert und geplant werden muss.
Zweitens ist die Präemption nicht gratis. Jedes Mal, wenn wir die Aufgabe
wechseln, bezahlen wir einen Preis dafür – in der Informatik wird das als Kontext­
wechsel bezeichnet. Wenn ein Computerprozessor seine Aufmerksamkeit von
einem Problem abwendet, entsteht immer ein gewisses Maß an Overheadkosten.
Der Prozessor muss den Punkt, an dem er den Vorgang unterbricht, markieren
und die gesamte mit diesem Programm verbundene Information beiseitelegen.
Dann muss er herausfinden, welches Programm er als Nächstes ausführen soll,
und die gesamte für dieses Programm relevante Information aufrufen, den ent-
sprechenden Punkt im Code finden und in Gang kommen.
Nichts von diesem Hin- und Herschalten ist »wirkliche Arbeit«, nichts davon
bringt eines der Programme voran, zwischen denen der Computer hin- und her-
wechselt. Es ist Metaarbeit. Jeder Kontextwechsel verschwendet Zeit.
Menschen müssen offenkundig ebenfalls einen Preis für Kontextwechsel
bezahlen. Wir spüren, dass er mit Kosten verbunden ist, wenn wir Papiere auf
unserem Schreibtisch bewegen, auf dem Computer Dokumente öffnen und
schließen, einen Raum betreten, ohne uns zu erinnern, weshalb wir dort sind, oder

150
Die Präemption ist nicht kostenlos: Der Kontextwechsel

einfach »Wo war ich stehen geblieben?« sagen. Die Psychologen haben gezeigt,
dass Aufgabenwechsel sowohl Verzögerungen als auch Fehler mit sich bringen
können – wobei nicht Mikrosekunden, sondern Minuten verloren gehen.269 Um
diese Größenordnung richtig einzuordnen: Jeder, der in einer Stunde mehr als
einige wenige Male unterbrochen wird, läuft Gefahr, überhaupt keine Arbeit zu
bewältigen.
Persönlich haben wir festgestellt, dass sowohl für das Programmieren als
auch für das Schreiben das gesamte System genutzt werden muss, weshalb die
Kosten des Kontextwechsels hier ungemein hoch sind. Ein befreundeter Soft-
wareentwickler erklärte uns, dass die normale Arbeitswoche nicht gut zu seinem
Arbeitsfluss passt, da er an einem Sechzehn-Stunden-Tag mehr als doppelt so
produktiv ist wie an einem Acht-Stunden-Tag. Brian betrachtet das Schreiben
als eine Art von Schmiedehandwerk: Schon das Erhitzen des Metalls dauert
eine Weile. In seinen Augen hat es keinen Sinn, weniger als neunzig Minuten
für das Schreiben zu reservieren, da er die erste halbe Stunde damit verbringt,
im Kopf einen großen Block von »Wo war ich stehengeblieben?« aufzurufen. Der
Scheduling-Experte Kirk Pruhs von der University of Pittsburgh hat dieselbe Er-
fahrung gemacht. »Wenn ich weniger als eine Stunde Zeit habe, mache ich statt
dessen einfach Erledigungen, denn die ersten fünfunddreißig Minuten gehen
dafür drauf, mir darüber klar zu werden, was genau ich tun will – und dann bleibt
mir wahrscheinlich nicht genug Zeit, um es zu tun.«270
Rudyard Kiplings berühmtes Gedicht »If –« endet mit einem Aufruf zum
Zeitmanagement: »Wenn du die unerbittliche Minute mit sechzig genutzten
Sekunden füllen kannst …«
Ach, wenn das nur möglich wäre. Die Wahrheit ist, dass Overheadkosten
unvermeidlich sind, das heißt ein Zeitverlust für Metaarbeit, für die Logistik der
Buchhaltung und das Aufgabenmanagement. Dies ist eine der unverzichtbaren
Abwägungen bei der Ablaufplanung. Und je mehr Arbeit wir auf uns nehmen,
desto höher werden die Gemeinkosten. Im schlimmsten Fall bekommen wir es
mit einem als Seitenflattern bezeichneten Phänomen zu tun.

151
Ablaufplanung

SEITENFLATTERN

Gage: Herr Zuckerberg, habe ich Ihre ungeteilte Aufmerksamkeit?


[…]

Zuckerberg: Sie haben einen Teil meiner Aufmerksamkeit – Sie


haben die Mindestmenge.
The Social Network271

Ein Computer bewältigt mehrere Aufgaben gleichzeitig dank eines als »Threading«
bezeichneten Prozesses, den man sich als Jonglieren mit mehreren Bällen vor-
stellen kann. So wie ein Jongleur, der mit vier Bällen arbeitet, immer nur einen
Ball wirft, während sich die drei anderen in der Luft befinden, arbeitet auch eine
CPU immer nur an einem Programm, wobei sie derart schnell zwischen den
Programmen hin- und herwechselt (innerhalb von zehntausendstel Sekunden),
dass es den Anschein hat , als würde sie gleichzeitig einen Film abspielen, das Inter-
net durchsuchen und den Benutzer von eingehenden E-Mails benachrichtigen.
In den Sechzigerjahren begannen die Informatiker, darüber nachzudenken,
wie man die Aufteilung der Computerressourcen zwischen verschiedenen Auf-
gaben und Benutzern automatisieren konnte. Es war eine spannende Zeit, erzählt
Peter Denning, der heute einer der führenden Experten für Computermultitasking
ist und damals als Doktorand am MIT arbeitete. Spannend und ungewiss: »Wie
teilt man einen Hauptspeicher zwischen mehreren Aufgaben auf, wenn einige
wachsen und einige schrumpfen wollen und sie miteinander interagieren, wenn
sie versuchen, einander Speicher zu stehlen und so weiter? […] Wie kann man all
diese Interaktionen managen? Niemand wusste etwas darüber.«272
In Anbetracht der Tatsache, dass die Forscher noch nicht wirklich wussten,
was sie taten, überrascht es nicht, dass sie bei ihren Bemühungen auf Hinder-
nisse stießen. Insbesondere ein Problem faszinierte sie. Wie Denning erklärt,
tritt unter bestimmten Bedingungen ein dramatisches Problem auf, »wenn man
der Programmmischung weitere Aufträge hinzufügt. Irgendwann überschreitet
man eine kritische Schwelle – es ist nicht vorhersehbar, wo genau das geschieht,
aber man sieht, wann man den Punkt erreicht hat –, und das System scheint
plötzlich zu sterben.«

152
Seitenflattern

Sehen wir erneut dem Jongleur zu. Mit einem Ball in der Luft hat er genug
Zeit, weitere Bälle hochzuwerfen. Aber was geschieht, wenn der Jongleur nur
einen Ball mehr in die Luft wirft, als er bewältigen kann? Dann lässt er nicht
diesen Ball, sondern alle Bälle fallen. Es stürzt buchstäblich das ganze System
ab. Denning beschreibt es so: »Die Initialisierung eines zusätzlichen Programms
hat einen vollständigen Zusammenbruch verursacht. […] Der scharfe Gegensatz
zwischen den beiden Zuständen scheint auf den ersten Blick schwer nachvollzieh-
bar zu sein, denn man würde erwarten, dass die Systemleistung Schritt für Schritt
nachlassen wird, wenn der Hauptspeicher mit immer neuen Programmen belastet
wird.«273 Stattdessen kommt es zur Katastrophe. Es ist nachvollziehbar, dass ein
Übermaß an Aufgaben einen menschlichen Jongleur plötzlich vollkommen über-
wältigen kann – aber wie kann einer Maschine so etwas passieren?
Hier überschneidet sich die Scheduling-Theorie mit der Speichertheorie.
Der Zweck von Cache-Speichern ist es, die »Arbeitsmittel« der benötigten
Elemente für den raschen Zugriff verfügbar zu halten. Eine Möglichkeit, das
zu tun, besteht darin, die gegenwärtig vom Computer verwendete Information
im schnellen Pufferspeicher statt auf der langsamen Festplatte abzulegen. Aber
wenn eine Aufgabe erfordert, dass mehr Dinge berücksichtigt werden, als in den
Speicher passen, verbringt man möglicherweise mehr Zeit damit, Information
in und aus dem Speicher zu verschieben, als damit, die eigentliche Arbeit zu
bewältigen. Dazu kommt, dass der neu eingeleitete Vorgang beim Wechsel
der Aufgaben möglicherweise Platz für seinen Arbeitsbereich schafft, indem
er Teile anderer Arbeitsbereiche aus dem Speicher verdrängt. Nach der Re-
aktivierung wird der nächste Vorgang dann Teile seines Arbeitsbereichs von der
Festplatte anfordern und sie wieder in den Pufferspeicher zwängen, womit er
wiederum andere Aufgaben verdrängen würde. Dieses Problem – die Vorgänge
stehlen einander Speicherplatz – kann in Systemen mit mehreren Speicherebenen
zwischen Prozessor und Speicher noch gravierendere Folgen haben. Peter Zijlstra,
einer der Entwicklungsleiter des Schedulers für das Betriebssystem Linux, er-
klärt: »Die Cache-Speicher werden von der gegenwärtigen Arbeit belastet, und
durch einen Kontextwechsel annulliert man praktisch alle Caches. Und das tut
weh.«274 Im Extremfall läuft ein Programm vielleicht gerade lang genug, um die
Elemente, die es benötigt, in den Speicher zu befördern, bevor es Platz für ein
weiteres Programm macht, das seinerseits gerade lang genug laufen kann, um
diese Daten zu überschreiben.

153
Ablaufplanung

Dieses Phänomen wird als »Seitenflattern« bezeichnet: Ein System arbeitet auf
Hochtouren – und tritt auf der Stelle. Denning diagnostizierte dieses Phänomen
erstmals im Kontext des Speichermanagements, aber die Informatiker verwenden
den Begriff »Seitenflattern« mittlerweile für fast jede Situation, in der das System
zum Stillstand kommt, weil es vollkommen mit Metarbeit ausgelastet ist.275 Die
Leistung eines vom Seitenflattern betroffenen Computers lässt nicht schrittweise
nach: Sie stürzt von einer Klippe. Die »wirkliche Arbeit« ist praktisch auf null
reduziert, was auch bedeutet, dass es fast unmöglich ist, sich aus der Situation
zu befreien.
Das Seitenflattern ist ein vertrauter menschlicher Zustand. Wenn Sie schon
einmal aufhören wollten, alles gleichzeitig zu tun, um die Chance zu haben
aufzuschreiben, was Sie tun sollten, jedoch keine Zeit dafür fanden – nun, dann
litten Sie unter Seitenflattern. Und der Grund dafür ist bei Menschen eigentlich
derselbe wie bei Computern: Jede Aufgabe zehrt an unseren begrenzten kognitiven
Ressourcen. Wenn die bloße Aufgabe, uns an alles zu erinnern, was wir tun
sollen, unsere gesamte Aufmerksamkeit in Anspruch nimmt – oder wenn die
Priorisierung aller Aufgaben die gesamte Zeit verbraucht, die uns zur Verfügung
steht, um diese Aufgaben zu erledigen, oder wenn unser Gedankengang ständig
unterbrochen wird, bevor diese Gedanken in die Tat umgesetzt werden können –,
so fühlt sich das an wie eine Panik, wie eine Lähmung durch Hyperaktivität. Es
ist das Seitenflattern, und die Computer kennen es gut.
Wenn Sie jemals mit einem System mit Seitenflattern konfrontiert waren – und
wenn Sie jemals selbst in diesem Zustand gewesen sind –, dann interessieren Sie
sich vielleicht für die Lösungen, die uns die Informatik anbietet. In seiner bahn-
brechenden Arbeit zu dem Thema aus den Sechzigerjahren erklärte Denning, ein
Gramm Vorbeugung sei ein Pfund Heilung wert. Die einfachste Lösung besteht
einfach in der Vergrößerung des Speichers: Zum Beispiel kann man für genug
RAM sorgen, damit die Arbeitsmittel aller laufenden Programme gleichzeitig in
den Speicher passen und der Zeitaufwand für einen Kontextwechsel sinkt. Aber
Vorbeugungsmaßnahmen gegen das Seitenflattern nutzen wenig, wenn man sich
erst einmal mittendrin befindet. Abgesehen davon müssen wir uns mit dem vor-
handenen Speicher begnügen, wenn es um die menschliche Aufmerksamkeit geht.
Eine weitere Möglichkeit, um zu verhindern, dass es überhaupt zum Seiten-
flattern kommt, besteht darin, die Kunst des Neinsagens zu erlernen. Beispiels-
weise sprach sich Dennis dafür aus, dass ein System das Aufrufen eines zu-

154
Seitenflattern

sätzlichen Programms einfach verweigern sollte, wenn es nicht genug freien


Speicherplatz für die Arbeitsmittel gibt. Das verhindert das Seitenflattern bei
Maschinen und ist ein vernünftiger Ratschlag für jeden, der vor einem vollen
Teller sitzt. Aber auch das mag auf diejenigen unter uns, die bereits überlastet sind –
oder aus anderen Gründen außerstande sind, die an sie gerichteten Forderungen
zu erfüllen –, wie ein unerreichbarer Luxus wirken.
In diesen Fällen ist es offenkundig unmöglich, noch härter zu arbeiten, aber
man kann … dümmer arbeiten. Zu den größten Verursachern von Metaarbeit
beim Kontextwechsel zählt neben den Speichervorgängen die Entscheidung
darüber, was als Nächstes getan werden soll. Das kann gelegentlich ebenfalls die
Bewältigung der eigentlichen Arbeit verhindern. Wenn wir zum Beispiel mit
einem überfließenden Posteingang konfrontiert sind, in dem sich n Nachrichten
befinden, wissen wir aus der Sortiertheorie, dass die wiederholte Durchsicht auf
der Suche nach der wichtigsten Nachricht, die als Nächste beantwortet werden
muss, O(n2) Operationen erfordert – n Suchvorgänge für n Nachrichten. Das be-
deutet, dass die Abarbeitung eines Posteingangs, der dreimal so voll ist wie üblich,
neunmal so lange dauern könnte wie sonst. Obendrein erfordert die Durchsicht
dieser E-Mails, dass wir diese Nachrichten eine nach der anderen im Geist ab-
legen, bevor wir darauf antworten können – und das ist eine sichere Methode,
um im Gehirn Seitenflattern heraufzubeschwören.
In diesem Zustand macht man praktisch überhaupt keine Fortschritte. Sogar
die Ausführung der Tätigkeiten in der falschen Reihenfolge ist besser, als gar
nichts zu tun. Anstatt die wichtigsten E-Mails zuerst zu beantworten – was eine
Beurteilung sämtlicher Nachrichten erforderlich macht, und diese Beurteilung
kann länger dauern als die eigentliche Beantwortung –, sollte man also möglicher-
weise einen Bogen um diese Falle der quadratischen Laufzeit machen und die
E-Mails einfach in zufälliger Reihenfolge oder in der Reihenfolge beantworten,
in der sie auf dem Bildschirm auftauchen. Diese Methode wandte das Linux-Ent-
wicklungsteam vor einigen Jahren an, als es seinen Scheduler durch einen in der
Berechnung der Prozessprioritäten weniger »intelligenten« ersetzte, der dieses
Manko jedoch mehr als wettmachte, indem er weniger Zeit für die Berechnung
benötigte.276
Wenn Sie jedoch an Ihren Prioritäten festhalten wollen, gibt es noch eine
andere und noch interessantere Abwägung, die Sie vornehmen können, um Ihre
Produktivität zurückzugewinnen.

155
Ablaufplanung

INTERRUPT-MODERATION

Dass das Echtzeit-Scheduling so komplex und interessant ist, liegt teilweise


daran, dass es im Grunde eine Verhandlung zwischen zwei nicht vollkommen
kompatiblen Prinzipien ist, nämlich zwischen Reaktionsbereitschaft und Durchsatz:
Wie schnell kann man reagieren, und wie viel kann man insgesamt erledigen?
Jeder, der schon einmal in einer Büroumgebung gearbeitet hat, kennt die Spannung
zwischen diesen beiden Maßen. Das ist einer der Gründe dafür, dass es Personen
gibt, deren Aufgabe es ist, Telefonanrufe zu beantworten: Sie sind bereit zu
reagieren, damit andere Durchsatz erzielen können.
Das Leben wird schwieriger, wenn man – wie ein Computer – die Abwägung
zwischen Reaktionsbereitschaft und Durchsatz selbst vornehmen muss. Und die
beste Strategie, um Aufgaben zu bewältigen, könnte paradoxerweise darin be-
stehen, die Geschwindigkeit zu verringern.
Die Informatiker, die die Abläufe in Betriebssystemen planen, legen normaler-
weise einen Zeitabschnitt fest, in dem jedes Programm garantiert zumindest ein
wenig laufen wird, wobei das System jedem Programm einen Teil dieser Zeit zuteilt,
eine sogenannte »Zeitscheibe«. Je mehr Programme laufen, desto kleiner werden
diese Zeitscheiben und desto mehr Kontextwechsel finden in jedem Zeitabschnitt
statt. So wird die Reaktionsbereitschaft auf Kosten des Durchsatzes gewährleistet.
Diese Methode, jedem Prozess in jedem Zeitabschnitt zumindest ein gewisses
Maß an Aufmerksamkeit zu garantieren, kann in Ermangelung von Kontroll-
mechanismen jedoch zur Katastrophe führen. Wenn eine ausreichend große Zahl
von Programmen läuft, wird der Zeitanteil der einzelnen Vorgänge schließlich
so klein werden, dass das System die gesamte Zeitscheibe für den Kontextwechsel
nutzt, nur um im nächsten Augenblick zur nächsten Aufgabe zu wechseln.
Der Schuldige ist die unflexible Garantie der Reaktionsbereitschaft. Daher
legen moderne Betriebssysteme eine Mindestlänge für die Zeitscheiben fest und
lehnen es ab, den Zeitabschnitt weiter zu unterteilen. (Bei Linux zum Beispiel hat
die Mindestzeitscheibe eine Dauer von etwa drei Viertel einer Millisekunde, 277
aber beim Menschen sollte sie realistischerweise mindestens einige Minuten lang
sein.) Werden jenseits dieses Prozesses weitere Prozesse hinzugefügt, so wird der
Zeitabschnitt einfach länger. Das bedeutet, dass Prozesse länger warten müssen,
bevor sie an der Reihe sind, aber wenn sie an der Reihe sind, ist ihre Zeitscheibe
zumindest lang genug, um etwas zu bewerkstelligen.

156
Interrupt-Moderation

Durch die Festlegung eines Mindestzeitraums, in dem ein Vorgang ab-


gearbeitet werden kann, kann leichter verhindert werden, dass die Fixierung
auf die Reaktionsbereitschaft den Durchsatz vollkommen unterdrückt: Wenn
die minimale Zeitscheibe länger ist als der Zeitraum, der für den Kontext-
wechsel benötigt wird, kann das System nie in einen Zustand geraten, in dem
der Kontextwechsel das Einzige ist, was bewältigt wird. Dieses Prinzip ist auch
leicht in eine Empfehlung für das menschliche Leben zu übersetzen. Methoden
wie »Timeboxing« oder die »Pomodoro-Technik«, bei denen man sich tatsächlich
einen Küchenwecker stellt und versucht, einer einzigen Tätigkeit nachzugehen,
bis die Zeit abgelaufen ist, sind Anwendungen dieses Konzepts.278
Aber welche Zeitscheibe ist die richtige? Konfrontiert mit der Frage, wie lange
man zwischen den für die Ausführung einer wiederkehrenden Aufgabe (zum
Beispiel der Kontrolle des Posteingangs) reservierten Intervallen warten sollte,
bietet sich unter dem Gesichtspunkt des Durchsatzes eine einfache Antwort
an: so lange wie möglich. Aber das ist nicht das Ende der Geschichte, denn ein
höherer Durchsatz bedeutet schließlich auch eine geringere Reaktionsbereitschaft.
Für unseren Computer sind nicht die E-Mails die enervierende Unterbrechung,
die er regelmäßig bewältigen muss, sondern wir. Es kann sein, dass wir die Maus
für mehrere Minuten oder auch Stunden nicht bewegen, aber wenn wir es tun,
erwarten wir , dass sich der Zeiger auf dem Bildschirm augenblicklich bewegt,
was bedeutet, dass die Maschine sehr viel Mühe darauf verwenden muss, sich über
unsere Wünsche auf dem Laufenden zu halten. Je häufiger der Rechner Maus und
Tastatur kontrolliert, desto schneller kann er reagieren, wenn wir einen Befehl
geben – aber das bedeutet auch, dass er sehr viel mehr Kontextwechsel vollziehen
muss. Daher folgen Betriebssysteme bei der Entscheidung darüber, wie lang sie
sich einer Aufgabe widmen können, einer einfachen Regel: Sie widmen sich ihr so
lange wie irgend möglich, ohne auf den Benutzer hektisch oder langsam zu wirken.
Wenn wir Menschen kurz das Haus verlassen, um eine Besorgung zu machen,
sagen wir vielleicht etwas wie: »Du wirst gar nicht bemerken, dass ich weg bin.«
Wenn unsere Computer einen Kontextwechsel vollziehen, um sich einer Be-
rechnung zu widmen, müssen sie buchstäblich zu uns zurückkehren, damit wir
bemerken, dass sie fort sind. Um hier die richtige Balance zu finden, haben
die Programmierer von Betriebssystemen auf die Erkenntnisse der Psychologie
zurückgegriffen und gestützt auf Studien zur Psychophysik bestimmt, wie viele
Millisekunden eine Verzögerung dauern kann, bevor das menschliche Gehirn

157
Ablaufplanung

eine Pause oder ein Flimmern registriert.279 Es hat keinen Sinn, sich häufiger als
in diesen Abständen um den Benutzer zu kümmern.
Wenn ein Betriebssystem richtig arbeitet, bemerken wir überhaupt nicht, wie
der Computer an seine Grenzen geht. Selbst wenn der Prozessor unter Höchst-
last arbeitet, können wir die Maus weiter fließend über den Bildschirm bewegen.
Dieses Fließvermögen kostet Durchsatz, aber das ist ein Designzugeständnis,
das die Systemingenieure ganz bewusst machen: Das Betriebssystem vermeidet
so lange wie möglich die Interaktion mit uns und rettet sich, indem es gerade
rechtzeitig die Maus neu darstellt.
Und auch dieses Prinzip kann auf das menschliche Leben übertragen werden.
Die Moral ist, dass wir versuchen sollten, so lange bei einer einzigen Aufgabe zu
bleiben, wie möglich ist, ohne unsere Reaktionsbereitschaft unter das akzeptable
Mindestniveau zu senken. Wenn wir Aufgaben bewältigen wollen, müssen wir
feststellen, wie reaktionsfähig wir sein müssen, um von da an exakt so reaktions-
fähig zu sein, aber kein bisschen mehr.
Wenn Sie feststellen, dass Sie zahlreiche Kontextwechsel vornehmen, weil Sie
eine heterogene Sammlung kurzer Tätigkeiten in Angriff nehmen, können Sie auch
ein anderes Konzept aus der Informatik anwenden: die »Interrupt-Moderation«.
Ein Beispiel: Wenn Sie fünf Kreditkartenrechnungen bekommen, sollten Sie
sie nicht in der Reihenfolge ihres Eintreffens bezahlen, sondern alle auf einmal
erledigen, sobald die fünfte Rechnung eintrifft. Solange die Rechnungen nie
weniger als 31 Tage nach ihrem Eintreffen fällig werden, können Sie zum Bei-
spiel den Monatsersten zum »Rechnungszahlungstag« machen und sich an diesem
Tag hinsetzen und sämtliche Rechnungen begleichen, gleichgültig, ob sie vor drei
Wochen oder vor drei Stunden eingegangen sind. Ähnlich verhält es sich mit der
E-Mail: Wenn Sie keinem Ihrer Korrespondenzpartner innerhalb von 24 Stunden
antworten müssen, können Sie sich darauf beschränken, Ihre Nachrichten einmal
täglich zu kontrollieren. Der Computer selbst tut etwas Ähnliches: Er wartet ein
feststehendes Intervall ab und überprüft alles, anstatt einen Kontextwechsel zu
vollziehen und sich um separate, unkoordinierte Interrupts seiner verschiedenen
Komponenten zu kümmern.*280

* Da Computer dazu neigen, uns dreist Fehlermeldungen und den Cursor unterdrückende Dialogfelder
anzuzeigen, wann immer sie etwas von uns wollen, ist ihr Verhalten ein wenig heuchlerisch. Die Be-
nutzeroberfläche fordert die Aufmerksamkeit des Benutzers in einer Art ein, welche die CPU ihrerseits
selten akzeptieren würde.

158
Interrupt-Moderation

Gelegentlich fällt den Informatikern das Fehlen der Interrupt-Moderation in


ihrem eigenen Leben auf. Peter Norvig, Forschungsleiter bei Google, erklärt: »Ich
musste an einem Tag dreimal für Erledigungen ins Zentrum fahren und dachte:
›Also gut, das ist einfach ein einzeiliger Bug in meinem Algorithmus. Ich hätte
warten oder die Dinge an eine To-do-Liste anhängen sollen, anstatt sie der Reihe
nach einzeln auszuführen.‹«281
Im Alltag finden wir eine kostenlose Interrupt-Moderation bei der Post, wo
sie einfach eine Konsequenz des Zustellungszyklus ist. Da die Post nur einmal
täglich zugestellt wird, kann die Zustellung einer Sendung, die wenige Minuten
nach einem bestimmten Zeitpunkt abgeschickt wurde, fast 24 Stunden länger
dauern als die Zustellung einer Sendung, die wenige Minuten vor diesem Zeit-
punkt aufgegeben wurde. In Anbetracht der Kosten des Kontextwechsels sollten
die Vorteile dieses Ablaufs offenkundig sein: Wir können höchstens einmal am
Tag durch Rechnungen und Briefe bei unseren anderen Aktivitäten unterbrochen
werden. Zudem verlangt der 24-Stunden-Rhythmus der Post nur minimale Re-
aktionsbereitschaft von uns: Es ist gleichgültig, ob wir unsere Antwort fünf
Minuten oder fünf Stunden nach dem Erhalt eines Briefs schicken.
An der Universität bieten Sprechstunden den Professoren eine Möglichkeit, die
Unterbrechungen durch Studenten in einer dafür reservierten Stunde zu bündeln.
Und in der Privatwirtschaft können wir eines der am schärfsten kritisierten
Bürorituale in einem positiveren Licht betrachten. Gemeint ist das wöchentliche
Meeting, das im Grunde eine Interrupt-Moderation ist. Trotz aller Nachteile sind
regelmäßige, fest eingeplante Meetings einer der besten Abwehrmechanismen
gegen die spontane Unterbrechung und den ungeplanten Kontextwechsel.
Der Schutzheilige all jener, die versuchen, Kontextwechsel auf das notwendige
Mindestmaß zu reduzieren, dürfte der legendäre Programmierer Donald Knuth
sein. »Ich tue eines nach dem anderen«, sagt er. »Die Informatiker bezeichnen das
als Batchverarbeitung – die Alternative besteht in ständigen Wechseln zwischen
den Aktivitäten. Ich wechsle nicht zwischen den Aktivitäten.«282 Knuth meint es
vollkommen ernst. Am 1. Januar 2014 nahm er den »TeX Tuneup 2014« in Angriff
und korrigierte sämtliche in den vorangegangenen sechs Jahren gemeldeten Fehler
im Textsatzsystem TeX. Sein Bericht endet mit der heiteren Ankündigung: »Wir
sehen uns beim TeX Tuneup 2021!« Knuth hat seit 1990 keine E-Mail-Adresse.
»Die E-Mail ist wunderbar für Leute, die den Überblick behalten müssen. Aber
das gilt nicht für mich. Ich muss die Grundlagen studieren. Was ich tue, erfordert

159
Ablaufplanung

stundenlange ununterbrochene Konzentration.« Seine Briefpost kontrolliert


Knuth alle drei Monate, seine Fax-Nachrichten alle sechs Monate.283
Aber wir müssen es nicht so weit treiben wie Knuth, um die Inter-
rupt-Moderation zu einem Gestaltungsprinzip für unser Leben zu machen. Die
Post liefert uns die Interrupt-Moderation fast zufällig, anderswo müssen wir sie
selbst gestalten oder einfordern. Unsere piependen und summenden Geräte haben
einen »Nicht stören«-Modus, den wir im Lauf des Tages manuell ein- und aus-
schalten können, aber das ist ein zu grobes Instrument. Stattdessen können wir uns
für Einstellungen einsetzen, welche die Interrupt-Moderation zu einer expliziten
Option machen – dasselbe, was die Geräte intern tun, nur in dem menschlichen
Leben angepassten Zeitintervallen: Melde dich nur einmal alle zehn Minuten,
aber dann sage mir alles.

160
6
DIE BAYESSCHE REGEL
WIE MAN DIE ZUKUNFT VORAUSSAGT

Alles menschliche Wissen ist unsicher, nicht exakt und bruchstück-


haft.
Bertrand Russell284

Die Sonne wird morgen aufgehen. Du kannst deinen letzten Dollar


darauf verwetten, dass die Sonne aufgehen wird.
Annie

B
evor J. Richard Gott im Jahr 1969 sein Doktoratsstudium in Princeton be-
gann, unternahm er eine Europareise. Er sah die Berliner Mauer, die acht
Jahre früher errichtet worden war. Als er im Schatten dieses bedrückenden
Symbols des Kalten Kriegs stand, fragte er sich, wie lange die Mauer wohl Ost
und West trennen würde.285
Bei oberflächlicher Betrachtung wirkt jeder Versuch, eine Vorhersage über
so etwas anzustellen, absurd. Selbst wenn wir die Tatsache außer Acht lassen,
dass es unmöglich ist, die Entwicklungen der Geopolitik vorherzusagen, wirkt
die Frage unter mathematischen Gesichtspunkten lächerlich: Es ist ein Versuch,
anhand eines einzigen Datenpunkts eine Vorhersage anzustellen.
Aber so lächerlich es scheinen mag: Wir machen ständig solche Vorhersagen,
und zwar, weil wir es tun müssen.
Ich komme in einer ausländischen Stadt an eine Bushaltestelle und erfahre,
dass der andere Tourist, der dort steht, seit sieben Minuten wartet. Wann darf ich

161
Die Bayessche Regel

mit dem nächsten Bus rechnen? Lohnt es sich zu warten – und wenn ja, welche
Wartezeit ist angemessen, bevor ich aufgeben sollte?
Eine Freundin hat vor einem Monat einen Mann kennengelernt und fragt mich
um Rat: Ist es zu früh, ihn zur Hochzeitsfeier eines Verwandten mitzunehmen? Die
Beziehung entwickelt sich gut – aber wie weit in die Zukunft kann man planen?
In einer berühmten Präsentation mit dem Titel »Die unvernünftige Effektivität
der Daten« beschreibt Googles Forschungsleiter Peter Norvig, »wie Milliarden
trivialer Datenpunkte zum Verständnis führen können«. 286 Die Medien sagen
uns ständig, dass wir im »Zeitalter von Big Data« leben, in dem Computer diese
Milliarden Datenpunkte zu Mustern verknüpfen können, die mit freiem Auge
nicht zu erkennen sind. Aber bei den Problemen, die besonders relevant für unser
Alltagsleben sind, haben wir es vor allem mit »Small Data« zu tun. Wie Richard
Gott vor der Berliner Mauer müssen wir unsere Schlüsse oft von der kleinsten
denkbaren Menge an Daten ableiten: von einer einzigen Beobachtung.
Wie tun wir das? Und wie sollten wir es tun?
Die Geschichte beginnt im 18. Jahrhundert in England mit einem Unter-
suchungsgebiet, das die großen Mathematiker jener Zeit – einschließlich jener,
die dem Klerus angehörten – unwiderstehlich anzog: dem Glücksspiel.

RÜCKWÄRTSINDUKTION MIT REVEREND BAYES

Dieser Satz, dass Wirkungen und Ursachen nicht durch Vernunft,


sondern durch Erfahrung entdeckbar sind, kann gern für solche
Gegenstände zugestanden werden, von denen wir uns erinnern, dass
sie uns einmal ganz und gar unbekannt waren; denn wir müssen uns
der gänzlichen Unfähigkeit, in der wir uns damals befanden, vorher-
zubestimmen, was aus ihnen entstehen würde, bewusst sein.
David Hume 287

Vor mehr als 250 Jahren zerbrach sich Thomas Bayes, ein pres­by­te­rianischer Pfarrer
in dem beschaulichen englischen Kurort Tunbridge Wells, den Kopf über die Frage,
wie man gestützt auf eine geringe Menge von Daten Vorhersagen anstellen konnte.
Bayes stellte sich folgende Situation vor: Wenn wir zehn Lose für eine uns
unbekannte Lotterie kaufen und fünf dieser Lose prämiert werden, ist es relativ

162
Rückwärtsinduktion mit Reverend Bayes

einfach, die Gewinnchancen in dieser Lotterie zu schätzen: Sie liegen bei 5 von
10 oder 50 Prozent. Aber was geschieht, wenn wir stattdessen ein einziges Los
kaufen und dieses prämiert wird? Glauben wir in diesem Fall tatsächlich, dass
die Wahrscheinlichkeit eines Gewinns bei 1 von 1 oder 100 Prozent liegt? Das
scheint zu optimistisch, nicht wahr? Und wenn ja, wie viel zu optimistisch ist es?
Wie hoch sollten wir die Wahrscheinlichkeit tatsächlich einschätzen?
Für einen Menschen, der so großen Einfluss auf die Geschichte des Denkens unter
Bedingungen der Ungewissheit hat, ist Bayes’ persönliche Geschichte sehr ungewiss.288
Er wurde im Jahr 1701 oder 1702 in der Grafschaft Hertfordshire geboren, möglicher-
weise aber auch in London. Und irgendwann zwischen 1746 und 1749 verfasste er
eine der einflussreichsten Untersuchungen in der Geschichte der Mathematik – ver-
öffentlichte sie jedoch nicht, sondern wandte sich anderen Dingen zu.289
Im Zeitraum zwischen diesen beiden Geschehnissen haben wir etwas größere
Gewissheit. Bayes war der Sohn eines Priesters, studierte Theologie an der Uni-
versität Edinburgh und wurde wie sein Vater zum Priester geweiht. Neben den
theologischen hatte er auch mathematische Interessen, und im Jahr 1736 ver-
teidigte er in einer Schrift die von Newton entwickelte Infinitesimalrechnung
leidenschaftlich gegen einen Angriff von Bischof George Berkeley. 290 Dieser
Arbeit verdankte er die Aufnahme in die Royal Society im Jahr 1742; er wurde
der Gesellschaft als »in Geometrie und sämtlichen Bereichen des mathematischen
und philosophischen Lernens bewandter Gentleman« ans Herz gelegt.
Nach Bayes’ Tod im Jahr 1761 wurde sein Freund Richard Price beauftragt,
seine mathematischen Schriften durchzusehen und herauszufinden, ob etwas
darunter war, das für die Veröffentlichung geeignet war. Price stieß auf eine Ab-
handlung, die ihn faszinierte; er erklärte, sie sei »sehr verdienstvoll« und sollte
erhalten werden.291 Das Thema dieser Abhandlung war das Lotterieproblem, mit
dem wir uns hier beschäftigen:
»Stellen wir uns eine Person vor, die der Ziehung einer Lotterie beiwohnt und
nichts über das Verfahren oder das Verhältnis zwischen Nieten und Gewinnlosen
weiß. Nehmen wir weiter an, dass die Person dieses Verhältnis von der in ihrer
Gegenwart gezogenen Zahl von Nieten gemessen an der Zahl der Gewinnlose
ableiten muss, und dass untersucht wird, welche Schlüsse die Person unter diesen
Umständen vernünftigerweise ziehen kann.«292
Die wesentliche Erkenntnis von Bayes war, dass der Versuch, anhand der
beobachteten Gewinnlose und Nieten auf die Zahl der Gewinnlose im Gesamt-

163
Die Bayessche Regel

bestand an Losen zu schließen, im Grunde eine Rückwärtsinduktion ist. Und


dafür, erklärt er, muss man zunächst von hypothetischen Werten vorwärts in-
duzieren.293 Mit anderen Worten, man muss zuerst feststellen, wie wahrscheinlich
es ist, dass die tatsächlich gezogenen Lose unter verschiedenen Bedingungen
gezogen worden wären. Diese Wahrscheinlichkeit würde die für die Lösung des
Problems benötigte Information liefern.
Nehmen wir beispielsweise an, wir kaufen drei Lose, die allesamt prämiert
werden. Wenn es sich tatsächlich um eine ungewöhnlich großzügige Lotterie
handelt, in der alle Lose Gewinnlose sind, wird sich die Erfahrung der drei
Treffer bei drei Versuchen natürlich bei allen Losen wiederholen, womit wir
eine Gewinnchance von 100 Prozent haben. Wird jedoch nur die Hälfte aller
Lose prämiert, so wird unsere Erfahrung, drei Gewinnlose zu ziehen, in
Fällen eintreten, das heißt in der Fälle. Und wird nur eines von tausend Losen
prämiert, so ist das Ergebnis von drei prämierten Losen ungeheuer unwahrschein-
lich: , das heißt, wir dürfen nur in einem von einer Milliarde Fälle
mit drei Gewinnen rechnen.
Bayes erklärt, dass die Wahrscheinlichkeit, dass sämtliche Lotterielose
Gewinnlose sind, folglich höher ist als die Wahrscheinlichkeit, dass nur die
Hälfte Gewinnlose sind, und dass die Wahrscheinlichkeit, dass die Hälfte der
Lose prämiert werden, größer ist als die Wahrscheinlichkeit, dass nur eines von
tausend prämiert wird. Das haben wir möglicherweise bereits angenommen, aber
Bayes’ Gedankengang ermöglicht es uns, diese Intuition zu quantifizieren. Unter
ansonsten gleichen Bedingungen dürfen wir annehmen, dass es genau achtmal
wahrscheinlicher ist, dass alle Lose prämiert werden, als dass die Hälfte prämiert
wird – und zwar, weil das Ziehungsergebnis in diesem Szenario genau achtmal
wahrscheinlicher ist (100 Prozent gegenüber eins von acht). Und es ist genau 125
Millionen Mal wahrscheinlicher, dass die Hälfte der Lose Gewinnlose sind, als
dass nur jedes tausendste ein Gewinnlos ist – das können wir aus dem Vergleich
zwischen 1 von 8 und 1 von 1 Milliarde schließen.
Das ist das Wesentliche an Bayes’ Gedankengang. Die Vorwärtsinduktion von
hypothetischen Vergangenheiten ist die Grundlage für eine Rückwärtsinduktion
zur wahrscheinlichsten Vergangenheit.
Das war ein einfallsreicher und innovativer Zugang, der jedoch nicht geeignet
war, das Lotterieproblem vollkommen zu lösen. Als Price der Royal Society die
Erkenntnisse von Bayes vorlegte, konnte er feststellen, dass dann, wenn man

164
Die Folgeregel von Laplace

ein einzelnes Lotterielos kaufte und dieses prämiert wurde, eine 15-prozentige
Wahrscheinlichkeit bestand, dass zumindest die Hälfte der Lose Gewinnlose
waren. Aber die Auseinandersetzung mit der Wahrscheinlichkeit von Wahr-
scheinlichkeiten kann ein wenig verwirrend werden. Und würde jemand sagen:
»In Ordnung, aber wie hoch ist die tatsächliche Gewinnchance in dieser Lotterie?«,
so könnten wir ihm immer noch keine Antwort geben.
Die Antwort auf diese Frage – Wie kann aus den verschiedenen möglichen
Hypothesen eine spezifische Erwartung abgeleitet werden? – gab nur wenige
Jahre später der französische Mathematiker Pierre-Simon Laplace.

DIE FOLGEREGEL VON LAPLACE

Pierre-Simon Laplace wurde im Jahr 1749 in der Normandie geboren. Er besuchte


eine katholische Schule und sollte nach dem Willen seines Vaters in den Klerus
eintreten. Tatsächlich studierte er Theologie an der Universität Caen, aber anders
als Bayes, der sein Leben lang zwischen seinen spirituellen und wissenschaftlichen
Neigungen schwankte, wandte er sich schließlich vollkommen von der Seelsorge
ab, um sich der Mathematik zu widmen.294
Im Jahr 1774 veröffentlichte Laplace, der nichts von Bayes’ Arbeit wusste, eine
ehrgeizige Arbeit mit dem Titel Traktat über die Wahrscheinlichkeit der Ursachen
von Ereignissen. Darin beantwortete er die Frage, wie man von beobachteten
Wirkungen rückwärts auf ihre wahrscheinlichen Ursachen schließen konnte.
Wie wir gesehen haben, hatte Bayes einen Weg gefunden, um die relative
Wahrscheinlichkeit einer Hypothese mit der Probabilität einer anderen zu ver-
gleichen. Aber im Fall einer Lotterie gibt es eine buchstäblich unbegrenzte Zahl
von Hypothesen, nämlich eine für jeden denkbaren Anteil der Gewinnlose. An-
hand der Infinitesimalrechnung, der vor nicht allzu langer Zeit noch umstrittenen
Mathematik, zu deren Verteidigern Bayes gezählt hatte, konnte Laplace beweisen,
dass diese riesige Bandbreite von Möglichkeiten auf eine einzige Schätzung
reduziert werden konnte, die obendrein verblüffend präzise war.295 Wenn wir im
Voraus absolut nichts über unsere Lotterie wissen, sollten wir, wenn wir beim
ersten Versuch ein Gewinnlos ziehen, erwarten, dass der Anteil der Gewinnlose
am gesamten Losbestand genau 2/3 ist. Wenn wir drei Lose kaufen und alle drei
prämiert werden, ist der erwartete Anteil der Gewinnlose genau 4/5. Tatsäch-
lich ist die Erwartung bei jeder möglichen Ziehung von w Gewinnlosen in n

165
Die Bayessche Regel

Versuchen einfach die Zahl der Gewinnlose plus eins geteilt durch die Zahl der
Versuche plus zwei: .
Dieses unglaublich einfache Schema für die Schätzung von Wahrschein-
lichkeiten wird als Laplaces Folgeregel bezeichnet und kann in jeder Situation
angewandt werden, in der man die Wahrscheinlichkeit eines Ereignisses ge-
stützt auf sein vergangenes Eintreten schätzen muss. Wenn Sie etwas zehnmal
versuchen, und fünf dieser Versuche erfolgreich sind, so besagt die Folgeregel,
dass die Gesamtwahrscheinlichkeit bei 6/12 oder 50 Prozent liegt, was nahe-
liegend ist. Wenn Sie es nur einmal versuchen und dieser Versuch erfolgreich ist,
ist Laplaces Schätzung von 2/3 sowohl vernünftiger als die Annahme, dass Sie
jedes Mal gewinnen werden, als auch praktischer als Prices Rat, der in diesem
Fall lautet, dass eine Metawahrscheinlichkeit von 75 Prozent einer Gewinnchance
von 50 Prozent oder mehr besteht.296
Laplace wandte seinen statistischen Zugang auf zahlreiche Probleme seiner
Zeit an und untersuchte zum Beispiel, ob die Geburt männlicher und weiblicher
Babys tatsächlich gleich wahrscheinlich war. (Er stellte praktisch mit Gewissheit
fest, dass die Geburt männlicher Babys tatsächlich geringfügig wahrscheinlicher
war als die weiblicher.) Er schrieb auch Philosophischer Versuch über die Wahrschein­
lichkeit, vermutlich das erste Buch zum Thema, das sich an das breite Publikum
wandte und noch immer zu den besten auf diesem Gebiet gehört. Darin erklärte
er seine Theorie und beschäftigte sich mit den Anwendungen auf Recht, Natur-
wissenschaften und Alltagsleben.
Laplaces Folgeregel lieferte die erste einfache Faustregel für die Anwendung
kleiner Datenmengen in der realen Welt. Selbst wenn wir nur einige wenige Be-
obachtungen – oder nur eine einzige – gemacht haben, eignet sie sich als praktische
Orientierungshilfe. Sie wollen ausrechnen, wie wahrscheinlich es ist, dass Ihr
Bus zu spät kommt? Die Chance, dass Ihr Softball-Team gewinnen wird? Zählen
Sie, wie oft das in der Vergangenheit geschehen ist, addieren sie eins, und teilen
Sie diese Zahl durch die Zahl der Chancen plus zwei. Und das Schöne an der
Folgeregel ist, dass sie mit einem einzigen Datenpunkt genauso gut funktioniert
wie mit Millionen. Die Zuversicht der kleinen Annie, dass die Sonne auch am
nächsten Tag wieder aufgehen wird, ist berechtigt, sagt uns die Regel: Da die
Sonnen an etwa 1,6 Billionen aufeinanderfolgenden Tagen aufgegangen ist, ist
die Wahrscheinlichkeit, dass auch der nächste »Versuch« gelingen wird, kaum
von 100 Prozent zu unterscheiden.

166
Die Bayessche Regel und das Vorwissen

DIE BAYESSCHE REGEL UND DAS VORWISSEN

Alle Voraussetzungen sind folgerecht und begreifbar. Warum sollten


wir dann der einen den Vorzug geben, die nicht folgerechter oder be-
greifbarer ist als die übrigen?
David Hume 297

Laplace beschäftigte sich auch mit einer weiteren Modifikation von Bayes’ Argu-
ment, die sich als entscheidend erweisen sollte: Wie sollte man Hypothesen
behandeln, die einfach wahrscheinlicher waren als andere? Ein Beispiel: Es ist
möglich, dass in einer Lotterie 99 Prozent der verkauften Lose prämiert werden,
aber es ist anzunehmen, dass es wahrscheinlicher ist, dass nur 1 Prozent der Lose
prämiert wird. Diese Annahme sollte sich in den Schätzungen niederschlagen.
Sehen wir uns ein konkretes Beispiel an. Wir wollen annehmen, dass uns
ein Freund zwei verschiedene Münzen zeigt. Die eine ist eine normale, »faire«
Münze, bei der die Wahrscheinlichkeit, Kopf oder Zahl zu werfen, bei 50 zu 50
liegt. Die andere ist eine Münze, die auf beiden Seiten ein Bild hat. Unser Freund
steckt die Münzen in einen Beutel und zieht willkürlich eine heraus. Er wirft sie
einmal: Kopf. Welche Münze hat unser Freund wohl geworfen?
Die bayessche Methode, rückwärts zu arbeiten, liefert rasch eine Antwort
auf diese Frage. Mit einer »fairen« Münze werden wir in 50 Prozent der Fälle,
mit einer Münze mit zwei Bildern in 100 Prozent der Fälle das Resultat »Kopf«
erhalten. Daher können wir sagen, dass die Wahrscheinlichkeit bei liegt,
das heißt genau doppelt so hoch ist, dass unser Freund die Münze mit dem Bild
auf beiden Seiten aus dem Sack geholt hat.
Nun wollen wir das Beispiel abwandeln. Diesmal steckt unser Freund neun
faire Münzen und eine Münze mit einem Bild auf beiden Seiten in den Beutel,
zieht eine Münze heraus und wirft sie in die Luft: Kopf. Was dürfen wir jetzt
annehmen? Ist es eine faire Münze oder die mit zwei Bildern?
Auch bei dieser Abwandlung hat Laplace eine verblüffend einfache Antwort
parat. Wie zuvor ist die Wahrscheinlichkeit des Resultats »Kopf« bei einer fairen
Münze exakt halb so groß wie bei einer Münze mit Bild auf beiden Seiten. Aber
in diesem Fall ist die Wahrscheinlichkeit, dass unser Freund eine faire Münze
aus dem Beutel ziehen wird, neunmal so hoch wie die, dass es die Münze mit
doppeltem Bild sein wird. Wie sich herausstellt, können wir diese beiden unter-

167
Die Bayessche Regel

schiedlichen Gegebenheiten nehmen und einfach miteinander multiplizieren:


Dass unser Freund eine faire Münze mit dem Resultat »Kopf« aus dem Beutel
geholt hat, ist genau viereinhalb Mal so wahrscheinlich, wie dass er die Münze
mit Bildern auf beiden Seiten in der Hand hat.
Die mathematische Formel zur Beschreibung dieser Beziehung, die unsere
bestehenden Vorstellungen mit den Beweisen verknüpft, wird als Bayessche Regel
oder Satz von Bayes bezeichnet, obwohl Laplace die meiste Arbeit machte.298
Diese Formel liefert eine bemerkenswert einfache Lösung für das Problem, wie be-
stehende Vorstellungen mit den beobachteten Fakten kombiniert werden können:
Man muss nur ihre Wahrscheinlichkeiten miteinander multiplizieren.299
Damit diese Formel funktionieren kann, müssen wir irgendeine Vorstellung
haben. Würde unser Freund einfach sagen: »Ich habe eine Münze aus diesem
Sack genommen und geworfen, und das Resultat war Kopf. Wie wahrschein-
lich ist es deiner Meinung nach, dass es sich um eine faire Münze handelt?«, so
könnten wir die Frage unmöglich beantworten. Wir müssen zumindest irgendeine
Vorstellung davon haben, was für Münzen in dem Sack waren. (Wir können die
beiden Wahrscheinlichkeiten nicht miteinander multiplizieren, wenn wir keine
von ihnen kennen.) Diese Vorstellung davon, was vor dem Münzwurf »im Beutel
war« – die Wahrscheinlichkeit, dass jede Hypothese zutreffen würde, bevor wir
irgendwelche Daten sahen – wird als A-priori-Wahrscheinlichkeit oder Anfangs-
wahrscheinlichkeit bezeichnet. Und für die Anwendung der Bayesschen Regel
wird stets eine Anfangswahrscheinlichkeit benötigt, selbst wenn es nur eine Ver-
mutung ist. Wie viele Münzen mit Bildern auf beiden Seiten gibt es? Wie leicht
sind sie zu finden? Und wie gut versteht sich unser Freund auf das Schwindeln?
Weil die Bayessche Regel auf A-priori-Wahrscheinlichkeiten angewiesen ist,
war sie zu verschiedenen Zeitpunkten in der Geschichte umstritten, da manche sie
für voreingenommen oder sogar unwissenschaftlich hielten. In Wahrheit kommt
es jedoch nur selten vor, dass uns eine Situation so vollkommen unbekannt ist,
dass wir tatsächlich keinerlei Vorstellung davon haben (auf diesen Punkt werden
wir gleich zurückkommen).
Wenn wir eine Schätzung der A-priori-Wahrscheinlichkeiten haben, können
wir die Bayessche Regel auf ein breites Spektrum von Vorhersageproblemen an-
wenden, gleichgültig, ob große Datenmengen oder, was häufiger vorkommt, nur
wenige Daten vorhanden sind. Die Berechnung der Wahrscheinlichkeit, in der
Lotterie zu gewinnen oder mit einer Münze Kopf zu werfen, ist nur der Anfang.

168
Das kopernikanische Prinzip

Die von Bayes und Laplace entwickelten Methoden sind hilfreich, wann immer
es Ungewissheit und ein paar Daten gibt. Und genau das sind die Bedingungen,
mit denen wir es zu tun haben, wenn wir versuchen, die Zukunft vorherzusagen.

DAS KOPERNIKANISCHE PRINZIP

Vorhersagen sind schwierig, insbesondere Vorhersagen über die Zu-


kunft.
Dänisches Sprichwort 300

Als Richard Gott vor der Berliner Mauer stand, stellte er sich eine einfache Frage:
Wo bin ich? Womit er sagen wollte: An welchem Punkt in der gesamten Lebens-
spanne dieses Gebildes bekomme ich es zu Gesicht? In gewisser Weise stellte
er die temporale Version der räumlichen Frage, die den Astronomen Nikolaus
Kopernikus vier Jahrhunderte früher beschäftigt hatte: Wo sind wir? Wo im
Universum befindet sich die Erde? Kopernikus vollzog eine radikale Paradigmen-
verschiebung und stellte sich die Erde nicht als Mittelpunkt des Universums
vor, sondern gelangte zu der Überzeugung, dass sich unser Planet tatsächlich an
keinem bestimmten Ort befand.
Nun entschloss sich Richard Gott, dasselbe in Bezug auf die Zeit zu tun.
Er nahm an, dass der Augenblick, in dem er bei der Berliner Mauer ein-
getroffen war, kein besonderer war – dass die Wahrscheinlichkeit, dass dies ein
bestimmter Punkt im Leben der Mauer war, genauso groß war wie die, dass es
irgendein anderer Punkt war. Und wenn es jeder Punkt im Leben der Mauer sein
konnte, dann war Gott im Durchschnitt genau in der Mitte ihrer Lebensdauer
dort eingetroffen (da die Wahrscheinlichkeit, dass der Zeitpunkt seines Besuchs
der Mauer vor und nach der Hälfte der Lebensdauer lag, jeweils bei 50 Prozent
lag). Allgemeiner ausgedrückt: Sofern wir es nicht besser wissen, können wir
davon ausgehen, exakt in der Mitte der Dauer eines beliebigen Phänomens Zeugen
desselben zu werden.* Und wenn wir annehmen, dass wir etwas genau in der Mitte
seiner Dauer sehen, liegt auf der Hand, welches die beste Schätzung ist, die wir in
Bezug auf seine weitere Dauer anstellen können: Das Phänomen wird noch genauso

* Das entbehrt nicht einer gewissen Ironie: Wenn es um die Zeit geht, führt uns die Annahme, dass an
unserer Ankunft nichts Besonderes ist, zu der Vorstellung, dass wir im Mittelpunkt stehen.

169
Die Bayessche Regel

lange dauern, wie es bisher gedauert hat. Richard Gott sah die Berliner Mauer acht
Jahre nach ihrem Bau, weshalb seine beste Vermutung war, dass sie noch weitere
acht Jahre stehen würde. (Am Ende hatte sie noch zwanzig Jahre Bestand.)
Aus diesem leicht nachvollziehbaren Gedankengang, den Richard Gott als
Copernican Principle bezeichnete, können wir einen einfachen Algorithmus ab-
leiten, der verwendet werden kann, um Vorhersagen zu allen möglichen Dingen an-
zustellen. Ohne jegliche Erwartungen können wir anhand dieses Algorithmus nicht
nur Dinge wie das Ende der Berliner Mauer, sondern die Dauer verschiedenster
kurz- und langfristiger Phänomene vorhersagen. Das kopernikanische Prinzip
nach Gott besagt, dass die Vereinigten Staaten etwa bis zum Jahr 2255 als Nation
Bestand haben werden, dass Google bis etwa 2032 existieren wird und dass die
Romanze, die unsere Freundin vor einem Monat begonnen hat, wahrscheinlich
noch einen weiteren Monat dauern wird (vielleicht sollten wir ihr raten, noch keine
Hochzeitseinladungen zu verschicken). Dieser Algorithmus sagt uns auch, dass
wir skeptisch sein sollten, wenn wir auf dem Cover des New Yorker unter dem Bild
eines Mannes, der ein Sechs-Zoll-Smartphone mit einem vertrauten Gitter von
App-Icons in der Hand hält, die Bildunterschrift »2525« sehen. Zweifelhaft. Das
Smartphone, das wir kennen, ist kaum ein Jahrzehnt alt, und das kopernikanische
Prinzip nach Gott sagt uns, dass diese Technologie im Jahr 2025 wahrscheinlich
und fünf Jahrhunderte später mit Sicherheit überholt sein wird. Zudem wäre es
einigermaßen überraschend, wenn es New York im Jahr 2525 noch geben würde.301
Ein praktischeres Anschauungsbeispiel ist eine Baustelle, auf der ein Schild
verkündet: »Seit 7 Tagen kein Arbeitsunfall«. Wir sollten uns besser von dieser
Baustelle fernhalten, es sei denn, wir haben dort nur eine sehr kurze Verrichtung zu
erledigen. Und wenn sich ein städtischer Verkehrsbetrieb keines dieser ungemein
nützlichen, aber teuren Anzeigesysteme leisten kann, die den wartenden Fahr-
gästen sagen, wann der nächste Bus kommen wird, liefert uns das kopernikanische
Prinzip nach Gott eine sehr viel einfachere und billigere Alternative. Eine ein-
fache Anzeige, aus der hervorgeht, wie lange es her ist, dass der letzte Bus an
dieser Haltestelle vorbeigekommen ist, liefert wertvolle Hinweise darauf, wann
der nächste zu erwarten ist.
Aber ist das kopernikanische Prinzip nach Gott richtig? Nachdem Richard
Gott seine These in Nature veröffentlicht hatte, wurde die Zeitschrift mit
kritischen Reaktionen überhäuft.302 Die Kritik wird nachvollziehbar, wenn man
versucht, die Regel auf einige näherliegende Beispiele anzuwenden. Wenn wir

170
Bayes trifft Kopernikus

einen Neunzigjährigen kennenlernen, sagt das kopernikanische Prinzip nach Gott


voraus, dass er hundertachtzig Jahre alt werden wird. Und bei der Begegnung mit
einem Sechsjährigen müssten wir davon ausgehen, dass er im zarten Alter von
zwölf Jahren sterben wird.
Um zu verstehen, wo das kopernikanische Prinzip nach Gott funktioniert
und wo nicht, müssen wir noch einmal zu Bayes zurückkehren. Denn trotz seiner
augenscheinlichen Einfachheit ist das kopernikanische Prinzip nach Gott tat-
sächlich eine Variante der Bayesschen Regel.

BAYES TRIFFT KOPERNIKUS

Wenn wir die Zukunft vorhersagen und zum Beispiel etwas über die Lebens-
erwartung der Berliner Mauer herausfinden wollen, sind die Hypothesen, die
wir prüfen müssen, alle möglichen Zeiträume, die das Phänomen dauern kann:
Wird es eine Woche, einen Monat, ein Jahr, ein Jahrzehnt dauern? Wie wir
gesehen haben, müssen wir, um die Bayessche Regel anwenden zu können, zu-
nächst jedem dieser Zeiträume eine A-priori-Wahrscheinlichkeit zuweisen. Und
wie sich herausstellt, ist das kopernikanische Prinzip nach Gott genau das, was
sich aus der Anwendung der Bayesschen Regel anhand einer nichtinformativen
A-priori-Verteilung ergibt.
Auf den ersten Blick mag das wie ein Widerspruch in sich wirken. Wenn
die Bayessche Regel immer voraussetzt, dass wir unsere A-priori-Erwartungen
und -Überzeugungen bestimmen, wie können wir dann keine haben? Im Fall
einer Lotterie bestünde eine Möglichkeit, mit Unkenntnis zu arbeiten, darin,
eine »Gleichverteilung« anzunehmen, in der jeder Anteil von Gewinnlosen als
gleichermaßen wahrscheinlich betrachtet wird.*303 Im Fall der Berliner Mauer
bedeutet eine nichtinformative A-priori-Verteilung, dass wir sagen, dass wir nichts
über den Zeitraum wissen, den wir vorherzusagen versuchen: Die Mauer könnte
ebensogut in den nächsten fünf Minuten fallen wie weitere fünf Jahrtausende
Bestand haben.304

* Genau das tut die Folgeregel von Laplace in ihrer einfachsten Form: Sie nimmt an, dass es ebenso
wahrscheinlich ist, dass 1 Prozent oder 10 Prozent der Lose Gewinnlose sind, wie dass 50 Prozent
oder 100 Prozent Gewinnlose sind. Das Resultat der Anwendung der Formel – nach dem Kauf
eines einzelnen nicht prämierten Lotterieloses hat man eine Chance von 1 zu 3, dass das nächste ein
Gewinnlos sein wird – mag naiv scheinen, aber dieses Ergebnis entspricht genau der Wahrscheinlich-
keit in einer Lotterie, an der man in vollkommenem Unwissen teilnimmt.

171
Die Bayessche Regel

Abgesehen von dieser nichtinformativen A-priori-Verteilung ist die einzige


Tatsache, die wir für die Anwendung der Bayesschen Regel zur Verfügung stellen,
diejenige, dass wir die Berliner Mauer zum ersten Mal gesehen haben, als sie
acht Jahre alt war. Jede Hypothese, die eine Lebenserwartung von weniger als
acht Jahren für die Mauer voraussagt, kann damit sofort ausgeschlossen werden,
da solche Hypothesen überhaupt nicht auf unsere Situation zutreffen können.
(Desgleichen kann eine Münze mit Bildern auf beiden Seiten ausgeschlossen
werden, wenn zum ersten Mal Zahl geworfen wird.) Jeder Zeitraum von mehr
als acht Jahren liegt im Rahmen der Möglichkeiten – aber sollte die Mauer noch
eine Million Jahre Bestand haben, so wäre es ein großer Zufall, dass wir aus-
gerechnet so kurz nach dem Beginn ihrer Existenz darauf gestoßen sind. Folglich
sind enorm lange Lebenserwartungen nicht sehr wahrscheinlich, auch wenn sie
nicht vollkommen ausgeschlossen werden können.
Wenn die Bayessche Regel all diese Wahrscheinlichkeiten miteinander
kombiniert – wobei die wahrscheinlicheren kürzeren Zeiträume die durchschnitt-
liche Prognose verringern, während sie von weniger wahrscheinlichen, aber nicht
unmöglichen erhöht wird – taucht das kopernikanische Prinzip nach Gott auf:305
Wenn wir vorhersagen wollen, wie lange etwas dauern wird, und wir keinerlei
wie auch immer geartetes anderes Wissen darüber besitzen, lautet die beste Ver-
mutung, dass es noch so lange existieren wird, wie es bisher existiert hat.
Tatsächlich war Richard Gott nicht der Erste, der diese Anwendung des
kopernikanischen Prinzips vorschlug. Mitte des 20. Jahrhunderts hatte der
Statistiker Harold Jeffreys untersucht, wie man die Zahl der Straßenbahnwaggons
in einer Stadt anhand der Seriennummer eines einzigen Waggons schätzen konnte,
und war zu dem Ergebnis gelangt, dass man die Seriennummer dieses Waggons
verdoppeln musste. 306 Ein ähnliches Problem tauchte im Zweiten Weltkrieg
auf, als die Alliierten versuchten, die Zahl der in Deutschland produzierten
Panzer zu schätzen. Eine rein mathematische Schätzung auf der Grundlage der
Seriennummern erbeuteter Fahrzeuge lautete, dass die Deutschen jeden Monat
246 Panzer produzierten, während gestützt auf die Daten, die bei aufwändigen
(und gefährlichen) Aufklärungsflügen gesammelt wurden, eine Zahl von 1400
geschätzt wurde. Nach dem Krieg wurde in deutschen Dokumenten die tatsäch-
liche Zahl gefunden: 245.307
Die Erkenntnis, dass das kopernikanische Prinzip nach Gott einfach der
Bayesschen Regel mit nichtinformativer A-priori-Verteilung entspricht, be-

172
A-priori-Wahrscheinlichkeiten in der realen Welt …

antwortet zahlreiche Fragen bezüglich seiner Gültigkeit. Das von Richard Gott
formulierte Prinzip scheint in Situationen, in denen überhaupt nichts bekannt ist,
durchaus gute Vorhersagen zu ermöglichen – zum Beispiel angesichts der Berliner
Mauer im Jahr 1969, als noch nicht einmal sicher war, welche zeitliche Größen-
ordnung angemessen war. Und sie scheint vollkommen unbrauchbar zu sein in
Fällen, in denen wir sehr wohl etwas über den Gegenstand der Prognose wissen.
Die Vorhersage, dass ein neunzigjähriger Mann hundertachtzig Jahre alt werden
wird, scheint deshalb unvernünftig, weil wir bereits viel über die menschliche
Lebenserwartung wissen, weshalb wir bessere Schätzungen anstellen können. Je
umfangreicher die Information, auf die wir die Bayessche Regel anwenden, desto
nützlicher die Vorhersagen, die wir gewinnen können.

A-PRIORI-WAHRSCHEINLICHKEITEN
IN DER REALEN WELT …
Grob gesagt, gibt es in der Welt zwei Dinge: solche, die sich einem »natürlichen«
Wert annähern (oder sich rund um ihn häufen), und solche, die es nicht tun.
Die menschliche Lebenserwartung gehört offensichtlich in die erste Kate-
gorie. Sie folgt im Großen und Ganzen einer »Normalverteilung«, die nach dem
deutschen Mathematiker Carl Friedrich Gauß auch als »Gauß-Verteilung« oder
wegen ihrer charakteristischen Form als »gaußsche Glockenkurve« bezeichnet
wird. Diese Form ist gut zur Veranschaulichung der Lebenserwartung von
Menschen geeignet: Zum Beispiel liegt die durchschnittliche Lebenserwartung
amerikanischer Männer bei etwa 76 Jahren, und die Wahrscheinlichkeit einer
geringeren oder höheren Lebenserwartung sinkt auf beiden Seiten dieses Punktes
ziemlich deutlich. Normalverteilungen haben zumeist eine einzige angemessene
Größenordnung: Eine einstellige Lebenserwartung gilt als tragisch, eine drei-
stellige als außergewöhnlich. Auch viele andere Dinge in der natürlichen Welt
sind normalverteilt, von Körpergröße, Gewicht und Blutdruck des Menschen
über die Mittagstemperatur in einer gegebenen Stadt und den Durchmesser der
Früchte in einem Obstgarten.308
Es gibt jedoch einige Dinge, die nicht normalverteilt scheinen, und zwar
nicht im Geringsten. Beispielsweise haben amerikanische Städte eine Durch-
schnittsbevölkerung von 8226 Personen.309 Fertigt man jedoch ein Diagramm
mit der Zahl der Städte nach Bevölkerungszahl an, so wird man nichts sehen, was

173
Die Bayessche Regel

irgendeine Ähnlichkeit mit einer Glockenkurve hat. Es gibt sehr viel mehr Städte,
die weniger als 8226 Einwohner haben, als Städte, die mehr Einwohner haben.
Gleichzeitig haben die Städte, die größer sind, sehr viel mehr Einwohner als der
Durchschnitt. Derartige Muster sind typisch für »Potenzgesetzverteilungen«.
Sie sind auch als »skalenunabhängige Verteilungen« bekannt, weil sie Mengen
beschreiben, die sich über zahlreiche Größenordnungen erstrecken können: Eine
Stadt kann Dutzende, Hunderte, Tausende, Zehntausende, Hunderttausende
oder Millionen Einwohner haben, weshalb wir keinen Wert für die Größe einer
»normalen« Stadt bestimmen können.310
Die Potenzgesetzverteilung beschreibt eine Vielzahl von alltäglichen
Phänomenen, die dieselbe grundlegende Eigenschaft wie die Bevölkerungen
von Städten haben: Die meisten Werte liegen unter dem Mittelwert, und einige
wenige sehr weit darüber. Die Einspielergebnisse von Filmen, die vier- bis zehn-
stellig sein können, sind ein weiteres Beispiel. Mit den meisten Filmen verdienen
die Produktionsfirmen kaum Geld, aber mit dem gelegentlichen Titanic erzielen
sie … titanische Einnahmen.
Das Geld ist im Allgemeinen ein Bereich, in dem zahlreiche Potenzgesetze
gelten.311 Sowohl die Verteilung von Vermögen als auch die von Einkommen
ist von Potenzgesetzen geprägt. Beispielsweise liegt das mittlere Einkommen
in den Vereinigten Staaten bei 55 688 Dollar – aber da die Verteilung Potenz-
gesetzen unterworfen wird, wissen wir, dass die Zahl der Menschen, die weniger
als dieses Durchschnittseinkommen verdienen, sehr viel größer ist als die Zahl
der Menschen, die mehr verdienen, wobei diejenigen, die mehr verdienen, durch-
aus die Grenzen des Diagramms sprengen können.312 Und genau so ist es: Zwei
Drittel der amerikanischen Bevölkerung verdienen weniger als das Durchschnitts-
einkommen, 313 während das einkommensstärkste 1 Prozent fast das Zehnfache
des Durchschnitts verdient. Und das oberste 1 Prozent des obersten 1 Prozent
verdient noch einmal das Zehnfache davon.314
Man hört oft die Klage, dass »die Reichen immer reicher werden«, und tatsäch-
lich ist der Prozess der »bevorzugten Bindung« eine der sichersten Methoden, um
eine Potenzgesetzverteilung zu erzeugen.315 Die beliebtesten Websites werden am
ehesten verlinkt, die Internetprominenten mit den meisten Followern gewinnen
am ehesten zusätzliche Fans, die angesehensten Unternehmen können am ehesten
neue Kunden an sich binden, die größten Städte locken am ehesten neue Ein-
wohner an. In jedem dieser Fälle ist das Ergebnis eine Potenzgesetzverteilung.

174
… und ihre Vorhersageregeln

Die Bayessche Regel sagt uns, dass dort, wo es darum geht, gestützt auf be-
schränkte Daten Voraussagen anzustellen, kaum etwas so wichtig ist wie gute
A-priori-Wahrscheinlichkeiten, das heißt eine grobe Vorstellung von der Ver-
teilung, aus der die Daten erwartungsgemäß gekommen sind. Voraussetzung für
eine gute Vorhersage ist also ein gutes Gespür dafür, ob wir es mit einer Normal-
verteilung oder einer Potenzgesetzverteilung zu tun haben. Wie sich herausstellt,
liefert uns die Bayessche Regel eine einfache, aber vollkommen andere Faustregel
für die Vorhersage von beiden.

… UND IHRE VORHERSAGEREGELN

Meinten Sie »Das könnte ewig so weitergehen?« in einem positiven


Sinn?
Ben Lerner 316

In der Auseinandersetzung mit dem kopernikanischen Prinzip nach Gott haben


wir gesehen, dass die Bayessche Regel, wenn sie mit einer nichtinformativen
A-priori-Wahrscheinlichkeit gefüttert wird, immer voraussagt, dass die gesamte
Lebenszeit eines Objekts genau doppelt so lang wie sein gegenwärtiges Alter
sein wird. Die nichtinformative A-priori-Verteilung mit ihren sehr unterschied-
lichen möglichen Größenordnungen – die Berliner Mauer, die noch Monate oder
Jahrtausende stehen wird – ist tatsächlich eine Potenzgesetzverteilung. Und für
jede Potenzgesetzverteilung sagt uns die Bayessche Regel, dass die geeignete
Vorhersagestrategie eine Multiplikationsregel ist: Man multipliziere die bisher
beobachtete Menge mit einem konstanten Faktor.317 Bei einer nichtinformativen
A-priori-Verteilung ist dieser konstante Faktor 2 – daher die kopernikanische
Vorhersage. In anderen Fällen von Potenzgesetzverteilungen wird der Multi-
plikator von der exakten Verteilung abhängen, mit der wir es zu tun haben. Bei
den Bruttoeinspielergebnissen von Filmen ist es zum Beispiel 1,4. Wenn wir also
hören, dass ein Film bisher 6 Millionen Dollar eingespielt hat, können wir die
Vermutung anstellen, dass er insgesamt etwa 8,4 Millionen Dollar einspielen wird.
Wenn sich die bisherigen Einnahmen auf 90 Millionen Dollar belaufen, können
wir vermuten, dass es insgesamt etwa 126 Millionen Dollar werden dürften.
Diese Multiplikationsregel ergibt sich direkt aus der Tatsache, dass Potenz-
gesetzverteilungen keine natürliche Größenordnung für das von ihnen be-

175
Die Bayessche Regel

schriebene Phänomen festlegen. Das Einzige, was uns einen Eindruck von der
Größenordnung für unsere Vorhersage gibt, ist also der eine vorhandene Daten-
punkt – zum Beispiel die Tatsache, dass die Berliner Mauer seit acht Jahren steht.
Je größer der Wert dieses einen Datenpunkts, desto größer ist wahrscheinlich
die Größenordnung, mit der wir zu tun haben, und umgekehrt. Es ist möglich,
dass ein Film, der 6 Millionen Dollar eingespielt hat, ein Kassenschlager ist, der
gerade erst in die Kinos gekommen ist, aber es ist sehr viel wahrscheinlicher,
dass es sich um einen der vielen Filme handelt, die lediglich einen einstelligen
Millionenbetrag einspielen.
Wenden wir die Bayessche Regel hingegen mit einer A-priori-Normal-
verteilung an, so erhalten wir eine ganz andere Orientierungshilfe. Statt einer
Multiplikationsregel erhalten wir hier eine Durchschnittsregel: Wir können
uns am »natürlichen« Durchschnitt der Verteilung – ihrer spezifischen Größen-
ordnung – orientieren. Wenn das Alter einer Person beispielsweise geringer ist als
die durchschnittliche Lebenserwartung, dann können wir einfach den Durch-
schnittswert vorhersagen; wenn sich das Alter der Person dem Durchschnitt
nähert oder ihn übersteigt, können wir vorhersagen, dass sie noch einige Jahre
leben wird. Anhand dieser Regel erhalten wir vernünftige Vorhersagen sowohl
für den 90-Jährigen als auch für den 6-Jährigen, nämlich 94 bzw. 77 Jahre. (Für
den 6-Jährigen prognostizieren wir ein wenig mehr als den Durchschnitt von 76
Jahren, weil er es durch die Kindheit geschafft hat: Wir wissen, dass er sich nicht
am linken Extrem der Verteilung befindet.)
Die Dauer von Kinofilmen folgt so wie die Dauer des menschlichen Lebens
einer Normalverteilung: Die Dauer der meisten Filme liegt rund um 100 Minuten,
und zu beiden Seiten dieses Werts finden wir eine sinkende Zahl von Ausnahmen
entlang der Kurve. Aber nicht alle menschlichen Aktivitäten sind derart regeltreu.
Der Dichter Dean Young erklärte einmal, dass ihm schwer ums Herz werde,
wann immer er höre, dass ein Vortragender bei einem Gedicht in nummerierten
Abschnitten den Beginn des vierten Teils ankündige: Wenn das Gedicht mehr als
drei Teile hat, ist alles möglich, und Young weiß, dass er sich auf einen längeren
Vortrag gefasst machen muss. Tatsächlich entspricht seine Verzweiflung der
Bayesschen Regel. Eine Analyse der Länge von Gedichten zeigt, dass sie im
Gegensatz zu Spielfilmen eher einer Potenzgesetzverteilung als einer Normal-
verteilung folgen: Die meisten Gedichte sind kurz, aber einige haben epische
Ausmaße.318 Wenn es also um die Dichtkunst geht, sollten Sie darauf achten,

176
… und ihre Vorhersageregeln

bequem zu sitzen. Etwas Normalverteiltes, das scheinbar zu lange dauert, dürfte


bald enden, aber je länger etwas dauert, das nach Potenzgesetzen verteilt ist, desto
länger wird es voraussichtlich andauern.
Zwischen diesen beiden Extremen gibt es noch eine dritte Kategorie von
Dingen, nämlich jene, deren baldiges Ende weder wahrscheinlicher noch un­
wahrscheinlicher ist, nur weil sie schon eine Weile andauern. Einige Dinge sind
einfach … invariant. Der dänische Mathematiker Agner Krarup Erlang, der
solche Phänomene studierte, formalisierte die Größe der Intervalle zwischen
unabhängigen Ereignissen sogar in einer Funktion, die heute seinen Namen
trägt: der Erlang-Verteilung.319 Die Form dieser Kurve unterscheidet sich von
denen der Normalverteilung und der Potenzgesetzverteilung: Sie hat eine ge-
schwungene Kontur, steigt zu einem sanften Hügel hin an und fällt dann in
einem Ausläufer ab, der steiler als der einer Potenzgesetzkurve, aber flacher als
der einer Normalverteilungskurve ist. Erlang selbst, der Anfang des 20. Jahr-
hunderts in Kopenhagen für die Telefongesellschaft KTAS (Kjobenhavns Telefon
Aktieselskab) arbeitete, erstellte anhand der Verteilung Modelle, aus denen die
Länge der Intervalle zwischen Telefonanrufen hervorging. Die Erlang-Verteilung
wird seither von Stadtplanern und Architekten zur Modellierung von Autoverkehr
und Fußgängeraufkommen und von Netzwerkingenieuren zur Gestaltung von
Infrastrukturen für das Internet verwendet. Auch in der Natur gibt es einige Be-
reiche, in denen die Intervalle zwischen vollkommen unabhängigen Ereignissen
einer Erlang-Kurve folgen. Ein Beispiel ist der radioaktive Zerfall, weshalb die
Erlang-Verteilung genau zeigt, wann die nächsten Ausschläge des Geigerzählers
zu erwarten sind. Diese Verteilung ist auch gut geeignet, um bestimmte mensch-
liche Aktivitäten zu beschreiben, etwa die Dauer der Amtszeit amerikanischer
Politiker im Repräsentantenhaus.
Der Erlang-Verteilung verdanken wir eine dritte Vorhersageregel: die Ad-
ditionsregel: Man sage immer voraus, dass ein Vorgang noch genau einen
konstanten Zeitraum länger dauern wird. Die vertraute Bitte »Nur noch fünf
Minuten! … [Fünf Minuten später:] Noch fünf Minuten!«, die so oft die Be-
hauptung begleitet, dass wir schon bereit sind, das Haus zu verlassen, oder
eine Aufgabe eigentlich schon erledigt haben, mag wie ein Hinweis auf eine
chronische Unfähigkeit wirken, realistische Schätzungen anzustellen. In den
Fällen, wo wir es mit einer Erlang-Verteilung zu tun haben, trifft der Refrain
jedenfalls zu.

177
Die Bayessche Regel

Wenn ein leidenschaftlicher Glücksspieler im Casino seine ungeduldige Frau


mit dem Versprechen zu beruhigen versucht, dass er vom Black-Jack-Tisch auf-
stehen wird, wenn er einen Black Jack schafft (die Wahrscheinlichkeit liegt bei
etwa 1 zu 20)320, kann er genauso gut verkünden: »Noch etwa zwanzig Runden,
dann gehen wir nach Hause!« Wenn seine Frau zwanzig unglückliche Runden
später zurückkehrt und fragt, wie lange er sie jetzt noch warten lassen wird,
wird die Antwort dieselbe sein: »Noch etwa zwanzig Runden!« Das klingt, als
hätte unser unermüdlicher Kartenspieler sein Kurzzeitgedächtnis verloren – aber
seine Vorhersage ist vollkommen richtig. Tatsächlich bezeichnen die Statistiker
Verteilungen, die unabhängig von ihrer Geschichte oder ihrem gegenwärtigen
Zustand immer zur selben Vorhersage führen, als »gedächtnislos«.321
Diese drei sehr unterschiedlichen Muster der optimalen Vorhersage –
Multiplikations-, Durchschnitts- und Additionsregel – ergeben sich allesamt
direkt aus der Anwendung der Bayesschen Regel auf Potenzgesetz-, Normal- und
Erlang-Verteilungen. Und in Anbetracht dessen, wie diese Vorhersagen entstehen,
geben uns diese drei Verteilungen auch unterschiedliche Hinweise dazu, wie
überrascht wir von bestimmten Ereignissen sein sollten.
In einer Potenzgesetzverteilung dürfen wir davon ausgehen, dass etwas umso
länger weiterbestehen wird, je länger es bereits Bestand hat. Also ist ein Potenz-
gesetzereignis umso überraschender, je länger wir darauf gewartet haben – und
am überraschendsten unmittelbar bevor es geschieht. Länder, Unternehmen oder
Institutionen werden mit jedem weiteren Jahr, die sie Bestand haben, ehrwürdiger,
weshalb ihr Zusammenbruch stets eine große Überraschung ist.
In einer Normalverteilung sind Ereignisse überraschend, wenn sie zu einem
frühen Zeitpunkt eintreten – da wir erwartet hatten, dass sie zum durchschnitt-
lichen Zeitpunkt eintreten würden –, nicht jedoch, wenn sie spät eintreten. Tat-
sächlich scheinen sie zu diesem Zeitpunkt überfällig; je länger wir auf sie warten,
desto mehr erwarten wir sie.
Und in einer Erlang-Verteilung sind Ereignisse unabhängig davon, wann sie
eintreten, definitionsgemäß nie mehr oder weniger überraschend. Das Ende jedes
Zustands ist zu jedem Zeitpunkt gleich wahrscheinlich, egal, wie lang er andauert.
Kein Wunder, dass Politiker immer an die nächste Wahl denken.
Im Glücksspiel haben wir es mit einer ähnlichen Steady-state-Erwartung
zu tun. Nehmen wir an, unser Warten auf einen Gewinn am Roulettetisch
unterläge einer Normalverteilung. Also würde die Durchschnittsregel gelten:

178
… und ihre Vorhersageregeln

Potenzgesetzverteilung Muliplikationsregel

Vorhersage zukünftiger
Zahl der Filme

Einnahmen
Gesamteinspielergebnis Bisheriges Einspielergebnis

Normalverteilung Durchschnittsregel

Vorhersage verbleibender
Zahl der Menschen

Lebensjahre

Lebensjahre Bisherige Lebensjahre

Erlang-Verteilung Additionsregel
Vorhersage verbleibender
Zahl der Politiker

Jahre

Jahre im Amt Bisherige Amtszeit

Verschiedene A-priori-Verteilungen und dazugehörige Vorhersageregeln.

Nach einer Pechsträhne würde sie uns sagen, dass die Kugel jeden Augenblick
auf unsere Zahl fallen sollte, worauf vermutlich weitere Runden ohne Gewinn
folgen werden. (In diesem Fall wäre es sinnvoll, bis zum nächsten Gewinn weiter-
zuspielen und dann auszusteigen.) Ist das Warten auf einen Gewinn hingegen
einer Potenzgesetzverteilung unterworfen, so wird uns die Multiplikationsregel
sagen, dass auf Gewinne rasch weitere Gewinne folgen; aber je länger eine Durst-

179
Die Bayessche Regel

strecke dauert, desto länger wird sie sich wahrscheinlich fortsetzen. (In diesem
Szenario wären wir gut beraten, nach einem Gewinn ein wenig weiterzuspielen,
nach einer Pechsträhne hingegen aufzugeben.) Handelt es sich jedoch um eine
gedächtnislose Verteilung, so ist die Sache aussichtslos: Die Additionsregel sagt
uns, dass die Wahrscheinlichkeit eines Gewinns in diesem Augenblick genau
so groß ist wie vor einer Stunde. Und dasselbe gilt in einer Stunde: Es wird sich
nie etwas an der Wahrscheinlichkeit ändern. Wir werden nicht dafür belohnt,
hartnäckig zu sein und uns im Fall eines Gewinns zurückzuziehen; und es gibt
auch keinen Kipppunkt, an dem wir unsere Verluste begrenzen sollten. In seinem
berühmten Song »The Gambler« rät uns Kenny Rogers: »Du musst wissen, wann
du aussteigen solltest, du musst wissen, wann du rennen solltest.«322 Aber bei
einer gedächtnislosen Verteilung gibt es keinen richtigen Zeitpunkt, um auszu-
steigen. Das dürfte eine Erklärung dafür sein, dass so viele Menschen süchtig
nach diesen Glücksspielen werden.
Zu wissen, mit welcher Art von Verteilung man es zu tun hat, ist von aller-
größter Bedeutung. Als der Harvard-Biologe Stephen Jay Gould, dessen populär-
wissenschaftliche Werke einem breiten Publikum bekannt sind, erfuhr, dass er
Krebs hatte, war sein erster Impuls, die einschlägige Literatur zu lesen. Er fand
rasch heraus, warum ihm die Ärzte davon abgeraten hatten: Die Hälfte der
Patienten mit dieser Art von Krebs starben innerhalb von acht Monaten nach
der Diagnose.
Aber diese eine statistische Tatsache verriet ihm nichts darüber, wie die
Kranken verteilt waren, die diese acht Monate überlebten. Wenn es eine Normal-
verteilung war, dann würde die Durchschnittsregel eine ziemlich klare Vorhersage
seiner Lebenserwartung liefern: acht Monate. War es jedoch eine Potenzgesetz-
verteilung mit einem Verlauf, der sich weit nach rechts erstreckte, dann war seine
Situation eine ganz andere: Die Multiplikationsregel würde ihm sagen, dass seine
Lebenserwartung umso mehr steigen würde, je länger er lebte. Also studierte
Gould die Literatur weiter und entdeckte, »dass sich die Verteilung tatsächlich
weit nach rechts zog und dass sich dieser (wenn auch sehr flache) Ausläufer
mehrere Jahre über den Medianwert von acht Monaten hinaus erstreckte. Ich
sah keinen Grund, warum ich mich nicht in diesem flachen Ausläufer befinden
sollte, und atmete sehr erleichtert auf.«323 Gould überlebte die Diagnose um
zwanzig Jahre.

180
Was der menschliche Verstand aus geringen Datenmengen macht

WAS DER MENSCHLICHE VERSTAND AUS


GERINGEN DATENMENGEN MACHT

Die drei Vorhersageregeln – Multiplikation, Durchschnitt und Addition – sind


allesamt in breit gefächerten Alltagssituationen anwendbar. Und wie sich heraus-
stellt, sind wir in diesen Situationen bemerkenswert gut darin, die richtige Vorher-
sageregel anzuwenden. Während seines Aufbaustudiums führte Tom gemeinsam
mit Josh Tenenbaum vom MIT ein Experiment durch, in dem er Versuchs-
personen aufforderte, Vorhersagen in Bezug auf verschiedenste alltägliche Mengen
anzustellen, darunter menschliche Lebenserwartungen, Einspielergebnisse von
Spielfilmen und die Dauer der Amtszeiten von amerikanischen Kongressabge-
ordneten. Dazu gaben sie den Versuchsteilnehmern in jedem Fall nur eine einzige
Information: gegenwärtiges Alter, bisherige Einnahmen bzw. bisherige Amts-
zeit. Anschließend verglichen sie diese Vorhersagen mit denen, die man durch
Anwendung der Bayesschen Regel erhielt, sowie mit den tatsächlich erhobenen
statistischen Daten zu jedem dieser Bereiche.324
Wie sich herausstellte, lagen die Vorhersagen der Versuchspersonen ganz
nah bei den von der Bayesschen Regel produzierten. Die Versuchsteilnehmer
stellten intuitiv verschiedene Vorhersagen für Mengen an, die in der Realität
verschiedenen Verteilungen unterlagen – Potenzgesetz-, Normal- und Erlang-Ver-
teilung. Mit anderen Worten: Möglicherweise wissen wir nicht oder können uns
nicht erinnern, in welcher Situation die Multiplikations-, die Durchschnitts- oder
die Additionsregel angewandt werden sollte, aber die Vorhersagen, die wir jeden
Tag anstellen, entsprechen implizit den verschiedenen Fällen, in denen diese Ver-
teilungen im Alltagsleben auftreten, sowie ihrem unterschiedlichen Verhalten.
In Anbetracht dessen, was wir über die Bayessche Regel wissen, deuten diese
bemerkenswert guten Ergebnisse von Versuchspersonen auf eine bedeutsame Tat-
sache hin, die uns verstehen hilft, wie Menschen Vorhersagen anstellen. Kleine
Datenmengen sind große Datenmengen in Verkleidung. Der Grund dafür, dass es
uns oft gelingt, anhand einer geringen Zahl von Beobachtungsdaten – oder sogar
einer einzigen Beobachtung – gute Vorhersagen anzustellen, ist darin zu finden,
dass wir über so gutes Vorwissen verfügen. Ob wir es nun wissen oder nicht, wir
haben anscheinend ziemlich gute A-priori-Vorstellungen von der Verteilung von
Filmeinspielergebnissen und -laufzeiten, von Gedichtlängen, politischen Amts-

181
Die Bayessche Regel

zeiten und natürlich menschlichen Lebenserwartungen. Wir müssen sie nicht


explizit sammeln, sondern nehmen sie in unserer Umwelt wahr.
Die Tatsache, dass unsere Ahnungen den von der Bayesschen Regel ab-
geleiteten Vorhersagen so nahe kommen, gibt uns auch die Möglichkeit, ver-
schiedenste A-priori-Verteilungen rückzuentwickeln, darunter sogar solche, zu
denen wir nur schwer Daten in der wirklichen Welt sammeln können. Bei-
spielsweise ist die Zeitverschwendung in Warteschleifen von Kundenservice-
zentren eine bedauerlich alltäglich Facette der menschlichen Erfahrung, aber
anders als im Fall der Einspielergebnisse von Hollywoodfilmen gibt es keine
öffentlich zugänglichen Daten zu diesen Wartezeiten. Wenn wir uns bei unseren
Vorhersagen jedoch auf unsere persönliche Erfahrung stützen können, können
wir die Bayessche Regel für indirekte Aufklärungsmissionen heranziehen und
Informationen aus den Erwartungen von Menschen gewinnen. Als Tom und
Josh ihre Versuchspersonen aufforderten, gestützt auf einen einzigen Datenpunkt
Wartezeiten vorherzusagen, erhielten sie Antworten, die darauf hindeuteten, dass
die Versuchsteilnehmer die Multiplikation anwandten: Die Gesamtwartedauer,
die sie erwarteten, war eineindrittelmal so lang wie die Zeit, die sie bereits ge-
wartet hatten. Das deckt sich mit einer A-priori-Wahrscheinlichkeit, die einer
Potenzgesetzverteilung unterworfen ist, in der breit gefächerte Skalen möglich
sind. Man kann nur hoffen, nicht in der Titanic der Warteschleifen zu landen.
Der Kognitionsforschung ist es im vergangenen Jahrzehnt anhand solcher Ansätze
gelungen, die A-priori-Verteilungen der Menschen in zahlreichen Bereichen vom
Sehvermögen bis zur Sprache zu identifizieren.325
Wir müssen jedoch eine bedeutsame Einschränkung vornehmen: Wenn wir
keine guten A-priori-Wahrscheinlichkeiten haben, sind auch unsere Vorhersagen
nicht gut. Zum Beispiel gab es in der Studie von Tom und Josh einen Bereich,
in dem die Vorhersagen der Versuchspersonen systematisch von den anhand der
Bayesschen Regel gewonnenen Prognosen abwichen, nämlich in der Vorhersage der
Länge der Herrschaft ägyptischer Pharaonen. (Die Regierungszeiten der Pharaonen
folgen einer Erlang-Verteilung.) Die Versuchspersonen wurden im Alltag einfach
nicht oft genug mit diesen Daten konfrontiert, um ein intuitives Gespür für die
Bandbreite der Werte zu entwickeln, weshalb die Vorhersagen erwartungsgemäß
schlecht ausfielen. Voraussetzung für gute Vorhersagen ist gutes Vorwissen.
Das hat eine Reihe bedeutsamer Implikationen. Unser Urteil gibt Aufschluss
über unsere Erwartungen, und unsere Erwartungen geben Aufschluss über unsere

182
Was uns unsere Vorhersagen über uns selbst verraten

Erfahrung. Unsere Zukunftserwartungen verraten uns sehr viel, und zwar nicht
nur über die Welt, in der wir leben, sondern auch über unsere Vergangenheit.

WAS UNS UNSERE VORHERSAGEN


ÜBER UNS SELBST VERRATEN

Anfang der Siebzigerjahre führte Walter Mischel seinen berühmten »Marshmallow-


Test« durch, um herauszufinden, wie sich die Fähigkeit zum Belohnungsaufschub
im Lauf des Lebens entwickelt.326 Mischel testete in einem Kindergarten auf dem
Campus der Universität Stanford die Willenskraft von drei- bis fünfjährigen
Kindern. Die Forscher setzten die Kinder alleine in einen Raum und zeigten ihnen
eine verlockende Süßigkeit wie ein Marshmallow. Dann erklärten sie der kleinen
Versuchsperson, dass der Erwachsene, der das Experiment leitete, den Raum für
eine Weile verlassen würde. Wenn das Kind wollte, durfte es den Marshmallow
sofort essen. Aber wenn es wartete, bis der Versuchsleiter zurückkam, würde es
stattdessen zwei Marshmallows bekommen.
Ein Teil der Kinder konnte der Versuchung nicht widerstehen und aß die
Süßigkeit sofort. Andere hielten tatsächlich fünfzehn Minuten durch und be-
kamen bei der Rückkehr des Versuchsleiters die versprochenen zwei Belohnungen.
Die vielleicht interessanteste Gruppe war jedoch die zwischen diesen beiden
Extremen angesiedelte: Diese Kinder schafften es, eine Weile zu warten, gaben
schließlich jedoch auf und aßen das Marshmallow.
Das Verhalten der Kinder, die sich sehr anstrengten und tapfer ausharrten,
nur um dann doch zu resignieren und dadurch das zusätzliche Marshmallow
zu verlieren, wurde als Hinweis auf Irrationalität interpretiert: Wenn ein Kind
aufgeben wird, warum tut es das nicht gleich und erspart sich die Quälerei?
Tatsächlich hängt es davon ab, wie das Kind die Situation einschätzt. Wie Joe
McGuire und Joe Kable von der Pennsylvania State University gezeigt haben,
kann es durchaus sinnvoll sein, den Verlust zu begrenzen, wenn die Zeitdauer bis
zur Rückkehr des Versuchsleiters einer Potenzgesetzverteilung unterliegt, womit
eine lange Abwesenheit auf eine noch längere verbleibende Wartezeit hindeutet.327
Mit anderen Worten, die Fähigkeit, Versuchungen zu widerstehen, kann zu-
mindest teilweise eine Frage der Erwartungen sein, statt von der Willenskraft abzu-
hängen. Wenn ein Kind erwartet, dass der Erwachsene nach kurzer Zeit zurückkehren

183
Die Bayessche Regel

wird – so etwas wie eine Normalverteilung –, sollte es in der Lage sein, standhaft
zu bleiben. Die Durchschnittsregel besagt, dass die richtige Reaktion nach einer
qualvollen Wartezeit darin besteht auszuharren: Der Versuchsleiter sollte von nun
an jeden Augenblick zurückkehren. Hat das Kind jedoch keine Vorstellung von der
Größenordnung der Abwesenheit – was einer Potenzgesetzverteilung entspricht –, so
befindet es sich in einer misslichen Lage. In diesem Fall legt die Multiplikationsregel
nahe, dass eine lange Wartezeit lediglich ein Bruchteil dessen ist, was noch bevorsteht.
Mehrere Jahrzehnte nach den ursprünglichen Marshmallow-Experimenten
sahen sich Walter Mischel und seine Kollegen an, wie sich die Versuchsteilnehmer
seit damals entwickelt hatten. Das erstaunliche Ergebnis: Jene Versuchspersonen,
die als Kinder Beharrungsvermögen bewiesen und auf die zweite Belohnung ge-
wartet hatten, hatten als junge Erwachsene größeren Erfolg als die anderen, und
das sogar gemessen an quantitativen Maßen wie den Resultaten der Hochschul-
zulassungsprüfung.328 Wenn es im Marshmallow-Experiment um Willenskraft
geht, ist dies ein klarer Beleg dafür, wie sich das Erlernen von Selbstbeherrschung
auf das Leben auswirken kann. Wenn es in dem Experiment jedoch weniger um
die Willenskraft, sondern vielmehr um die Erwartungen geht, dann erzählt es
eine andere, vielleicht noch bemerkenswertere Geschichte.
Eine Gruppe von Forschern der University of Rochester untersuchte vor
Kurzem die Auswirkungen früherer Erfahrungen auf das Verhalten der Kinder
im Marshmallow-Experiment.329 Dafür wandelten die Wissenschaftler den Ver-
suchsauf bau ab: Noch bevor die Marshmallows überhaupt erwähnt wurden,
nahmen die Kinder an einem Kunstprojekt teil. Die Versuchsleiterin gab ihnen
wenig verlockendes Malzubehör, versprach jedoch, besseres Material holen zu
gehen. Aber die Kinder waren ohne ihr Wissen in zwei Gruppen unterteilt worden.
In einer Gruppe hielt die Versuchsleiterin Wort, verließ den Raum und kehrte
mit besserem Material zurück. In der anderen Gruppe war sie unzuverlässig und
kehrte mit leeren Händen und einer Ausrede zurück.
Nach Abschluss des Kunstprojekts wurden die Kinder dem eigentlichen
Marshmallow-Test unterzogen. Und hier zeigte sich, dass die Kinder, die mit der
unzuverlässigen Versuchsleiterin konfrontiert worden waren, eher dazu neigten,
das Marshmallow vor ihrer Rückkehr zu essen und sich die Chance auf eine zweite
Belohnung entgehen zu lassen.
Möglicherweise haben die Unfähigkeit, den Marshmallow-Test zu bestehen,
und die geringeren Erfolgschancen im späteren Leben weniger mit mangelnder

184
Wahrscheinlichkeiten in der Ära der mechanischen Reproduktion

Willenskraft zu tun, sondern sind das Resultat der Erkenntnis, dass Erwachsene
unzuverlässig sind, dass man nicht darauf vertrauen kann, dass sie ihr Wort halten
werden, dass sie für willkürlich lange Intervalle verschwinden. Es ist wichtig,
Selbstbeherrschung zu erlernen, aber genauso wichtig ist es, in einer Umgebung
aufzuwachsen, in der die Erwachsenen ständig präsent und vertrauenswürdig sind.

A-PRIORI-WAHRSCHEINLICHKEITEN IN DER
ÄRA DER MECHANISCHEN REPRODUKTION

Als hätte jemand, der mehrere Exemplare der Morgenzeitung kauft,


größere Gewissheit, dass die Meldungen wahr sind.
Ludwig Wittgenstein

Er achtet darauf, was er liest, denn das ist, was er schreiben wird. Er
achtet darauf, was er lernt, denn das ist, was er wissen wird.
Annie Dillard

Die Bayessche Regel lehrt uns, dass wir die besten Vorhersagen anstellen werden,
wenn wir gut über die Dinge informiert sind, die wir vorhersagen. Deshalb können
wir die Lebenserwartung von Menschen gut prognostizieren, während wir nicht
gut darin sind, die Herrschaftszeit von Pharaonen zu schätzen.
Ein guter Bayesianer zu sein bedeutet, die Welt in den richtigen Proportionen
darzustellen – man braucht gute A-priori-Wahrscheinlichkeiten. Im Großen und
Ganzen passiert das bei Menschen und anderen Tieren ganz natürlich; wenn
uns etwas überrascht, so sollte es uns in der Regel überraschen, und wenn es uns
nicht überrascht, dann sollte es das auch nicht tun. Selbst wenn wir Vorwissen
anhäufen, das nicht objektiv richtig ist, entspricht es normalerweise der Realität
in dem spezifischen Teil der Welt, in dem wir leben. Beispielsweise wird jemand,
der in einer Wüstenregion lebt, möglicherweise die Menge an Sand auf der Erde
überschätzen, und jemand, der in der Nähe des Polarkreises lebt, schätzt mög-
licherweise die globale Menge an Schnee nicht richtig ein. Aber das Weltver-
ständnis beider ist ihrer ökologischen Nische gut angepasst.
Doch alles beginnt zusammenzubrechen, wenn eine Spezies die Sprache erwirbt.
Das, worüber wir sprechen, entspricht nicht dem, was wir erleben – wir sprechen

185
Die Bayessche Regel

vor allem über interessante Dinge, und das sind zumeist ungewöhnliche Dinge. Wir
erleben die Dinge mehr oder weniger definitionsgemäß immer entsprechend ihrer
Häufigkeit, aber für die Darstellung unserer Erfahrung gilt das nicht unbedingt.
Wer einmal von einer Schlange gebissen oder vom Blitz getroffen worden ist, wird
diese einmaligen Erlebnisse sein Leben lang erzählen. Und diese Geschichten sind
so auffällig, dass sie von anderen aufgegriffen und nacherzählt werden.
Es gibt also eine sonderbare Spannung zwischen der Kommunikation mit
anderen und zutreffendem Vorwissen über die Geschehnisse. Wenn wir über die
Dinge sprechen, die uns interessieren – und Geschichten erzählen, die in unseren
Augen unsere Zuhörer interessieren werden – verzerrt dies die Statistik unserer
Erfahrung. Das erschwert es uns, die A-priori-Verteilungen richtig einzuschätzen.
Und die Druckerpresse, die Abendnachrichten und zuletzt die sozialen Medien –
Innovationen, die unserer Spezies die mechanische Verbreitung der Sprache ermög-
licht haben – haben uns die Aufgabe zusätzlich erschwert.
Sehen wir uns ein Beispiel an. Wie oft haben Sie ein abgestürztes Flugzeug
oder ein bei einem Unfall beschädigtes Auto gesehen? Es ist durchaus möglich,
dass sie etwa genauso viele verunglückte Flugzeuge wie Autos gesehen haben –
nur dass Sie an vielen dieser Autowracks auf der Straße vorbeigekommen sind,
während Sie viele der Flugzeugwracks nur im Internet oder im Fernsehen sehen
konnten, weil sie auf einem anderen Kontinent abstürzten. In den Vereinigten
Staaten könnte man mit den Menschen, die seit dem Jahr 2000 bei Abstürzen von
Passagierflugzeugen das Leben verloren haben, nicht einmal die halbe Carnegie
Hall füllen.330 Hingegen übersteigt die Zahl der Amerikaner, die im selben Zeit-
raum bei Autounfällen getötet worden sind, die Bevölkerungszahl von Wyoming.331
Einfach ausgedrückt entspricht die mediale Darstellung von Ereignissen nicht
ihrem Vorkommen in der Welt. Wie der Soziologe Barry Glassner festgestellt
hat, sank die Mordrate in den Neunzigerjahren in den Vereinigten Staaten um
20 Prozent aber im selben Zeitraum stieg die Zahl die Medienberichte über Morde
um unglaubliche 600 Prozent.332
Wer ein guter intuitiver Bayesianer sein will – wer auf natürlichem Weg
gute Vorhersagen anstellen will, ohne darüber nachdenken zu müssen, welche
Art von Vorhersageregel angemessen ist –, der muss seine Vorstellung von den
A-priori-Verteilungen auf ein solides Fundament stellen. Und auch wenn das
unserem Instinkt widerspricht, müssen wir dazu möglicherweise die Nachrichten
abschalten.

186
7
ÜBERANPASSUNG
WANN ES BESSER IST, WENIGER NACHZUDENKEN

A
ls Charles Darwin darüber nachdachte, ob er seiner Cousine Emma Wedg-
wood einen Heiratsantrag machen sollte, griff er zu Bleistift und Papier
und erwog die Vor- und Nachteile einer Verbindung. Argumente für die
Ehe waren Kinder, Gesellschaft und der »Liebreiz von Musik und weiblichem
Geplauder«. Gegen die Ehe sprachen der »schreckliche Zeitverlust«, der Verlust
der Freiheit, dorthin zu gehen, wohin er wollte, die Last des Besuchs von Ver-
wandten, die Ausgaben und Sorgen, die Kinder mit sich brachten, die Sorge, dass
»meiner Ehefrau vielleicht London nicht gefällt«, und die Unannehmlichkeit,
dass er womöglich weniger Geld für Bücher haben würde. Nachdem Darwin
eine Spalte gegen die andere abgewogen hatte, kam ein knapper Sieg heraus,
und unten auf das Blatt kritzelte er »Heiraten – Heiraten – Heiraten Q.E.D.«333
Quod erat demonstrandum, die typische Formel am Ende einer mathematischen
Beweisführung, deren Ergebnis Darwin selbst hier in Worte fasste: »Es ist be-
wiesen, dass es notwendig ist, die Ehe zu schließen.«
Zu Darwins Zeiten war die Pro- und Kontra-Liste bereits ein altbewährter
Algorithmus, den schon Benjamin Franklin hundert Jahre zuvor empfohlen
hatte. »Franklin schrieb, seine Methode, um ›die verwirrende Ungewissheit‹
zu überwinden, bestehe darin, ein halbes Blatt Papier durch eine Linie in zwei
Spalten zu teilen und über die eine Pro und über die andere Kontra zu schreiben.
Dann notiere ich während der drei- oder viertägigen Bedenkzeit unter den ver-
schiedenen Überschriften kurze Hinweise auf die verschiedenen Motive, die mir
zu verschiedenen Zeitpunkten für oder gegen die Maßnahme einfallen. Wenn ich

187
Überanpassung

Darwins Tagebuch, Juli 1838. Abgedruckt mit freundlicher Genehmigung der Cambridge
University Library.
Wann es besser ist, weniger nachzudenken

sie auf diese Weise alle mit einem Blick übersehen kann, bemühe ich mich, ihren
jeweiligen Stellenwert abzuschätzen, und wo ich zwei – eines auf jeder Seite –
finde, die gleichwertig zu sein scheinen, streiche ich sie beide durch: Wenn ich
finde, dass ein Grund dafür zwei Gründe dagegen aufwiegt, streiche ich die drei
durch. Wenn ich zu der Einschätzung gelange, dass zwei Gründe dagegen drei
Gründe dafür aufwiegen, streiche ich die fünf durch; und mit diesem Vorgehen
finde ich schließlich heraus, was überwiegt; und wenn nach ein- oder zweitägigen
weiteren Überlegungen auf keiner der beiden Seiten etwas Neues, was von Belang
ist, auftaucht, fälle ich eine entsprechende Entscheidung.«
Franklin hielt dies sogar für eine Art von Berechnung. Er schrieb: »Ich habe
diese Art von Gleichung, in dem, was man Algebra der Moral oder der praktischen
Vernunft nennen könnte, sehr nützlich gefunden.«334
Wenn wir über das Denken nachdenken, neigen wir zu der Annahme, mehr
sei besser: Wir glauben, umso bessere Entscheidungen zu fällen, je mehr Für und
Wider wir auflisten, den Kurs einer Aktie umso treffender vorherzusagen, je mehr
relevante Faktoren wir identifizieren, einen umso besseren Bericht zu schreiben, je
länger wir daran arbeiten. Das ist zweifellos die Prämisse, die Franklins Methode
zugrunde lag. In diesem Sinne erscheint Darwins »algebraische« Herangehens-
weise an die Ehe ungeachtet ihrer offensichtlichen Schrulligkeit bemerkenswert
und vielleicht sogar in einer lobenswerten Weise vernünftig.
Aber wenn Franklin oder Darwin noch die Ära des Maschinenlernens erlebt
hätte – jenes Fachgebiets, das sich mit der Frage befasst, wie man Rechnern bei-
bringen kann, auf der Grundlage von Erfahrungswerten gute Entscheidungen
zu fällen –, dann hätte es sie zweifellos überrascht, die »moralische Algebra«
in ihren Grundfesten erschüttert zu sehen. Die Frage, wie gründlich man über
etwas nachdenken – und wie viele Faktoren man berücksichtigen – sollte, steht
im Zentrum eines verzwickten Problems, das Statistiker und Forscher auf dem
Gebiet des Maschinenlernens als »Überanpassung« bezeichnen. Und wenn man
sich in dieses Problem vertieft, gelangt man zu der Erkenntnis, dass es klug sein
kann, absichtlich weniger nachzudenken. Wenn man sich des Phänomens der
Überanpassung bewusst ist, dann geht man mit einer anderen Einstellung an die
Börse, an den Esstisch, ins Fitnessstudio … und zum Altar.

189
Überanpassung

ARGUMENTE GEGEN DIE KOMPLEXITÄT

Alles, was du kannst, kann ich viel besser; ich kann alles viel besser
als du.
Annie Get Your Gun335

Jede Entscheidung ist eine Art Vorhersage: darüber, wie sehr wir etwas mögen,
was wir noch nicht ausprobiert haben, darüber, wohin ein Trend führt und warum
es günstiger sein wird, die weniger (oder stärker) befahrene Straße zu nehmen.
Und jede Vorhersage beruht auf der gedanklichen Verknüpfung dessen, was
man weiß, mit dem, was man nicht weiß.336 Das heißt, sie ist der Versuch, eine
Theorie zu formulieren, die unsere bisherigen Erfahrungen erklärt und zugleich
eine Aussage über zukünftige Erfahrungen macht, über die wir Vermutungen
anstellen. Eine gute Theorie tut selbstverständlich beides. Aber die Tatsache, dass
jede Vorhersage eine doppelte Aufgabe erfüllen muss, erzeugt ein unvermeidliches
Spannungsverhältnis.

9
Lebenszufriedenheit

6
0 2 4 6 8 10
Jahre seit der Heirat

Lebenszufriedenheit abhängig von der Zeit, die seit der Heirat vergangen ist.

Zur Veranschaulichung dieses Spannungsverhältnisses wollen wir uns einen


Datensatz ansehen, der für Darwin nützlich hätte sein können: die Entwicklung
der Lebenszufriedenheit in den ersten zehn Jahre nach einer Eheschließung, die
in einer aktuellen deutschen Studie untersucht worden ist.337 Jeder Punkt im
Diagramm ist der Studie entnommen; unsere Aufgabe ist es, die Formel für eine

190
Argumente gegen die Komplexität

Linie zu finden, die diese Punkte näherungsweise miteinander verbindet und


sich in die Zukunft erstreckt, so dass wir über den Zehnjahreszeitraum hinaus
Vorhersagen anstellen können.338
Eine mögliche Formel würde nur einen einzigen Faktor heranziehen, um die
Lebenszufriedenheit vorherzusagen: die seit der Heirat vergangene Zeit. Auf
diese Weise erhielte man im Diagramm eine Gerade. Eine andere Möglichkeit
bestünde darin, zwei Faktoren zu berücksichtigen, nämlich die Zeit sowie die
Zeit zum Quadrat; auf diese Weise erhielte man eine parabolische, U-förmige
Linie, die möglicherweise Aufschluss über einen komplexeren Zusammenhang
zwischen Zeit und Zufriedenheit geben würde. Und wenn wir weitere Faktoren
(Zeit hoch drei usw.) in die Formel einbeziehen, dann weist die Linie immer
mehr Wendepunkte auf, das heißt, sie wird immer »kurvenreicher« und flexibler.
Sobald wir zu einer Formel mit neun Faktoren kommen, können wir tatsächlich
sehr komplexe Beziehungen darstellen.
Mathematisch gesehen enthält unser Zwei-Faktoren-Modell sämtliche
Informationen, die in das Ein-Faktor-Modell einfließen, und kann darüber hinaus
einen weiteren Term nutzen. Ebenso nutzt das Neun-Faktoren-Modell sämtliche
Informationen, die dem Zwei-Faktoren-Modell zur Verfügung stehen, zu denen
potenziell eine Vielzahl weiterer Daten kommt. Demnach sollte uns das Neun-
Faktoren-Modell immer die besten Vorhersagen liefern.
Aber wie sich herausstellt, ist es nicht ganz so einfach.
9
Daten
Ein-Faktor-Modell
Lebenszufriedenheit

Zwei-Faktoren-Modell
Neun-Faktoren-Modell
8

6
0 2 4 6 8 10 12 14 16 18
Jahre seit der Heirat

Vorhersagen der Lebenszufriedenheit anhand von Modellen mit unterschiedlicher


Zahl von Faktoren.

191
Überanpassung

Das Ergebnis der Anwendung dieser Modelle auf die Daten ist oben dargestellt.
Das Ein-Faktor-Modell verfehlt erwartungsgemäß viele der einzelnen Daten-
punkte knapp, auch wenn es den grundlegenden Trend erfasst: Nach dem Glücks-
gefühl der Flitterwochen nimmt die Lebenszufriedenheit ab. Allerdings sagt der
lineare Verlauf vorher, dass sich dieser Rückgang unbegrenzt fortsetzen wird, bis
die Zufriedenheit irgendwann auf null sinkt. Etwas an dieser Kurve scheint nicht
zu stimmen. Das Zwei-Faktoren-Modell deckt sich besser mit den Erhebungs-
daten, und der leicht gekrümmte Verlauf der zugehörigen Linie deutet darauf
hin, dass die Lebenszufriedenheit nach dem anfänglichen Rückgang langfristig
mehr oder minder auf dem gleichen Niveau bleibt. Die Kurve des Neun-Faktoren-
Modells verläuft durch jeden einzelnen Punkt im Diagramm; sie stimmt praktisch
perfekt mit sämtlichen Daten der Studie überein.339
So gesehen scheint die Neun-Faktoren-Formel tatsächlich unser bestes Modell
zu sein. Aber wenn man sich die Vorhersagen ansieht, die sie für die nicht in die
Studie einbezogenen Jahre liefert, dann drängt sich die Frage auf, wie nützlich sie
wirklich ist: Sie sagt Kummer am Altar, einen jähen, schwindelerregenden Anstieg
der Zufriedenheit einige Monate nach der Eheschließung, ein holpriges Auf und
Ab danach und einen senkrechten Abfall nach dem zehnten Jahr vorher. Dagegen
deckt sich die anhand des Zwei-Faktoren-Modells vorhergesagte Stabilisierung
weitgehend mit den Erkenntnissen von Psychologen und Ökonomen über den
Zusammenhang von Ehe und Zufriedenheit. (Übrigens ist dies ihrer Meinung
nach lediglich eine Rückkehr zur Normalität – zum Ausgangsniveau der Lebens-
zufriedenheit – und nicht etwa eine Unzufriedenheit mit der Ehe an sich.)340
Die Lehre daraus lautet: Es stimmt, dass ein Modell grundsätzlich umso
besser mit den bereits vorliegenden Daten übereinstimmt, je mehr Faktoren be-
rücksichtigt werden. Aber eine bessere Übereinstimmung mit den verfügbaren
Daten bedeutet nicht unbedingt eine bessere Vorhersage.
Es stimmt, dass ein allzu einfaches Modell – zum Beispiel die Gerade der Ein-
Faktor-Formel – dem grundlegenden Muster in den Daten möglicherweise nicht
gerecht wird. Wenn die Wahrheit wie eine Kurve aussieht, kann sie durch eine
Gerade nicht gut dargestellt werden. Andererseits reagiert ein allzu kompliziertes
Modell, wie unser Neun-Faktoren-Modell hier, allzu empfindlich auf die einzel-
nen Datenpunkte, die beobachtet werden. Gerade weil es so genau auf diese spezi-
fischen Datenmengen abgestimmt ist, sind die von ihm erzeugten Lösungen daher
ausgesprochen variabel. Würde die Studie mit anderen Teilnehmern wiederholt

192
Argumente gegen die Komplexität

Ein-Faktor-Modell
9
Lebenszufriedenheit

6
0 2 4 6 8 10 12 14 16 18
Ehejahre

Zwei-Faktoren-Modell
9
Lebenszufriedenheit

6
0 2 4 6 8 10 12 14 16 18
Ehejahre

Neun-Faktoren-Modell
9
Lebenszufriedenheit

6
0 2 4 6 8 10 12 14 16 18
Ehejahre

Fügt man den Daten geringe Mengen an zufälligem »Rauschen« hinzu (und simuliert so
die Auswirkungen der Wiederholung der Studie mit einer anderen Gruppe von Teilneh-
mern), so führt dies im Neun-Faktoren-Modell zu extremen Schwankungen, während
das Ein- und das Zwei-Faktor(en)-Modell im Vergleich dazu deutlich stabiler sind und
einheitlichere Vorhersagen liefern.

193
Überanpassung

und käme es dabei zu geringfügigen Variationen des gleichen Grundmusters, dann


blieben das Ein- und das Zwei-Faktoren-Modell mehr oder weniger konstant,
während das Neun-Faktoren-Modell von Studie zu Studie extrem schwanken
würde. Das nennen Statistiker Überanpassung.
Eine der grundlegenden Erkenntnisse auf dem Gebiet des Maschinenlernens
lautet daher, dass es keinesweg immer besser ist, ein komplexeres Modell zu ver-
wenden, das eine größere Anzahl von Faktoren einbezieht.341 Und das Problem
besteht nicht nur darin, dass die zusätzlichen Faktoren nicht nur einen »sinkenden
Ertrag« abwerfen: Die Ergebnisse komplexer Modelle sind besser als die ein-
facherer Modelle, aber nicht so viel besser, dass dies die erhöhte Komplexität
rechtfertigen würde. Problematisch ist vor allem, dass sie die Qualität unserer
Vorhersagen dramatisch verschlechtern können.

DIE VERGÖTTERUNG DER DATEN

Wenn wir umfangreiche Daten aus einer vollkommen repräsentativen Stich-


probe hätten, die fehlerfrei wären und genau das repräsentieren würden, was wir
untersuchen wollen, dann wäre es tatsächlich am besten, das komplexeste ver-
fügbare Modell anzuwenden. Aber wenn wir versuchen, unser Modell in völlige
Übereinstimmung mit den Daten zu bringen, laufen wir Gefahr, den Fehler der
Überanpassung zu begehen, wenn einer dieser Faktoren nicht stimmt.
Die Überanpassung stellt dann eine Gefahr dar, wenn wir es mit Rauschen oder
Messfehlern zu tun haben – und das ist fast immer der Fall. Es kann bei der Daten-
sammlung oder -auswertung zu Fehlern kommen. Manchmal sind auch die unter-
suchten Phänomene, zum Beispiel die Lebenszufriedenheit, schwer zu definieren
und noch schwerer zu messen. Dank ihrer Flexibilität können die komplexesten
Modelle sämtliche Muster in den Daten zutage fördern, aber das bedeutet, dass sie
dies auch dann tun werden, wenn diese Muster bloße Phantome im Rauschen sind.
Religiöse Texte warnen die Gläubigen seit jeher vor der Götzenanbetung: vor
der Verehrung von Statuen, Bildern, Reliquien und anderen materiellen Kunst-
gegenständen anstatt der von diesen Artefakten dargestellten immateriellen
Gottheiten. Im Ersten Gebot zum Beispiel wird der Gläubige ermahnt, sich
»kein Gottesbild zu machen und keine Darstellung von irgendetwas am Himmel
droben« und »sich nicht vor anderen Göttern niederzuwerfen«. Und im Buch der

194
Die Überanpassung ist überall

Könige wird statt Gott eine auf sein Geheiß angefertigte eherne Schlange zum
Gegenstand der Anbetung und von Räucheropfern.342 (Gott ist nicht amüsiert.)
Im Grunde genommen ist Überanpassung eine Art Vergötterung von Daten,
eine Folge der Tatsache, dass wir uns nicht auf das konzentrieren, was wirklich
wichtig ist, sondern auf das, was wir messen können.
Diese Diskrepanz zwischen den Daten, die wir haben, und den Vorhersagen,
die wir uns wünschen, ist praktisch überall zu beobachten. Wenn wir eine wichtige
Entscheidung fällen, können wir nur darüber spekulieren, was uns später gefallen
wird, indem wir über die Faktoren nachdenken, die gegenwärtig für uns wichtig
sind. (Der Harvard-Psychologe Daniel Gilberts erklärt, unser zukünftiges Selbst
lasse es sich »einiges kosten, die Tätowierungen zu entfernen, die wir uns für teures
Geld stechen ließen«.343) Bei der Vorhersage eines Aktienkurses können wir uns
nur das anschauen, was in der Vergangenheit mit dem Kurs korrelierte, nicht das,
was ihn vielleicht in der Zukunft beeinflussen wird. Selbst bei unseren kleinen
täglichen Verrichtungen gilt dieses Muster: Wenn wir eine E-Mail geschrieben
haben, lesen wir diese anschließend noch einmal durch, um abzuschätzen, wie sie
vom Empfänger aufgenommen werden wird. So wie in öffentlichen Erhebungen
sind auch die Daten in unserem persönlichen Leben immer »verrauscht« und
bestenfalls ein indirekter Indikator für die Dinge, die uns eigentlich interessieren.
Die Berücksichtigung einer immer größeren Zahl von Faktoren und das Be-
mühen, sie zu modellieren, kann uns daher zu dem Fehler verleiten, das Falsche
zu optimieren – die eherne Schlange aus Daten anzubeten statt die größere Kraft,
die ihr zugrunde liegt.

DIE ÜBERANPASSUNG IST ÜBERALL

Sobald man sich des Phänomens der Überanpassung bewusst ist, entdeckt man
es überall.
Beispielsweise erklärt die Überanpassung die Widersprüchlichkeit unserer
geschmacklichen Vorlieben. Wie kann es sein, dass die Speisen, die uns am
besten schmecken, im Allgemeinen als gesundheitsschädlich gelten, obwohl die
Geschmacksknospen evolutionsgeschichtlich eben dazu da sind, uns davon ab-
zuhalten, Nahrung aufzunehmen, die uns schaden kann?
Die Antwort lautet: Der Geschmack gibt unserem Körper auf indirekte Weise
Aufschluss darüber, ob Lebensmittel unserer Gesundheit zuträglich sind. Fette,

195
Überanpassung

Zucker und Salz sind wichtige Nährstoffe, und über Hunderttausende von Jahren
hinweg sicherten sich die Menschen das Überleben, indem sie Lebensmittel
konsumierten, die diese Nährstoffe in möglichst großen Mengen enthielten.
Aber seit wir in der Lage sind, Lebensmittel zu modifizieren, besteht dieser
Zusammenhang nicht länger. Wir reichern Lebensmittel heute in einem Aus-
maß mit Fett und Zucker an, das über die Mengen hinausgeht, die gut für uns
sind, und dann essen wir ausschließlich diese Lebensmittel statt des Gemischs
aus Pflanzen, Körnern und Fleisch, das den Menschen traditionell als Nahrung
diente. Anders gesagt, auch beim Geschmack kann Überanpassung auftreten. Und
je ausgeklügelter wir Lebensmittel manipulieren (und je deutlicher sich unsere
Lebensstile von denen unserer Vorfahren unterscheiden), umso unvollkommener
wird der Geschmack als Gesundheitsindikator. Die Fähigkeit zur Gestaltung
unseres Lebens wird somit zu einem Fluch, da sie uns auf gefährliche Weise in
die Lage versetzt, uns genau das zu verschaffen, was wir wollen – selbst wenn
uns das, was wir wollen, nicht zuträglich ist.
Vorsicht: Wer ins Fitnessstudio geht, um den durch übermäßigen Zucker-
konsum angelegten Bauchspeck wegzutrainieren, riskiert eine Überanpassung der
Fitness. Einige sichtbare Zeichen der Fitness – zum Beispiel geringer Körper-
fettanteil und hohe Muskelmasse – lassen sich leicht messen und korrelieren mit
einem niedrigeren Risiko für Herzerkrankungen und andere Leiden. Aber sie sind
ein unvollkommener Indikator. Die Überanpassung der äußeren Anzeichen der
Fitness – eine strenge Diät zur Verringerung des Körperfetts und die Einnahme
von Steroiden für den Muskelaufbau – können uns den äußeren Anschein guter
Gesundheit verleihen, aber eben nur den Anschein.
Auch im Sport können wir Überanpassung beobachten. Tom zum Beispiel ist
ein Fechter, der diese Sportart mit Unterbrechungen seit seiner Jugend praktiziert.
Der ursprüngliche Zweck des Fechtens bestand darin, Menschen beizubringen,
wie sie sich in einem Duell behaupten konnten. Und die Waffen, die in modernen
Fechtwettkämpfen verwendet werden, ähneln denjenigen, die benutzt wurden, um
für solche Auseinandersetzungen zu trainieren. (Dies gilt insbesondere für den
Degen, der noch vor einem halben Jahrhundert in förmlichen Duellen benutzt
wurde.344) Aber die Einführung der elektronischen Trefferanzeige, bei der ein
Sensor an der Spitze der Klinge einen Kontakt mit der Weste des Gegners anzeigt,
hat die Natur des Sports verändert: Techniken, die in einem ernsthaften Duell
nutzlos wären, sind im Wettbewerb zu entscheidenden Fertigkeiten geworden.

196
Die Überanpassung ist überall

Moderne Fechter nutzen flexible Klingen, die es ihnen erlauben, die elektrische
Weste des Gegners mit der Spitze der Klinge zu streifen und dabei gerade genug
Druck auf den Sensor auszuüben, dass ein Treffer angezeigt wird. Daher sieht es
manchmal eher so aus, als würden Florettfechter mit dünnen metallenen Peitschen
aufeinander eindreschen, anstatt die Klingen zu kreuzen und zuzustechen. Es
ist noch immer ein aufregender Sport, aber in dem Maße, wie die Fechter ihre
Taktiken auf die Eigenarten der Treffererfassung überanpassen, verliert der Er-
werb echter Fechtkunstfertigkeiten an Bedeutung.345
Die Überanpassung hat vermutlich nirgends so einschneidende und schädliche
Folgen wie in der Geschäftswelt. »Anreizstrukturen funktionieren«, wie Steve Jobs
einmal gesagt hat. »Daher muss man sorgfältig darauf achten, welches Verhalten
man durch Anreize fördern will, weil verschiedene Anreizstrukturen alle mög-
lichen Konsequenzen haben, die man nicht vorhersehen kann.«346 Sam Altman,
der Chef des Startup-Inkubators Ycombinator, äußert sich ähnlich: »Es ist tat-
sächlich so, dass ein Unternehmen das herstellt, was der Chef messen lässt.«347
Es ist sehr schwierig, Anreize oder Messgrößen zu entwickeln, die keine
kontraproduktiven Wirkungen haben. In den Fünfzigerjahren katalogisierte
der Management-Professor V. F. Ridgway von der Cornell University eine Viel-
zahl solcher »dysfunktionaler Konsequenzen von Leistungsmessungen«.348 Bei-
spielsweise versuchten die Mitarbeiter einer Personalvermittlungsfirma, die nach
der Anzahl der von ihnen geführten Bewerbungsgespräche beurteilt wurden,
diese Gespräche möglichst schnell hinter sich zu bringen, ohne viel Zeit darauf
zu verwenden, ihren Klienten tatsächlich bei der Stellensuche zu helfen.349 Bei
einer amerikanischen Strafverfolgungsbehörde suchten sich sich Ermittler, die
monatliche Leistungsvorgaben erhielten, am Monatsende nicht die dringendsten,
sondern die leichtesten Fälle aus. Und in einer Fabrik führte eine Fixierung auf
die Produktionsziele dazu, dass Manager die Wartungs- und Reparaturarbeiten
vernachlässigten, was zu einem Produktionsausfall führte. Derartige Probleme
können nicht einfach als Nichterfüllung von Zielvorgaben der Geschäftsleitung
betrachtet werden. Vielmehr sind sie im Gegenteil das Ergebnis einer rücksichts-
losen und intelligenten Optimierung der falschen Aktivitäten.
Die Entwicklung der Echtzeitdatenanalyse im 21. Jahrhundert hat die Maß-
stäbe nur noch gefährlicher gemacht. Avinash Kaushik, der Guru des digitalen
Marketings bei Google, hält das Bestreben, Website-Nutzer dazu zu bringen,
sich möglichst viele Werbeanzeigen anzusehen, für gefährlich, weil es zwangs-

197
Überanpassung

läufig dazu führt, dass die Websites mit Werbeanzeigen vollgestopft werden:
»Wenn man nach [Kosten pro tausend Aufrufe] bezahlt wird, hat man einen
Anreiz herauszufinden, wie man auf jeder Seite eine möglichst große Zahl von
Werbeanzeigen platzieren kann, und sicherzustellen, dass der Besucher möglichst
viele Seiten auf der Website aufruft. […] Durch diesen Anreiz verlagert sich der
Fokus von der wichtigsten Person, dem Kunden, auf die zweitwichtigste, den
Anzeigenkunden.« Vielleicht verdient die Website kurzfristig ein bisschen mehr
Geld, aber mit Werbeanzeigen vollgestopfte Artikel, mehrseitige Diashows mit
langsamer Ladegeschwindigkeit und sensationalistische Klickköder-Schlagzeilen
werden die Leser langfristig vertreiben. Kaushiks Schlussfolgerung: »Man zwingt
seine Freunde nicht dazu, die Seitenaufrufe zu zählen. Niemals.«350
In manchen Fällen ist der Unterschied zwischen einem Modell und der Wirk-
lichkeit buchstäblich eine Frage von Leben und Tod. Im Militär und bei der Polizei
gilt ein repetitives Training als eine Schlüsselmethode zum Erwerb praktischer
Einsatzfertigkeiten. Ziel ist es, gewisse Bewegungsabläufe und Taktiken so intensiv
einzuüben, dass sie vollkommen automatisiert werden. Aber wenn sich hier Über-
anpassung einschleicht, kann sie verheerende Folgen haben. So gibt es Berichte
über Polizisten, die sich während eines Schusswechsels die Zeit nahmen, ihre leer
geschossenen Magazine in ihren Hosentaschen zu verstauen – was das vorschrifts-
mäßige Verhalten am Schießstand ist. Der Psychologieprofessor Dave Grossman,
selbst ein ehemaliger Army Ranger und Absolvent der Militärakademie West Point,
schreibt: »Nachdem sich in realen Schusswechseln der Rauch verzogen hatte, wurde
Beamten zu ihrem Entsetzen bewusst, dass sie leere Magazine in ihren Taschen
hatten, ohne sich daran zu erinnern, wie sie dorthin gekommen waren. Mehrfach
wurden tote Polizisten mit leeren Patronenhülsen in den Händen gefunden; sie
waren in einem Verwaltungsverfahren gestorben, das ihnen eingetrichtert worden
war.«351 Das FBI musste seine Ausbildung ändern, nachdem sich herausgestellt
hatte, dass Beamte reflexartig immer zwei Schüsse abfeuerten und dann ihre
Waffe ins Holster steckten – dies war das Standardprozedere in der Ausbildung –,
unabhängig davon, ob ihre Schüsse das Ziel getroffen hatten oder noch immer
eine Gefahr bestand. Fehler wie diese, die bei der Polizei und im Militär »Aus-
bildungsnarben« genannt werden, zeigen, dass bei der gewissen Vorbereitung für
Aufgaben die Gefahr der Überanpassung droht. In einem besonders dramatischen
Fall entwand ein Beamter einem Angreifer eine Pistole – und gab sie ihm instinktiv
wieder zurück, wie er es immer wieder mit seinen Ausbildern geübt hatte.352

198
Überanpassung aufspüren: Kreuzvalidierung

ÜBERANPASSUNG AUFSPÜREN:
KREUZVALIDIERUNG

Da sich Überanpassung zunächst als eine Theorie präsentiert, die vollkommen mit
den verfügbaren Daten übereinstimmt, könnte man meinen, sie sei sehr schwer
zu entdecken. Wie sollen wir ein wirklich gutes von einem überangepassten
Modell unterscheiden? Wie sollen wir in einem pädagogischen Kontext zwischen
einer Schulklasse, die den Unterrichtsstoff hervorragend beherrscht, und einer
Klasse unterscheiden, die nur »mechanisch Aufgaben einstudiert, die in der
Prüfung vorkommen werden«? Wie können wir in der Geschäftswelt eine echte
Spitzenkraft von einem Mitarbeiter unterscheiden, der seine Tätigkeit lediglich
geschickt an die wichtigsten Leistungskennzahlen seines Unternehmens – oder
an die Leistungsbeurteilung seines Chefs – anpasst?
Es ist schwierig, aber nicht unmöglich, diese Fälle auseinanderzuhalten. Die
Forschung auf dem Gebiet des Maschinenlernens hat mehrere konkrete Strategien
geliefert, mit deren Hilfe sich Überanpassung aufspüren lässt. Eine der wichtigsten
ist die sogenannte Kreuzvalidierung.
Kreuzvalidierung bedeutet im Grunde, dass man nicht nur beurteilt, wie gut
ein Modell mit den Daten übereinstimmt, auf denen es beruht, sondern auch, wie
gut es auf unbekannte Daten anwendbar ist. Paradoxerweise kann dies bedeuten,
dass weniger Daten ausgewertet werden. So könnten wir etwa in dem Beispiel
der Eheschließung zwei zufällig ausgewählte Punkte »zurückhalten« und unsere
Modelle lediglich mit den anderen acht in Einklang bringen. Anschließend
würden wir diese beiden Testpunkte nehmen und mit ihrer Hilfe abschätzen,
wie gut unsere verschiedenen Funktionen über die eingespeisten acht »Trainings-
punkte« hinaus anwendbar sind. Die beiden zurückgehaltenen Punkte fungieren
als »Testobjekte«: Wenn ein komplexes Modell die acht Trainingspunkte genau
trifft, aber die beiden Testpunkte deutlich verfehlt, spricht einiges dafür, dass
Überanpassung vorliegt.
Man kann die Aussagekraft eines Modells jedoch nicht nur testen, indem
man einige der verfügbaren Datenpunkte zurückhält, sondern auch, indem man
das Modell an Daten überprüft, die aus einer völlig anderen Art von Bewertung
stammen. Wie wir gesehen haben, kann auch die Verwendung von indirekten
Indikatoren – Geschmack als Indikator für Nährwert, Zahl der gelösten Fälle

199
Überanpassung

als Indikator für den Fleiß eines Ermittlers – zu Überanpassung führen. In


diesen Fällen müssen wir unser primäres Leistungsmaß durch einen Vergleich
mit anderen Maßen kreuzvalidieren.
In Schulen bieten standardisierte Tests eine Reihe von Vorteilen, darunter einen
deutlichen Skaleneffekt: Sie lassen sich kostengünstig und schnell zu Tausenden
durchführen. Neben solchen Tests könnten Schulen jedoch auch eine Stichprobe
der Schüler – beispielsweise einen Schüler pro Klasse oder einen von hundert
Schülern – einem anderen Beurteilungsverfahren unterziehen, etwa einem Aufsatz
oder einer mündlichen Prüfung. (Da nur einige Schüler auf diese Art getestet
würden, spielt es keine große Rolle, ob diese sekundäre Methode gut skalierbar
ist.) Die standardisierten Tests würden sofortige Ergebnisse liefern – man könnte
zum Beispiel Schüler jede Woche eine kurze, computerisierte Prüfung ablegen
lassen und die Fortschritte der Klasse praktisch in Echtzeit protokollieren –,
während die sekundären Datenpunkte zur Kreuzvalidierung herangezogen
würden, um sicherzustellen, dass die Schüler tatsächlich das Wissen erwerben,
das der standardisierte Test messen soll, und dass sie nicht einfach nur besser
darin werden, Prüfungen zu bestehen. Wenn sich die standardisierten Noten
einer Schule verbessern, während sich die »nicht standardisierten« Leistungen
in die entgegengesetzte Richtung entwickeln, wäre dies für die Schulbehörde
ein klarer Hinweis darauf, dass der Unterricht die Schüler mittlerweile vor allem
darauf vorbereitet, Standardtests zu bestehen, und dass eine Überanpassung der
Kompetenzen der Schüler an die Mechanik des Tests begonnen hat.
Auch Polizei und Militär können von der Kreuzvalidierung profitieren: Sie
ermöglicht es, den Auszubildenden gute Reflexe anzutrainieren, ohne dass Ge-
wohnheiten aus dem Training zu Automatismen werden. So wie sich Aufsätze
und mündliche Prüfungen zur Kreuzvalidierung standardisierter Tests eignen,
könnte man anhand gelegentlicher ungewohnter »Kreuztrainingsbewertungen«
feststellen, ob sich Reaktionszeit und Treffsicherheit auf ungewohnte Situationen
übertragen lassen. Wenn es nicht so ist, sollte der Ausbildungsplan geändert
werden. Auch wenn man sich im Training kaum auf reale Kampfhandlungen
vorbereiten kann, können Übungen wie diese doch zumindest frühzeitig Hin-
weise darauf liefern, dass sich im Training »kontraproduktive Verhaltensmuster«
herausgebildet haben.

200
Wie man Überanpassung bekämpft: Komplexität bestrafen

WIE MAN ÜBERANPASSUNG BEKÄMPFT:


KOMPLEXITÄT BESTRAFEN

Wenn du es nicht einfach erklären kannst, hast du es nicht richtig


verstanden.
Anonym353

Wir haben uns einige Beispiele für Überanpassung und einige der Methoden an-
gesehen, mit denen sie aufgespürt und gemessen werden kann. Aber was können
wir konkret tun, um der Überanpassung entgegenzuwirken?
Statistisch gesehen ist Überanpassung ein Symptom dafür, dass ein Modell
zu empfindlich auf die (bisher) erhobenen Daten reagiert. Daher gibt es eine ein-
fache Lösung: Wir müssen unsere Bemühen um hohe Übereinstimmung gegen
die Komplexität der dafür verwendeten Modelle abwägen.
Eine Methode, um zwischen mehreren konkurrierenden Modellen zu wählen,
ist Ockhams Rasiermesser; dieses Prinzip besagt, dass unter ansonsten gleichen
Bedingungen die einfachste Hypothese wahrscheinlich die richtige sein wird.
Selbstverständlich sind die Bedingungen selten vollkommen gleich, so dass nicht
auf Anhieb offensichtlich ist, wie man eine Methode wie Ockhams Rasiermesser
in einem mathematischen Kontext anwenden kann. Der russische Mathematiker
Andrei Tichonow schlug in den Sechzigerjahren folgende Lösung für dieses
Problem vor: Die Berechnungen sollten durch einen zusätzlichen Term er-
weitert werden, der komplexere Lösungen »bestraft«.354 Wenn wir eine Strafe
für Komplexität einführen, dann müssen komplexere Modelle die Daten nicht
nur besser, sondern erheblich besser erklären, um ihre größere Komplexität zu
rechtfertigen. Informatiker bezeichnen dieses Prinzip – die Verwendung von Be-
schränkungen, die Modelle für ihre Komplexität bestrafen – als Regularisierung.
Wie sehen diese Komplexitätsstrafen nun aus? Ein 1996 von dem Biostatistiker
Robert Tibshirani entdeckter Algorithmus namens Lasso nutzt das Gesamt-
gewicht der verschiedenen Faktoren im Modell.*355 Der Lasso-Algorithmus drückt
die Gewichte möglichst vieler Faktoren gegen null. Nur die Faktoren, die einen
großen Einfluss auf die Ergebnisse ausüben, bleiben in der Gleichung – und

* Für Mathematikfans: Das ist die Summe der absoluten Werte der Koeffizienten der Variablen.

201
Überanpassung

machen daher möglicherweise aus einem überangepassten Neun-Faktoren-Modell


eine einfachere, robustere Formel mit lediglich zwei wirklich relevanten Faktoren.
Verfahren wie der Lasso-Algorithmus sind heute im Maschinenlernen all-
gegenwärtig, aber man findet das gleiche Prinzip – eine Strafe für Komplexi-
tät – auch in der Natur. Lebewesen werden dadurch, dass ihnen grundlegende
Ressourcen wie Zeit, Gedächtnis, Energie und Aufmerksamkeit nur in begrenzter
Menge zur Verfügung stehen, fast automatisch zu einer gewissen Einfachheit
gedrängt. Beispielsweise beschränkt der Aufwand für den Stoffwechsel die
Komplexität von Organismen und führt eine kalorische Strafe für eine über-
mäßig komplizierte Stoffwechselmaschinerie ein. Die Tatsache, dass das mensch-
liche Gehirn etwa ein Fünftel der gesamten täglichen Kalorienzufuhr verbrennt,
bezeugt die evolutionären Vorteile, die uns unsere intellektuellen Fähigkeiten
verschaffen: Der Nutzen des Gehirns muss aus irgendeinem Grund größer sein
als diese erheblichen Energiekosten. 356 Andererseits können wir daraus auch
schließen, dass ein deutlich komplexeres Gehirn, evolutionär gesehen, keinen
hinreichend großen Zusatznutzen abwirft. Wir sind so intelligent, wie wir sein
müssen, und nicht erheblich intelligenter.
Es wird angenommen, dass der gleiche Prozess auch auf neuronaler Ebene
eine Rolle spielt. In der Informatik können Software-Modelle, die sich am Vor-
bild des Gehirns orientieren, sogenannte »künstliche neuronale Netze«, beliebig
komplexe Aufgaben erlernen – sie sind sogar flexibler als unser oben erwähntes
Neun-Faktoren-Modell –, aber gerade wegen dieser Flexibilität sind sie bekannter-
maßen anfällig für Überanpassung. Biologische neuronale Netze umgehen dieses
Problem teilweise, weil sie ihre Leistungsfähigkeit gegen die Kosten ihrer Unter-
haltung abwägen müssen. Beispielsweise erklären die Neurowissenschaftler, dass
das Gehirn die Anzahl der Neuronen, die zu jedem beliebigen Zeitpunkt feuern,
zu minimieren versucht – und so die gleiche Art von Druck auf Komplexität
ausübt wie Lasso.357
Die Sprache stellt ein weiteres natürliches Lasso dar: Komplexität wird dadurch
bestraft, dass eine umständliche Ausdrucksweise mühsam ist und dass die Auf-
merksamkeitsspanne des Zuhörers strapaziert wird. Geschäftspläne werden auf
eine Präsentation zwischen Tür und Angel verdichtet, Lebensratschläge werden
nur dann zu Spruchweisheiten, wenn sie prägnant und einprägsam sind. Und
alles, was wir uns einprägen müssen, muss das Lasso des Gedächtnisses passieren.

202
Die Vorteile der Heuristik

DIE VORTEILE DER HEURISTIK

Der Ökonom Harry Markowitz wurde 1990 für seine moderne Portfoliotheorie
mit dem Nobelpreis für Wirtschaftswissenschaften ausgezeichnet: Seine bahn-
brechende »Mittelwert-Varianz-Portfoliooptimierung« zeigte, wie ein Investor
seine Mittel optimal auf verschiedene Fonds und sonstige Finanzanlagen aufteilen
kann, um bei einem gegebenen Risikoniveau die Rendite zu maximieren.358 Als
für Markowitz selbst schließlich die Zeit gekommen war, seine Ersparnisse in
die Altersvorsorge zu investieren, hätte man meinen sollen, dass er perfekt für
diese Aufgabe gerüstet war. Was tat er?
»Ich hätte die historischen Kovarianzen der Anlageklassen berechnen und
eine Effizienzlinie zeichnen sollen. Stattdessen stellte ich mir vor, wie ich leiden
würde, wenn ich bei einer Börsenhausse keine Aktien hätte – oder wenn die Kurse
auf breiter Front einbrächen und ich mein ganzes Geld in Aktien gesteckt hätte.
Ich wollte meine Entscheidungen in Zukunft so wenig wie möglich bereuen.
Also investierte ich mein Geld jeweils zur Hälfte in Anleihen und Aktien.«359
Warum in aller Welt tat er das? Die Geschichte des Nobelpreisträgers und
seiner Anlagestrategie könnte als ein Beispiel für menschliche Irrationalität
dienen: Angesichts der Komplexität des wirklichen Lebens gab er das rationale
Modell auf und hielt sich an eine einfache Heuristik. Aber gerade wegen der
Komplexität des wirklichen Lebens könnte eine einfache Heuristik tatsächlich
die rationale Lösung sein.
Was das Portfoliomanagement betrifft, so ist man möglicherweise besser
beraten, Informationen über Märkte zu ignorieren, sofern man nicht voll-
kommen von der Richtigkeit dieser Informationen überzeugt ist. Wenn man das
Markowitz-Modell der optimalen Portfolioaufteilung praktisch umsetzen will,
benötigt man gute Schätzungen der statistischen Eigenschaften verschiedener
Kapitalanlagen. Ein Fehler in diesen Schätzungen kann zu völlig verschiedenen
Vermögensaufteilungen führen und so potenziell das Risiko erhöhen. Dagegen
wird die gleichmäßige Aufteilung auf Aktien und Anleihen in keiner Weise von
den erhobenen Daten beeinflusst. Diese Strategie versucht nicht einmal, der
historischen Performance dieser Anlageklassen gerecht zu werden – und deshalb
kann sie sich auch nicht überanpassen.
Selbstverständlich ist eine 50:50-Aufteilung unter dem Gesichtspunkt der
Komplexität nicht unbedingt ideal, doch es spricht einiges dafür. Wenn man zu-

203
Überanpassung

fälligerweise den Erwartungswert und die Varianz der Renditen einer Reihe von
Anlagen kennt, dann sollte man die Mittelwert-Varianz-Portfolio-Optimierung
anwenden – der optimale Algorithmus ist nicht ohne Grund optimal. Aber wenn
die Wahrscheinlichkeit, sie alle richtig abzuschätzen, gering ist und wenn das
Modell diesen unzuverlässigen Größen ein hohes Gewicht beimisst, dann sollten
im Entscheidungsprozess die Alarmglocken läuten: Es ist Zeit zu regularisieren.
Gestützt auf Beispiele wie Markowitz’ Vorgehen bei der Alters­vorsorge, er-
klären die Psychologen Gerd Gigerenzer und Henry Brighton, jene Faustregeln,
die Menschen in realen Entscheidungssituationen anwenden, seien in vielen Fällen
genau die Überlegungen, die zu guten Entscheidungen führten. »Im Gegensatz
zu der verbreiteten Auffassung, eine geringere Informationsverarbeitung ver-
mindere die Genauigkeit«, schreiben sie, »zeigt die heuristische Forschung, dass
eine geringere Menge an Information, Rechenaufwand und Zeit die Genauigkeit
tatsächlich verbessern kann.«360 Eine Heuristik, die mit weniger Faktoren oder
geringerem Rechenaufwand einfachere Antworten begünstigt, erzielt genau diese
»Weniger-ist-mehr«-Effekte.
Überanpassung lässt sich nicht nur dadurch verringern, dass man die Komplexi-
tät eines Modells »bestraft«. Man kann ein Modell auch auf Einfachheit trimmen,
indem man die Geschwindigkeit steuert, mit der es sich eingespeisten Daten an-
passt. So liefert uns die Erforschung der Überanpassung Aufschlüsse über unsere
Geschichte – sowohl als Gesellschaft als auch als Spezies.

DAS GEWICHT DER GESCHICHTE

Alles Futter, das eine lebende Ratte gefressen hat, hat sie zwangs-
läufig nicht umgebracht.
Samuel Revusky und Erwin Bedarf, »Association
of Illness with Prior Ingestion of Novel Foods«

Der Absatz von Sojamilch hat sich in den Vereinigten Staaten von der Mitte der
Neunzigerjahre bis 2013 mehr als vervierfacht.361 Aber wenn es nach den Schlag-
zeilen ging, gehörte die Sojamilch Ende 2013 bereits der Vergangenheit an, weit
abgeschlagen hinter der Mandelmilch auf dem zweiten Platz. So erklärte der Lebens-
mittel- und Getränkeforscher Larry Finkel im Gespräch mit Bloomberg Businessweek:
»Gegenwärtig sind Nüsse angesagt. Soja hört sich mehr nach altmodischer gesunder

204
Das Gewicht der Geschichte

Kost an.«362 Die Silk Company, welche die Sojamilch populär machte, berichtete
Ende 2013, im letzten Quartal sei der Umsatz mit ihren Mandelmilchprodukten
um über 50 Prozent gegenüber dem Vorquartal gestiegen. Unterdessen meldete Vita
Coco, der führende Hersteller von Kokosnusswasser, im Jahr 2014, sein Umsatz
habe sich seit 2011 verdoppelt – und sei seit 2004 sogar um das Dreihundertfache
gestiegen.363 Die New York Times kommentierte dies so: »Kokosnusswasser scheint
einen Sprung vom Unsichtbaren zum Unumgänglichen gemacht zu haben, ohne im
Bereich des irgendwie Vertrauten zu verweilen.«364 Unterdessen wurde allein 2013
40 Prozent mehr Grünkohl verkauft.365 Im Jahr davor war der größte Käufer von
Grünkohl Pizza Hut gewesen, das ihn – als Garnitur – in seine Salatbüfetts legte.366
Ausgerechnet einige der grundlegenden Fragen des menschlichen Lebens,
darunter die, wie wir uns ernähren sollten, scheinen besonders von kurzlebigen
Moden beherrscht zu sein. Diese Moden können die Welt nicht zuletzt deshalb im
Sturm erobern, weil sich unsere Kultur so schnell wandelt. Informationen breiten
sich heute schneller als je zuvor aus, und dank globaler Lieferketten können die
Verbraucher zügig ihre Kaufgewohnheiten ändern (und das Marketing ermuntert
sie dazu). Wenn eine Studie darauf hindeutet, dass zum Beispiel Sternanis gesund
ist, kann diese Nachricht sich innerhalb einer Woche in der gesamten Blogo-
sphäre verbreiten, eine Woche später im Fernsehen kursieren und innerhalb
von sechs Monaten scheinbar jeden Supermarkt erreichen, worauf schon bald
spezielle Sternanis-Kochbücher veröffentlicht werden. Diese atemberaubende
Geschwindigkeit ist sowohl ein Segen als auch ein Flug.
Wenn wir hingegen die Evolution von Organismen – einschließlich des
Menschen – betrachten, fällt uns etwas Verblüffendes auf: Veränderungen gehen
langsam vonstatten. Dies bedeutet, dass die Eigenschaften moderner Organismen
nicht nur von ihrer gegenwärtigen Umwelt, sondern auch von ihrer evolutionären
Vergangenheit geprägt sind. So spiegelt die merkwürdige Tatsache, dass sich die
Nervenbahnen im ZNS überkreuzen (unsere linke Körperhälfte wird von der
rechten Gehirnhälfte kontrolliert und umgekehrt), die Evolutionsgeschichte der
Wirbeltiere wider. Einer Theorie zufolge soll dieses als »Dekussation« bezeichnete
Phänomen zu einem Zeitpunkt in der Evolution aufgetreten sein, als sich die
Körper früher Wirbeltiere in Bezug auf ihre Köpfe um 180 Grad drehten; während
die Nervenstränge von Wirbellosen wie Hummern und Regenwürmern längs der
»Bauchseite« des Tieres verlaufen, verlaufen die Nervenstränge von Wirbeltieren
entlang der Wirbelsäule.367

205
Überanpassung

Das menschliche Ohr ist ein weiteres Beispiel. Funktionell betrachtet ist
es ein System zur Umwandlung von Schallwellen in elektrische Signale durch
Verstärkung mit Hilfe dreier Knöchelchen: Hammer, Amboss und Steigbügel.
Es ist ein beeindruckendes Verstärkersystem – aber seine konkrete Funktions-
weise hat viel mit evolutionsgeschichtlichen Beschränkungen zu tun. So hat sich
gezeigt, dass Reptilien einen einzigen Knochen in ihrem Ohr, aber zusätzliche
Knochen im Kiefer haben, die Säugetieren fehlen. Diese Kieferknochen wurden
offensichtlich im Ohr von Säugetieren für einen neuen Zweck genutzt.368 In der
genauen Form und anatomischen Konfiguration des menschlichen Ohrs spiegelt
sich also unsere Evolutionsgeschichte mindestens genauso sehr wider wie die
Lösung des Hörproblems.
Das Konzept der Überanpassung ermöglicht es uns, den Nutzen dieses
evolutionären Gepäcks zu erkennen. Auch wenn überkreuzende Nervenbahnen
und umfunktionierte Kieferknochen wie suboptimale Lösungen wirken, wollen
wir nicht unbedingt, dass die Evolution einen Organismus an jede noch so kleine
Veränderung in seiner ökologischen Nische anpasst – zumindest sollten wir uns
klarmachen, dass der Organismus andernfalls in seinem Fortbestand extrem
anfällig für weitere Umweltveränderungen wäre. Der Zwang, mit vorhandenem
Material auszukommen, stellt zudem eine nützliche Beschränkung dar. Dies
erschwert es, grundlegende Änderungen am Bauplan von Organismen vorzu-
nehmen, und wirkt somit der Überanpassung entgegen. Da wir als Spezies durch
die evolutionären Anpassungen der Vergangenheit eingeschränkt sind, sind wir
nicht perfekt an unsere bekannte gegenwärtige Umwelt angepasst, aber diese
Tatsache verleiht uns zugleich eine gewisse Widerstandskraft für eine unbekannte
Zukunft.
Eine ähnliche Einsicht könnte uns helfen, den sich rasch wandelnden Moden
der menschlichen Gesellschaft zu widerstehen. In der kulturellen Sphäre spielen
Traditionen die gleiche Rolle wie evolutionäre Beschränkungen in der Natur. Ein
bisschen Konservatismus, ein Bewusstsein für die historischen Zusammenhänge
kann als Puffer gegen das Auf und Ab der Moden wirken. Dies bedeutet selbst-
verständlich nicht, dass wir die neuesten Daten ignorieren sollten. Man sollte mit
der Zeit gehen, aber nicht unbedingt jede Mode übernehmen.
Im Maschinenlernen zeigen sich die Vorteile langsamer Veränderungen am
deutlichsten bei einer Regularisierungstechnik namens Early Stopping. Als wir
uns zu Beginn des Kapitels die Umfragedaten zum Eheglück ansahen, gingen wir

206
Das Gewicht der Geschichte

direkt zu den bestangepassten Ein-, Zwei- und Neun-Faktoren-Modelle über. In


vielen Situationen ist die Feinjustierung der Parameter, die für eine möglichst gute
Anpassung an einen gegebenen Datensatz sorgen soll, jedoch ein eigener Prozess.
Was geschieht, wenn wir diesen Prozess frühzeitig anhalten und einem Modell
einfach nicht genug Zeit geben, übermäßig komplex zu werden? Was auf den
ersten Blick halbherzig oder nachlässig wirken mag, erweist sich bei genauerem
Hinsehen als eine wichtige eigenständige Strategie.
Viele Vorhersagealgorithmen suchen zunächst nach dem wichtigsten Einzel-
faktor, statt mit einem Multi-Faktoren-Modell zu arbeiten. Erst nachdem sie
diesen ersten Faktor gefunden haben, suchen sie nach dem zweitwichtigsten
Faktor, den sie zu dem Modell hinzufügen; anschließend machen sie sich auf die
Suche nach dem dritten usw.. Man kann also ganz einfach dadurch verhindern,
dass ein Modell allzu komplex wird, dass man den Prozess plötzlich anhält, bevor
es zur Überanpassung kommen kann. Eine ähnliche Methode zur Berechnung
von Vorhersagen betrachtet einen Datenpunkt nach dem anderen, wobei das
Modell für jeden neuen Punkt optimiert wird, bevor weitere Punkte hinzugefügt
werden; auch hier erhöht sich die Komplexität des Modells nach und nach, sodass
ein plötzliches Anhalten des Prozesses eine Überanpassung verhindern kann.
Diese Struktur – in der mehr Zeit mehr Komplexität bedeutet – kennzeichnet
eine Vielzahl menschlicher Aktivitäten. Sich mehr Zeit für eine Entscheidung zu
nehmen, bedeutet nicht unbedingt, dass die Entscheidung besser sein wir. Aber
es garantiert, dass man mehr Faktoren, mehr hypothetische Szenarien, mehr Pros
und Kontras betrachten wird und folglich Gefahr läuft überanzupassen.
Tom machte genau diese Erfahrung, als er Professor wurde. In seinem ersten
Semester und seiner allerersten Lehrveranstaltung verbrachte er unglaublich viel
Zeit damit, seinen Unterricht zu perfektionieren – er brauchte über zehn Stunden
Vorbereitung für jede Unterrichtsstunde. Als er in seinem zweiten Semester eine
andere Lehrveranstaltung anbot, konnte er nicht so viel Zeit in die Vorbereitung
investieren und befürchtete ein Debakel. Aber es geschah etwas Merkwürdiges:
Die zweite Lehrveranstaltung kam bei den Studenten gut an. Tatsächlich gefiel
sie ihnen besser als die Erste. Denn es stellte sich heraus, dass Tom die zusätz-
lichen Stunden damit verbracht hatte, nebensächliche Details auszuarbeiten, die
die Studenten nur verwirrten. In seiner nächsten Lehrveranstaltung ließ er diese
Details einfach weg. Tom erkannte schließlich, dass das eigentliche Problem darin
bestand, dass er seine eigenen Interessen und Vorlieben als indirekten Maßstab

207
Überanpassung

für die Interessen seiner Studenten verwendet hatte. Dieser Maßstab eignete sich
als Näherungswert, aber eine Überanpassung lohnte sich nicht – was erklärte,
weshalb es kontraproduktiv war, zusätzliche Stunden damit zu verbringen, die
gesamte Vorlesung in mühevoller Kleinarbeit zu »perfektionieren«.
Die Effektivität der Regularisierung bei allen möglichen Aufgaben im Bereich
des Maschinenlernens deutet darauf hin, dass wir zu besseren Entscheidungen
gelangen können, indem wir bewusst weniger nachdenken und tun. Wenn die
zuerst entdeckten Faktoren wahrscheinlich die wichtigsten sind, dann vergeuden
wir nicht nur Zeit und Energie, indem wir gründlicher über ein Problem nach-
denken, sondern das führt auch zu schlechteren Lösungen. Early-Stopping liefert
die Grundlage für ein wohlbegründetes Argument gegen allzu intensives Nach-
denken. Aber um daraus einen praktischen Ratschlag zu machen, muss man eine
weitere Frage beantworten: Wann sollten wir aufhören nachzudenken?

WANN WIR WENIGER NACHDENKEN SOLLTEN

Wie bei allen Problemen in Zusammenhang mit Überanpassung hängt die


Antwort auf die Frage, wie früh wir stoppen sollten, davon ab, wie groß die Kluft
zwischen dem Messbaren und dem wirklich Wichtigen ist. Wenn wir sämtliche
Fakten kennen, wenn es weder Fehler noch Ungewissheit gibt und wenn wir das,
was wichtig für uns ist, direkt messen können, dann sollten wir nicht vorzeitig
anhalten. Dann sollten wir lang und gründlich nachdenken: die Komplexität und
die Anstrengungen sind angemessen.
Aber das ist praktisch nie der Fall. Bei großer Ungewissheit und begrenzten
Daten sollten wir unbedingt frühzeitig anhalten. Wenn wir keine klare Vor-
stellung davon haben, wie und von wem unsere Arbeit beurteilt werden wird, dann
lohnt sich der zusätzliche Zeitaufwand für die Perfektionierung entsprechend den
höchsten idiosynkratischen Maßstäben nicht. Je größer die Ungewissheit ist, umso
größer ist die Kluft zwischen dem Messbaren und dem, was wirklich wichtig ist,
und umso mehr sollten wir uns vor Überanpassung hüten – das heißt, umso eher
sollten wir anhalten und eine einfache Lösung wählen. Wenn wir im Dunkeln
tappen, ist der einfachste Plan der beste. Wenn unsere Erwartungen ungewiss
und die Daten verrauscht sind, dann ist es am besten, mit einem breiten Pinsel
zu malen und das große Bild zu betrachten. Manchmal ganz buchstäblich. Zum

208
Wann wir weniger nachdenken sollten

Beispiel sagen die Existenzgründer Jason Fried und David Heinemeier Hansson,
dass sie umso breitere Stifte verwenden, je weiter sie vorausdenken – eine kluge
Form der Vereinfachung:
»Wenn wir mit der Konzeption beginnen, skizzieren wir die Ideen mit einem
dicken Sharpie-Marker und nicht mit einem Kugelschreiber. Warum? Kugel-
schreiber sind zu fein. Sie sind zu hochauflösend. Sie ermuntern einen dazu, sich
mit Dingen zu beschäftigen, über die man sich noch nicht den Kopf zerbrechen
sollte, wie etwa die Perfektionierung der Schraffur oder ob man eine gepunktete
oder eine gestrichelte Linie verwenden sollte. Zu guter Letzt konzentriert man
sich auf Dinge, die zu diesem Zeitpunkt noch unwichtig sind. Ein Sharpie macht
diese Detailarbeit unmöglich. Man kann nur Formen, Linien und Kästchen
zeichnen. Das ist gut so. Am Anfang sollte man nur das große Ganze betrachten.«
Henry Mintzberg von der McGill-Universität beschreibt es so: »Was würde
geschehen, wenn wir von der Prämisse ausgingen, dass wir das, worauf es an-
kommt, nicht messen können? Dann müssten wir statt auf Messungen auf etwas
setzen, das vielen große Angst macht: Es wird Urteilskraft genannt.«369
Der Early-Stopping-Ansatz zeigt, dass es manchmal nicht darum geht,
zwischen Vernunft und erstem instinktivem Impuls zu wählen. Dem Instinkt
zu folgen kann die rationale Lösung sein. Je komplexer, instabiler und ungewisser
eine Entscheidung ist, umso rationaler ist diese Vorgehensweise.
Kehren wir zu Darwin zurück: Sein Problem, sich zu entscheiden, ob er
einen Heiratsantrag machen sollte, hätte er wahrscheinlich auf der Grundlage
der ersten Vor- und Nachteile, die er auflistete, lösen können, während die an-
schließenden Argumente dafür und dagegen nur dazu führten, dass er mehr
Zeit und Energie investierte, ohne dass es ihm die Entscheidung erleichterte
(wahrscheinlich erschwerte es sie sogar). Den entscheidenden Anstoß gab ihm
offenbar der Gedanke, dass »die Vorstellung unerträglich ist, das ganze Leben wie
eine geschlechtslose Biene zu verbringen, immerzu zu arbeiten und am Ende mit
leeren Händen dazustehen«.370 Kinder und eine Gefährtin – die ersten Punkte,
die er erwähnte – waren letztlich die Argumente, die den Ausschlag für die Ehe
gaben. Sein Buchbudget war eine Ablenkung.
Aber bevor wir Darwin als unverbesserlichen Grübler hinstellen, sollten wir
einen weiteren Blick in sein Tagebuch werfen. Das Faksimile enthüllt etwas
Faszinierendes: Darwin war nicht wie Franklin, der tagelang diverse Erwägungen
hinzufügte. Er beschäftigte sich sehr ernsthaft mit dieser weitreichenden Ent-

209
Überanpassung

scheidung, aber seinen Entschluss fasste er in dem Moment, als er mit seinen
Notizen den unteren Rand des Tagebuchblattes erreicht hatte. Er regularisierte
anhand einer Seite. Dies erinnert sowohl an Early-Stopping als auch an Lasso:
Alles, was nicht auf die Seite passt, spielt für die Entscheidung keine Rolle.
Kaum hatte sich Darwin für die Ehe entschieden, begann er, sich über die
Wahl des richtigen Zeitpunkts den Kopf zu zerbrechen. »Wann? Bald oder
später?«, überschrieb er eine weitere Liste, wobei er alles Mögliche vom Eheglück
über die Ausgaben bis zu seinem langjährigen Wunsch erwog, in einem Heiß-
luftballon und/oder nach Wales zu reisen.371 Aber am Ende der Seite gelangte er
zu dem Entschluss: »Egal, vertraue auf das Glück« – und wenige Monate später
hielt er um die Hand von Emma Wedgwood an: Es sollte der Beginn einer er-
füllenden Partnerschaft und eines glücklichen Familienlebens sein.

210
8
ENTSPANNUNG
LASS ES LAUFEN

I
m Jahr 2010 arbeitete Meghan Bellows tagsüber an ihrer Doktorarbeit in
technischer Chemie an der Universität Princeton, und nachts plante sie ihre
Hochzeit. In ihrer Forschung ging es darum, in einer Proteinkette die richtigen
Stellen für Aminosäuren zu finden, um ein Molekül mit bestimmten Merkmalen
zu erzeugen. (»Wenn man die Bindungsenergie von zwei Proteinen maximiert,
kann man einen Peptidinhibitor mit einer biologischen Funktion gestalten, um
den Fortschritt einer Krankheit zu bremsen.«372) An der Hochzeitsfront kämpfte
Bellows mit dem Problem der Sitzordnung.
Bellows hatte neun Studienfreunde eingeladen, die sie natürlich an einen
Tisch setzen wollte. Allerdings war an jedem Tisch Platz für zehn Gäste. Nun
wusste Bellows nicht, welchen anderen Gast sie in diese kleine Wiedersehensfeier
hineinsetzen sollte. Noch schlimmer war, dass sie elf nahe Verwandte unterbringen
musste. Wer von ihnen würde keinen Ehrenplatz am Tisch der Eltern finden, und
wie sollte sie dieser Person die Verbannung erklären? Und was war mit Personen
wie ihren Kindheitsfreunden aus der Nachbarschaft, mit ihrer Babysitterin oder
den Arbeitskollegen ihrer Eltern, die eigentlich niemanden von den anderen
Hochzeitsgästen kannten?
Das Problem der Sitzordnung schien nicht weniger schwierig als das Protein-
problem, an dem Bellows im Labor arbeitete. Dann ging ihr ein Licht auf: Es war
dasselbe Problem wie im Labor. Eines Abends brütete sie über der Sitzordnung, als
ihr klar wurde, »dass tatsächlich eine perfekte Korrelation zwischen der Verteilung
von Aminosäuren und Proteinen in meiner Doktorarbeit und der Verteilung von

211
Entspannung

Gästen und Tischen bei meiner Hochzeit bestand«. Bellows bat ihren Verlobten
um ein Blatt Papier und begann, Gleichungen zu kritzeln. Aminosäuren wurden
zu Gästen, Bindungsenergien wurden zu persönlichen Beziehungen und die so-
genannten Nachbarschaftsinteraktionen der Moleküle wurden zu … Interaktionen
zwischen Tischnachbarn. Bellows konnte die Algorithmen aus ihrer Forschungs-
arbeit anwenden, um die Probleme mit der Sitzordnung bei ihrer Hochzeit zu lösen.
Sie entwickelte eine Methode, um die Stabilität der Beziehungen zwischen
allen Gästen numerisch zu bestimmen. Wenn zwei Gäste einander nicht kannten,
erhielt ihre Beziehung den Wert 0, wenn sie einander kannten, erhielten sie den
Wert 1, und wenn sie ein Paar waren, erhielten sie den Wert 50. (Der Schwester
der Braut wurde das Vorrecht zugestanden, ihren Beziehungen zu allen Personen,
neben denen sie sitzen wollte, einen Wert von 10 zu geben.) Sodann legte Bellows
einige Einschränkungen fest, nämlich die maximale Kapazität der Tische und
einen Mindestgesamtwert der Beziehungen an einem Tisch, damit sich kein
Tisch in eine unbehagliche »gemischte Gruppe« von Fremden verwandelte. Sie
legte auch das Programmziel fest: Die Beziehungspunkte zwischen jedem Gast
und seinen Tischgenossen sollten maximiert werden.
Es waren 107 Personen eingeladen, die auf 11 Tische mit jeweils 10 Plätzen
verteilt werden mussten. Das bedeutete, dass es etwa 11 107 mögliche Sitz-
anordnungen gab: Das ist eine Zahl mit 112 Stellen, mehr als 200 Milliarden
Googols, eine Zahl, die jene der (lediglich 80-stelligen) Zahl der Atome im be-
obachtbaren Universum deutlich übersteigt.373 Bellows fütterte ihren Computer im
Labor an einem Samstagabend mit den Daten und ließ ihn über das Wochenende
rechnen. Als sie am Montagmorgen zurückkehrte, lief das Programm noch immer.
Sie ließ es die beste bisher gefundene Sitzordnung ausspucken und erlaubte dem
Computer, sich wieder dem Proteindesign zuzuwenden.
Selbst in dem leistungsstarken Computercluster hatte das Programm in 36
Stunden lediglich einen winzigen Bruchteil der potenziellen Sitzanordnungen
beurteilen können. Höchstwahrscheinlich gelangte es bei diesen Rechnungen
nie zur optimalen Lösung mit dem höchsten möglichen Ergebnis. Bellows war
trotzdem zufrieden mit den Ergebnissen. »Der Computer berücksichtigte Be-
ziehungen, die uns entgangen waren«, erklärte sie, und er eröffnete erfreuliche,
unkonventionelle Möglichkeiten, die den menschlichen Planern überhaupt nicht
in den Sinn gekommen waren. Beispielsweise schlug das Programm vor, die Eltern
der Braut vom Familientisch zu entfernen und stattdessen zu alten Freunden zu

212
Die Schwierigkeit der Optimierung

setzen, die sie seit Jahren nicht gesehen hatten. Seine abschließende Empfehlung
fand bei allen Beteiligten Zustimmung – obwohl die Mutter der Braut dem Drang
nicht widerstehen konnte, noch einige Eingriffe vorzunehmen.374
Die Tatsache, dass es mit der gesamten Rechnerleistung eines Labors in
Princeton nicht gelang, die perfekte Sitzordnung zu finden, mag überraschend
wirken. In den meisten bisher behandelten Bereichen können Algorithmen
optimale Lösungen liefern. Aber in den vergangenen Jahrzehnten haben die
Informatiker entdeckt, dass es ganze Problemkategorien gibt, in denen eine
perfekte Lösung unmöglich ist, so schnell unsere Computer auch rechnen und
so gut wir sie auch programmieren mögen. Tatsächlich weiß niemand so gut wie
ein Informatiker, dass man sich angesichts einer scheinbar unüberwindlichen
Herausforderung weder ewig weiter bemühen noch aufgeben, sondern etwas
vollkommen anderes versuchen sollte.

DIE SCHWIERIGKEIT DER OPTIMIERUNG

Bevor er die Vereinigten Staaten durch den Bürgerkrieg führte, bevor er die Er-
klärung über die Befreiung der Sklaven aufsetzte und bevor er die Gettysburg
Address hielt, arbeitete Abraham Lincoln sechzehn Jahre lang in Springfield
(Illinois) als »Prairie-Anwalt« und bereiste zweimal im Jahr den 8. Gerichtsbezirk.
Als Circuit-Anwalt hatte er buchstäblich zu Pferd eine wochenlange Rundreise zu
absolvieren, Hunderte Kilometer zu reisen und Ortschaften in vierzehn Counties
zu besuchen, um Gerichtsprozesse zu führen. Die Planung dieser Rundreisen
konfrontierte ihn naturgemäß mit der Frage, wie er alle Städte besuchen konnte,
in denen er Klienten vertreten musste, ohne Umwege machen und ohne zweimal
in eine Stadt reisen zu müssen.375
Hier haben wir es mit einem Beispiel für das zu tun, was die Mathematiker und
Informatiker als »beschränkte Optimierung« (oder »nichtlineare Programmierung«)
bezeichnen: Wie kann man gemäß bestimmten Regeln und unter Anwendung
eines bestimmten Maßstabs die beste Anordnung für eine Reihe von Variablen
finden? Tatsächlich ist dies das berühmteste aller Optimierungsprobleme. Wäre es
im 19. Jahrhundert untersucht worden, so wäre es möglicherweise als das »Problem
des Prairie-Anwalts« bekannt geworden (und hätten wir erst im 21. Jahrhundert
begonnen, uns damit zu beschäftigen, würden wir es vielleicht als »Problem der
Lieferdrohne« bezeichnen). Aber so wie das Sekretärinnenproblem tauchte es Mitte

213
Entspannung

des 20. Jahrhunderts auf, und sein kanonischer Name ruft uns diesen Ursprung in
Erinnerung: Es wird als das »Problem des Handelsreisenden« bezeichnet.
Die mathematische Gemeinde wurde erst in den dreißiger Jahren des ver-
gangenen Jahrhunderts auf das Problem der Routenplanung aufmerksam, aber als
es erst einmal aufgetaucht war, war es rasch in aller Munde. Der Mathematiker
Karl Menger sprach im Jahr 1930 vom »Postbotenproblem« und wies darauf hin,
dass bisher keine einfachere Lösung bekannt war als die, alle Möglichkeiten
der Reihe nach auszuprobieren.376 Hassler Whitney beschäftigte sich 1934 in
einem Vortrag an der Universität Princeton mit dem Problem, womit er das
Interesse seines Kollegen Merrill Flood weckte, jenes Mannes, der als Erster
nachweislich eine Lösung für das Sekretärinnenproblem fand.377 Als Flood in
den Vierzigerjahren nach Kalifornien umzog, machte er seine Kollegen in der
RAND Corporation auf das Problem aufmerksam, und die mittlerweile ge-
bräuchliche Bezeichnung tauchte erstmals im Jahr 1949 in einer Publikation der
Mathematikerin Julia Robinson auf.378 Das Problem machte die Runde unter den
Mathematikern, und viele der brillantesten Forscher jener Zeit zerbrachen sich
den Kopf darüber, ohne dass einer von ihnen nennenswerte Fortschritte auf dem
Weg zu einer Lösung gemacht hätte.
Beim Problem des Handelsreisenden lautet die Frage nicht, ob ein Computer
(oder ein Mathematiker) die kürzeste mögliche Route finden kann: Theoretisch
kann man einfach eine Liste sämtlicher möglichen Routen erstellen und die
Länge jeder einzelnen Strecke messen. Das Problem ist vielmehr, dass die Liste
der möglichen Verbindungsrouten explodiert, wenn die Zahl der zu verbindenden
Punkte wächst. Eine Route ist einfach eine Anordnung der Städte, weshalb man es
mit der gefürchteten »faktoriell wachsenden Laufzeit« – O(n!) – zu tun bekommt,
wenn man alle Reihenfolgen ausprobiert. Es ist das Berechnungsgegenstück zu
dem Versuch, ein Kartendeck zu sortieren, indem man es solange mischt, bis die
Karten zufällig perfekt angeordnet sind.
Die Frage ist: Gibt es Hoffnung auf eine bessere Lösung?
Die Mathematiker bemühten sich jahrzehntelang vergeblich, das Problem des
Handelsreisenden in den Griff zu bekommen. Flood zum Beispiel schrieb im Jahr
1956, mehr als zwanzig Jahre nach seiner ersten Begegnung mit dem Problem: »Es
ist sehr wahrscheinlich, dass ein ganz anderer Zugang als die bisher gewählten
erforderlich sein wird, um das Problem erfolgreich zu behandeln. Tatsächlich
gibt es möglicherweise keine allgemeine Lösung für das Problem, und die Fest-

214
Die Definition der Schwierigkeit

stellung der Unmöglichkeit wäre ebenfalls wertvoll.«379 Ein weiteres Jahrzehnt


später schien die Lage noch auswegloser. »Ich vermute«, schrieb Jack Edwards,
»dass es keinen guten Algorithmus für das Problem des Handelsreisenden gibt.«380
Diese Worte sollten sich als prophetisch erweisen.

DIE DEFINITION DER SCHWIERIGKEIT

Mitte der Sechzigerjahre entwickelte Edmonds, der am National Institute of


Standards and Technology tätig war, gemeinsam mit Alan Cobham von IBM eine
Definition der Eigenschaften, die ein Problem lösbar oder unlösbar machen.381
Die beiden stellten eine mittlerweile als Cobham-Edmonds-These bekannte
Hypothese auf: Ein Algorithmus ist als »effizient« zu betrachten, wenn er in einer
»polynomialen Zeit« läuft – das heißt O(n2), O(n3) oder sogar n zu jeder beliebigen
Potenz. Auf der anderen Seite ist ein Problem als »handhabbar« (tractable) zu be-
zeichnen, wenn wir es anhand eines effizienten Algorithmus lösen können. Hin-
gegen ist ein Problem, dass wir nicht in einer polynomialen Zeit lösen können, als
»nicht handhabbar« (intractable) zu betrachten. Und nicht handhabbare Probleme
sind in allen mit Ausnahme der kleinsten Größenordnungen für Computer un-
geachtet ihrer Rechenleistung unlösbar.*382
Das ist die möglicherweise zentrale Erkenntnis der Informatik. Es ist möglich,
den Schwierigkeitsgrad eines Problems zu quantifizieren. Und einige Probleme
sind einfach … sehr schwierig.
Was bedeutet das für das Problem des Handelsreisenden? Sonderbarerweise
sind wir immer noch nicht ganz sicher. Im Jahr 1972 zeigte Richard Karp von
der Universität Berkeley, dass das Problem des Handelsreisenden mit einer um-
strittenen Gruppe von Problemen zusammenhängt, für deren effiziente Lösbarkeit
oder Unlösbarkeit noch kein definitiver Beweis vorliegt.383 Aber bisher wurden

* In Anbetracht der Tatsache, dass O(n2) im Kontext der Sortierung so unzugänglich schien, mag es
sonderbar wirken, dass es hier als »effizient« bezeichnet wird. Aber die Wahrheit ist, dass sogar eine
exponentielle Zeit mit einer sehr kleinen Basiszahl wie O(2n) verglichen mit einer polynomialen mit
einer großen Basiszahl wie n10 rasch höllisch wird. Der Exponent wird das Polynom stets bei einer
bestimmten Problemgröße überholen – in diesem Fall wird n10 verglichen mit 2n wie ein Kinderspiel
wirken, wenn man mehr als ein paar Dutzend Elemente sortiert. Seit der Veröffentlichung der Arbeit
von Cobham und Edmonds dient diese Verwerfungslinie zwischen »Polynomen« (n-zur-soundsoviel-
ten-Potenz) und »Exponenten« (Soundsoviel-zur-n-ten Potenz) zur Abgrenzung dessen, was de facto
außerhalb des Bereichs des Handhabbaren liegt.

215
Entspannung

keine effizienten Lösungen für diese Probleme gefunden – womit sie nicht hand-
habbar sind –, und die meisten Informatiker glauben, dass auch keine Lösungen
existieren.384 Also ist das »Resultat der Unmöglichkeit«, das Flood in den Fünf-
zigerjahren für das Problem des Handelsreisenden voraussah, wahrscheinlich
seine endgültige Bestimmung. Obendrein sind zahlreiche andere Optimierungs-
probleme – die sich auf verschiedenste Bereiche von der politischen Strategie über
die öffentliche Gesundheit bis zum Brandschutz auswirken – ähnlich schwer
handhabbar.385
Aber für die Informatiker, die sich mit diesen Problemen herumschlagen, ist
das kein Grund, die Waffen zu strecken. Sie verstehen es im Gegenteil als Ruf
zu den Waffen. Wenn man festgestellt hat, dass ein Problem nicht handhabbar
ist, kann man nicht einfach aufgeben. Wie uns der Scheduling-Experte Jan Karel
Lenstra erklärte: »Dass ein Problem schwierig ist, bedeutet nicht, dass man es
vergessen kann. Es bedeutet nur, dass es einen anderen Status hat. Es ist ein
gefährlicher Feind, aber man muss trotzdem gegen ihn kämpfen.«386 Und hier
haben die Informatiker etwas unschätzbar Wertvolles herausgefunden, aus dem
wir alle etwas lernen können: Sie haben uns gezeigt, wie wir Probleme, deren
optimale Lösungen außer Reichweite sind, in Angriff nehmen können. Wie wir
uns entspannen können.

EINFACH ENTSPANNEN

Das Bessere ist der Feind des Guten.


Voltaire 387

Wenn uns jemand rät, wir sollten uns entspannen, so liegt das wahrscheinlich
daran, dass wir verkrampft sind und bestimmte Dinge wichtiger nehmen als
nötig. Wenn die Informatiker mit einer gewaltigen Herausforderung konfrontiert
werden, schaltet ihr Verstand ebenfalls in den Entspannungsmodus, und sie
reichen Bücher mit Titeln wie An Introduction to Relaxation Methods oder Discrete
Relaxation Techniques herum.388 Aber sie entspannen nicht sich selbst. Sie ent-
spannen das Problem.
Eine der einfachsten Formen der Entspannung in der Computerwissenschaft
wird als Constraint Relaxation (Beseitigung von Beschränkungen) bezeichnet:
Bei dieser Technik entfernen die Forscher einige Beschränkungen (Constraints)

216
Einfach entspannen

des Problems und machen sich daran, ein ähnliches Problem zu lösen, das sie
gerne hätten. Wenn sie dabei Fortschritte erzielt haben, versuchen sie, die Be-
schränkungen wieder hinzuzufügen. Durch die Entspannung machen sie das
Problem also zeitweilig leichter handhabbar, bevor sie die ursprünglichen Be-
dingungen wiederherstellen.
Beispielsweise kann man das Problem des Handelsreisenden »entspannen«,
indem man den Handelsreisenden eine Stadt mehrfach besuchen lässt und ihm
erlaubt, seine Route ohne zusätzliche Kosten zu wiederholen. Indem man unter
diesen gelockerten Regeln den kürzesten Weg findet, erhält man den »minimalen
Spannbaum«. (Wenn Sie möchten, können Sie sich den minimalen Spannbaum
auch als die geringste Streckenlänge vorstellen, die erforderlich ist, um jede Stadt
mit mindestens einer anderen Stadt zu verbinden. Unten finden Sie eine grafische
Darstellung der kürzesten Route des Handelsreisenden und des minimalen
Spannbaums für Abraham Lincolns Anwalts-Circuit.389) Wie sich herausstellt,
kann ein Computer dieses Problem mit gelockerten Beschränkungen im Hand-
umdrehen lösen.390 Und obwohl der minimale Spannbaum nicht zwangsläufig
geradewegs zu einer Lösung für das eigentliche Problem führt, ist er sehr nütz-
lich. Zum einen ist die Streckenlänge im Spannbaum, der die Rückkehr auf
einer bereits zurückgelegten Route erlaubt, nie länger als die wirkliche Lösung,
die sämtlichen Regeln gehorchen muss. 391 Daher können wir das entspannte
Problem – die Fantasievorstellung – als eine untere Schranke der Realität ver-
wenden. Wenn wir ermitteln, dass die Distanz im Spannbaum für eine be-
stimmte Gruppe von Städten 100 Kilometer beträgt, können wir sicher sein,
dass die Distanz, die der Handelsreisende zurücklegen muss, um all diese Städte
zu besuchen, nicht kürzer sein wird als 100 Kilometer. Und wenn wir eine 110
Kilometer lange Route finden, können wir sicher sein, dass sie schlimmsten-
falls 10 Prozent länger ist als die beste mögliche Lösung. So gewinnen wir eine
Vorstellung davon, wie nahe wir der wirklichen Lösung sind, obwohl wir diese
nicht kennen.
Noch besser ist, dass der minimale Spannbaum beim Problem des Handels-
reisenden tatsächlich einer der besten Ausgangspunkte für die Suche nach der
Lösung ist. Ansätze wie diese haben es sogar ermöglicht, für eines der größten
vorstellbaren Probleme des Handelsreisenden – die kürzeste Route zum Besuch
sämtlicher Städte auf der Erde – eine Lösung zu finden, die um weniger als
0,05 Prozent von der (unbekannten) optimalen Lösung abweicht.392

217
Entspannung

Metamora

Pekin
Bloomington

Clinton Danville
Urbana

Mt. Pulaski Monticello


Decatur

Springfield
Sullivan
Paris
Taylorville

Shelbyville

Metamora

Pekin
Bloomington

Clinton Danville
Urbana
Mt. Pulaski
Monticello
Decatur
Springfield
Sullivan
Paris
Taylorville

Shelbyville

Die kürzeste Route des Handelsreisenden (oben) und der minimale Spannbaum (unten)
für Lincolns Anwalts-Circuit im Jahr 1855.

Obwohl die meisten von uns die formale algorithmische Version der Constraint
Relaxation nicht kennen, ist ihre grundlegende Botschaft doch fast jedem vertraut,
der sich schon mit den großen Fragen des Lebens auseinandergesetzt hat. Was
würdest du tun, wenn du keine Angst hättest? lautet ein Mantra, das Sie vielleicht
schon einmal an der Wand des Büros eines Coaches gesehen oder in einem
Motivationsseminar gehört haben. Was würdest du tun, wenn du nicht versagen
könntest? Wenn wir über Karrierefragen oder die Berufswahl nachdenken, stellen
wir Fragen wie: Was würdest du tun, wenn du im Lotto gewännest? Oder, unter
einem anderen Gesichtspunkt: Welcher Arbeit würdest du nachgehen, wenn alle

218
Kontinuierliche (lineare) Relaxation

Tätigkeiten gleich gut bezahlt würden? Derartige Gedankenspiele beruhen auf dem-
selben Konzept wie die Constraint Relaxation: Sie sollen das nicht Handhabbare
handhabbar machen und Fortschritte in einer idealen Welt ermöglichen, die dann
auf die reale Welt übertragen werden können. Wenn man das Problem, mit dem
man konfrontiert ist, nicht lösen kann, sollte man eine einfachere Version davon
lösen, um sich anschließend anzusehen, ob sich diese Lösung als Ausgangspunkt
für die Bewältigung des eigentlichen Problems eignet.
Eines kann die Entspannung nicht leisten: Sie wird keine garantierte Ab-
kürzung zur perfekten Antwort liefern. Aber die Informatik kann auch den von
der Entspannung ermöglichten Kompromiss zwischen Zeit und Lösungsqualität
quantifizieren. In vielen Fällen ist das Verhältnis dramatisch und lässt keinerlei
Zweifel zu – zum Beispiel eine Antwort, die in einem Quadrillionstel der Zeit
mindestens halb so gut wie die perfekte Lösung ist. Die Botschaft ist einfach, aber
bedeutsam: Wenn wir bereit sind, Lösungen zu akzeptieren, die der besten Lösung
nahe genug kommen, dann können wir sogar einige der haarigsten Probleme mit
den richtigen Methoden in den Griff bekommen.
Eine zeitweilige Aufhebung von Beschränkungen wie beim minimalen
Spannbaum und der Frage »Was, wenn Du im Lotto gewinnen würdest?« ist
die direkteste Form von algorithmischer Entspannung. Aber es gibt noch zwei
weitere, subtilere Formen von Entspannung, die in der Optimierungsforschung
oft auftauchen. Sie haben entscheidend zur Lösung einiger der wichtigsten schwer
handhabbaren Optimierungsprobleme beigetragen, das sich in der realen Welt auf
alle möglichen Dinge auswirkt, von der Stadtplanung bis zur Seuchenkontrolle
und sportlichen Rivalitäten.

UNZÄHLIG VIELE GRAUTÖNE:


KONTINUIERLICHE (LINEARE) RELAXATION

Das Problem des Handelsreisenden ist so wie Meghan Bellows Suche nach
der besten Sitzordnung eine Art von Optimierungsproblem, das als »diskrete
Optimierung« bezeichnet wird – es gibt kein fließendes Kontinuum der Lösungen.
Der Handelsvertreter reist entweder in die eine oder in die andere Stadt, und ein
Gast sitzt entweder an Tisch fünf oder an Tisch sechs. Es gibt keine Grautöne
zwischen diesen Lösungen.

219
Entspannung

Wir sind überall von diskreten Optimierungsproblemen umgeben. Beispiels-


weise versuchen Stadtplaner, die Feuerwachen so über das Stadtgebiet zu verteilen,
dass die Einsatzkräfte jedes Haus innerhalb eines bestimmten Zeitraums – bei-
spielsweise innerhalb von fünf Minuten – erreichen können. Mathematisch deckt
jede Feuerwache alle Häuser ab, die sich im Umkreis von fünf Minuten befinden.
Die Herausforderung besteht nun darin, mit der geringsten möglichen Zahl von
Standorten alle Häuser abzudecken.393 »Dieses Überschneidungsmodell ist von
allen Notfalleinsatzkräften übernommen wurden und funktioniert sehr gut«,
erklärt Laura Albert McLay von der University of Wisconsin in Madison. »Man
kann hier sehr klare Modelle entwickeln.« Aber da ein Löschwagen entweder
an einem Standort existiert oder nicht, erfordert die Berechnung der Mindest-
menge eine diskrete Optimierung. Und »wenn man nicht eine Hälfte so und die
andere Hälfte anders machen kann«, treten bei vielen Problemen beträchtliche
Berechnungsprobleme auf, wie McLay erklärt.394
Die Probleme der diskreten Optimierung treten auch in sozialen Situationen
zutage. Nehmen wir an, Sie wollen eine Party für alle Ihre Freunde und Bekannten
schmeißen, haben aber keine Lust, all die Umschläge und Briefmarken zu be-
zahlen, die Sie für so viele Einladungen brauchen würden. Stattdessen können Sie
nur Einladungen an einige wenige gut vernetzte Freunde verschicken und diesen
sagen, sie sollen »alle Leute mitbringen, die wir kennen«. Im Idealfall wollen
Sie also die kleinste mögliche Teilgruppe von Freunden finden, die alle anderen
Mitglieder Ihres Freundeskreises kennen; so müssten Sie die geringste Zahl von
Briefumschlägen lecken und würden trotzdem alle Ihre Freunde erreichen.395
Das wäre zugegebenermaßen ein großer Aufwand, um ein bisschen Geld für
Briefmarken zu sparen, aber genau diese Art von Problemen versuchen Wahl-
kampforganisationen und Marketingabteilungen zu lösen, um ihre Botschaft so
effektiv wie möglich zu verbreiten. Und auch die Epidemiologen studieren dieses
Problem, um zu klären, wie viele Angehörige einer Population – und welche dieser
Personen – sie impfen müssen, um die Gesamtbevölkerung vor einer Infektions-
krankheit zu schützen.
Wie wir gesehen haben, ist die Beschränkung der diskreten Optimierung auf
ganze Zahlen (daher auch »ganzzahlige lineare Optimierung«) – in der Garage
einer Feuerwache können ein, zwei oder drei, nicht jedoch zweieinhalb oder π
Löschfahrzeuge stehen – der Grund dafür, dass diese Probleme so schwer zu
lösen sind. Tatsächlich sind sowohl das Feuerwehrproblem als auch das Ein-

220
Kontinuierliche (lineare) Relaxation

ladungsproblem schwer handhabbar: Es existiert keine allgemeine effiziente


Lösung dafür. Aber wie sich herausstellt, gibt es sehr wohl eine Reihe effizienter
Strategien zur Lösung der kontinuierlichen Versionen dieser Probleme, in der
jede Fraktion oder jedes Dezimal eine mögliche Lösung ist.396 Forscher, die mit
diskreten Optimierungsproblemen konfrontiert sind, betrachten diese Strategien
möglicherweise mit ein wenig Neid – aber sie können auch mehr als das tun. Sie
können versuchen, ihr diskretes Problem zu entspannen, um es in ein kontinuier-
liches zu verwandeln und sich anzusehen, was passiert.
Im Fall des Einladungsproblems bedeutet die Entspannung von einer diskreten
zu einer kontinuierlichen Optimierung, dass eine Lösung möglicherweise darin
besteht, einer Person ein Viertel und einer anderen zwei Drittel von einer Ein-
ladung zu schicken. Was soll das bedeuten? Offenkundig kann es nicht die
Antwort auf die ursprüngliche Frage sein, aber wie der minimale Spannbaum
stellt diese Lösung einen Ausgangspunkt dar. Ausgehend von der entspannten
Lösung können wir entscheiden, wie wir diese Fraktionen auf die Realität über-
tragen wollen. Beispielsweise können wir uns entschließen, sie einfach zu runden
und all denen, die gemäß Lösung eine »halbe Einladung« oder mehr erhalten
sollten, eine Einladung zu schicken. Wir könnten diese Fraktionen auch als Wahr-
scheinlichkeiten betrachten – beispielsweise könnten wir für jeden Standort, an
dem wir gemäß entspannter Lösung ein Löschfahrzeug stationieren sollten, eine
Münze werfen und dort nur dann tatsächlich einen Feuerwehrwagen stationieren,
wenn wir »Kopf« werfen. In beiden Fällen haben wir dank der Umwandlung der
Fraktionen in ganze Zahlen eine Lösung, die im Kontext unseres ursprünglichen
diskreten Problems sinnvoll ist.
Der letzte Schritt besteht bei jeder Entspannung darin zu fragen, wie gut
diese Lösung verglichen mit der besten ist, die wir hätten finden können, indem
wir jede mögliche Antwort auf das ursprüngliche Problem sorgfältig geprüft
hätten. Wie sich herausstellt, liefert uns die kontinuierliche (lineare) Relaxation
mit Rundung eine leicht zu berechnende Lösung, die gar nicht schlecht ist: Es ist
mathematisch garantiert, dass alle Leute, die wir bei unserer Party sehen wollen,
eine Einladung erhalten werden, während wir im schlechtesten Fall doppelt so
viele Einladungen verschicken werden wie bei der besten durch umfassende Be-
rechnung erzielbaren Lösung.397 Auch beim Feuerwehrproblem liefert uns die
kontinuierliche Relaxation mit Wahrscheinlichkeiten rasch eine Lösung, die der
optimalen Antwort nahe genug kommt.398

221
Entspannung

Die kontinuierliche Relaxation ist keine Wunderwaffe: Sie ist keine effiziente
Methode, um zu wirklich optimalen Lösungen zu gelangen, sondern ermöglicht
lediglich eine Annäherung.399 Aber doppelt so viele Briefe wie optimal zu ver-
schicken oder doppelt so viele Impfdosen wie optimal zu verabreichen, ist immer
noch sehr viel besser als die nicht optimierten Alternativen.

NICHTS WEITER ALS EIN STRAFZETTEL


WEGEN GESCHWINDIGKEITSÜBERTRETUNG:
DIE LAGRANGE-RELAXATION

Vizzini: Unvorstellbar!
Inigo Montoya: Das sagst Du aber oft. Ich glaube nicht, dass wir
dasselbe darunter verstehen.
Die Braut des Prinzen400

Als Kind beklagte sich Brian einmal bei seiner Mutter über all die Dinge, die er
tun musste: Hausaufgaben, Hausarbeiten … »Technisch musst du gar nichts tun«,
antwortete seine Mutter. »Du musst nicht tun, was dir deine Lehrer auftragen.
Du musst nicht tun, was ich dir sage. Du musst nicht einmal das Gesetz befolgen.
Aber alles, was du tust, hat Konsequenzen, und du musst entscheiden, ob du diese
Konsequenzen tragen willst.«
Brians kindlicher Verstand war überwältigt. Es war eine wirkungsvolle Bot-
schaft, die sein Bewusstsein für Handlungsmacht, Verantwortung und moralische
Urteile weckte. Und es war noch etwas anderes: eine wirksame Berechnungstechnik,
die als Lagrange-Relaxation bezeichnet wird.401 Diese Form der Approximation
beruht auf einem einfachen Konzept. Ein Optimierungsproblem besteht aus zwei
Teilen: den Regeln und der Bewertung. Bei der Lagrange-Relaxation nehmen wir
einige der Beschränkungen und wandeln sie in ein Bewertungssystem um, das heißt,
wir nehmen das Unmögliche und reduzieren es auf das Kostspielige. (Beispiels-
weise können wir zur Optimierung einer Sitzordnung die Beschränkung lockern,
dass an jedem Tisch höchstens zehn Gäste sitzen dürfen, und überfüllte Tische
erlauben; die Strafe ist in diesem Fall ein Mangel an Ellbogenfreiheit.) Wenn die
Beschränkungen bei einem Optimierungssystem sagen: »Tue es, oder …«, antwortet
die Lagrange-Relaxation: »Oder was?« Wenn wir erst einmal über die Linien hinaus

222
Die Lagrange-Relaxation

malen dürfen – und sei es auch nur ein kleines bisschen, und sei es auch zu hohen
Kosten –, dann werden Probleme handhabbar, die zuvor nicht handhabbar waren.
Die Lagrange-Relaxation spielt in der theoretischen Literatur zum Problem
des Handelsreisenden und anderen schwierigen Problemen der Informatik eine
wichtige Rolle. Sie ist auch ein unverzichtbares Werkzeug in einer Reihe von
praktischen Anwendungen. Sie erinnern sich sicher noch an Michael Trick von der
Carnegie Mellon University, der für die Spielpläne der amerikanischen Baseball-
liga und mehrere Konferenzen der College-Basketballliga verantwortlich ist.
Unerwähnt ließen wir in Kapitel 3, wie Trick diese Pläne erstellt. Die Zusammen-
setzung des Spielplans für eine Saison ist ein riesiges diskretes Optimierungs-
problem, das viel zu komplex ist, als dass ein Computer es einfach durchrechnen
könnte. Daher greifen Trick und seine Kollegen bei der Sports Scheduling Group
jedes Jahr auf die Lagrange-Relaxation zurück, um die Aufgabe zu bewältigen.
Jedes Mal, wenn Sie den Fernseher einschalten oder im Stadion Platz nehmen,
sollten Sie wissen, dass die Begegnung zwischen diesen beiden Teams in dieser
Halle an diesem Abend nicht zwangsläufig die optimale Lösung ist. Aber sie
kommt dem optimalen Ergebnis nahe. Und dafür müssen wir nicht nur Michael
Trick, sondern auch dem französischen Mathematiker Joseph-Louis Lagrange
danken, der im 18. Jahrhundert lebte.
Bei der Planung einer Sportsaison erleichtert die kontinuierliche Relaxation
Trick nicht unbedingt das Leben. »Wenn du Fraktionen von Begegnungen
erhältst, kannst du wenig mit den Resultaten anfangen.« Es ist eine Sache,
fraktionale Mengen von Einladungen oder Löschfahrzeugen zu erhalten, bei
denen die Zahlen bei Bedarf aufgerundet werden können. Im Sport hingegen
ist die Beschränkung durch ganze Zahlen – wie viele Mannschaften nehmen an
einer Begegnung teil, wie viele Spiele werden insgesamt ausgetragen und wie oft
spielt jedes Team gegen jedes andere Team – einfach zu stark. »Daher können
wir nicht in diese Richtung entspannen. Wir sind gezwungen, am grundlegenden
[ganzzahlig linearen] Teil des Modells festzuhalten.«402
Dennoch muss etwas getan werden, um der schieren Komplexität des Problems
gerecht zu werden. Also müssen die Planer »gemeinsam mit den Ligen einige
der Beschränkungen beseitigen, an denen sie eigentlich interessiert sind«, erklärt
Trick. Die Zahl der Beschränkungen bei der Planung einer Sportsaison ist ge-
waltig und geht weit über die durch die Grundstruktur der Liga gegebenen Er-
fordernisse hinaus. Sie schließt auch verschiedenste idiosynkratische Forderungen

223
Entspannung

und Bedenken ein. Einige Ligen sind einverstanden damit, dass die zweite Hälfte
der Saison ein Spiegelbild der ersten Hälfte ist, wobei lediglich Heim- und Aus-
wärtsspiele umgedreht werden. Andere Ligen lehnen diese Struktur ab, verlangen
jedoch, dass kein Team einem anderen ein zweites Mal begegnet, bevor es nicht
mindestens einmal gegen alle anderen Teams gespielt hat. Einige Ligen be-
harren darauf, dass sich traditionelle Rivalen erst im letzten Saisonspiel begegnen.
Manche Teams können an bestimmten Tagen keine Heimspiele austragen, weil
ihre Veranstaltungsorte zu diesen Terminen von anderen Veranstaltungen belegt
sind. Bei der College-Basketballliga muss Trick noch weitere Beschränkungen
berücksichtigen, die mit den Bedürfnissen der übertragenden Fernsehsender zu
tun haben: Die Sender legen ein Jahr im Voraus fest, welche Spiele voraussichtlich
»A-Spiele« und »B-Spiele« sein werden – welche Spiele die höchsten Zuschauer-
zahlen garantieren werden. (Beispielsweise ist Duke University gegen UNC ein
ewiges A-Spiel.) Und die Sender erwarten, dass ihnen in jeder Woche ein A-Spiel
und ein B-Spiel angeboten wird – nie jedoch zwei A-Spiele zur selben Zeit, da
dies die Zuschauerzahlen für die einzelnen Spiele verringern kann.
Angesichts all dieser Forderungen überrascht es nicht, dass Trick die Spiel-
pläne nur berechnen kann, indem er einige dieser harten Beschränkungen lockert.
Wenn die Leute zum ersten Mal mit einem Spielplan zu uns kommen, erklären
sie: »Wir machen nie x und wir machen nie y.« Wir sehen uns ihren Plan an und
sagen: »Na ja, letztes Jahr habt ihr zweimal x und dreimal y gemacht.« Und dann
gehen wir ein weiteres Jahr zurück. […] Normalerweise stellen wir fest, dass die
Leute einige Dinge, die sie für inakzeptabel halten, sehr wohl tun. Die Leute von
der Baseballliga glauben, dass die New York Yankees und die New York Mets
nie gleichzeitig Heimspiele haben. Aber das ist nicht richtig. Es ist in Wahrheit
immer so gewesen. Sie spielen in manchen Jahren an drei und in anderen Jahren
an sechs Tagen gleichzeitig zu Hause. Aber im Lauf der Saison, in der jedes Team
81 Heimspiele hat, kommt das relativ selten vor, und die Leute vergessen es.
Manchmal braucht Trick ein wenig diplomatische Finesse, aber eine Lagrange-
Relaxation – bei der einige »Unmöglichkeiten« zu »Strafen« herabgestuft werden
und das Unvorstellbare lediglich als unerwünscht betrachtet wird – ermöglicht
Fortschritte. Wie Trick erklärt, muss er keine Ewigkeit mit der Suche nach einer
unerreichbaren perfekten Lösung verbringen, sondern kann dank einer Lagrange-
Relaxation Fragen wie »Wie nahe kann man diesem Ergebnis kommen?« stellen.
Wie sich herausstellt, kann man ihm nahe genug kommen, um alle Beteiligten –

224
Entspannung lernen

Liga, Universitäten, Fernsehsender – zufriedenzustellen und Jahr für Jahr die


March Madness auszulösen.

ENTSPANNUNG LERNEN

Es spricht einiges dafür, dass Optimierungsprobleme – teils Ziele, teils Regeln –


die häufigste Form von Berechnungsfragen sind, mit denen wir konfrontiert
werden. Und diskrete Optimierungsprobleme, bei denen unsere Optionen klare
Entweder/oder-Entscheidungen ohne Mittelweg sind, stellen die Mehrheit dieser
Herausforderungen dar. Das Urteil der Informatik ist entmutigend: Viele diskrete
Optimierungsprobleme sind tatsächlich kaum zu lösen. Die brillantesten Forscher
sind mit all ihren Versuchen gescheitert, einen einfachen Weg zu perfekten
Antworten zu finden, und konzentrieren sich zunehmend darauf zu beweisen,
dass es keinen Weg gibt.
Das kann auch ein gewisser Trost sein: Wenn wir mit einem Problem
konfrontiert sind, das uns widerspenstig, undurchschaubar, unüberwindlich
scheint, so kann es durchaus sein, dass unser Eindruck richtig ist und dass uns
auch ein Computer nicht unbedingt weiterbringen wird.
Zumindest, solange wir nicht die Entspannung lernen.
Es gibt viele Möglichkeiten, ein Problem zu entspannen, und wir haben uns
drei der wichtigsten Methoden angesehen. Die Erste, die Constraint Relaxation,
besteht einfach darin, einige Beschränkungen vollkommen aufzuheben und Fort-
schritte in der Lösung einer leichter handhabbaren Form des Problems zu machen,
bevor wir uns erneut den tatsächlichen Bedingungen stellen. Die zweite Methode,
die kontinuierliche Relaxation, verwandelt diskrete oder binäre Optionen in
Kontinuen: Wenn wir zwischen Eistee und Limonade wählen können, stellen
wir uns zuerst eine 50/50-Mischung vor und runden sie anschließend auf oder ab.
Die dritte Methode, die Lagrange-Relaxation, verwandelt Unmöglichkeiten in
bloße Strafen und lehrt uns die Kunst, Regeln flexibel auszulegen (oder zu brechen
und die Konsequenzen zu akzeptieren). Beispielsweise steht eine Rockband,
die entscheiden muss, welche ihrer Nummern sie in ein begrenztes Programm
packen soll, vor einem »Rucksackproblem« – die Musiker müssen aus einer Reihe
von unterschiedlich sperrigen und wichtigen Elementen ihres Programms jene
auswählen, die in einem begrenzten Zeitraum untergebracht werden können. In
seiner strikten Formulierung ist das Rucksackproblem schwer handhabbar, aber

225
Entspannung

dadurch müssen sich unsere entspannten Rockstars nicht entmutigen lassen. Wie
verschiedene gefeierte Lösungen gezeigt haben, ist es manchmal besser, einfach
die von den Behörden auferlegte Sperrstunde ein wenig zu überschreiten und die
entsprechende Geldbuße zu zahlen, anstatt das Konzert auf den verfügbaren Zeit-
raum zu beschränken. Tatsächlich muss man den Regelverstoß nicht unbedingt
begehen: Es kann sogar hilfreich sein, ihn sich nur vorzustellen.
Der konservative britische Kolumnist Christopher Booker erklärt: »Wenn wir
uns zu einem Vorgehen entschließen, das unbewusst auf Wunschdenken beruht,
mag es eine Weile den Anschein haben, dass alles gut funktioniert«, aber da »dieses
Glauben-Machen nie mit der Realität in Einklang gebracht werden kann«, werde
es unvermeidlich zu dem führen, was Booker als Zusammenbruch in mehreren
Phasen beschreibt: Dies sind »Traum«, »Enttäuschung«, »Albtraum« und »Ex-
plosion«.403 Die Informatik zeichnet ein sehr viel hoffnungsvolleres Bild. Allerdings
besteht die Entspannung als Optimierungstechnik ja gerade darin, sich bewusst
dem Wunschdenken hinzugeben. Vielleicht macht das teilweise den Unterschied.
Die Entspannung bietet eine Reihe von Vorteilen. Zum einen setzt sie der
Qualität der wahren Lösung eine Grenze. Wenn wir versuchen, unseren Kalender
zu füllen, wird uns die Wunschvorstellung, wir könnten uns magisch ans andere
Ende der Stadt teleportieren, auf Anhieb vor Augen führen, dass wir maximal
acht einstündige Sitzungen an einem Tag in unserem Zeitplan unterbringen
können. Eine solche Begrenzung kann nützlich sein, um unsere Erwartungen zu
definieren, bevor wir uns dem Problem in seiner Gesamtheit zuwenden. Zweitens
gestalten wir die Entspannungen so, dass sie tatsächlich mit der Realität in Ein-
klang gebracht werden können – und das grenzt die Lösung auf der anderen Seite
ab. Wenn uns die kontinuierliche Relaxation sagt, dass wir fraktionale Impfungen
vornehmen sollten, können wir einfach alle Personen impfen, für die eine halbe
Impfdosis oder mehr ermittelt wurde, und eine leicht zu berechnende Lösung
finden, die im schlimmsten Fall doppelt so viele Impfungen erforderlich machen
wird wie in einer perfekten Welt. Damit können wir möglicherweise gut leben.
Wenn wir nicht bereit sind, jedes Mal, wenn wir auf ein Problem stoßen, eine
Ewigkeit mit der Suche nach der perfekten Lösung zu verbringen, müssen wir uns
angesichts eines schwierigen Problems stattdessen eine einfachere Version dieser
Herausforderung vorstellen und diese in Angriff nehmen. Richtig angewandt,
ist diese Methode nicht einfach Wunschdenken oder fruchtlose Träumerei. Sie
ist eine der besten Möglichkeiten, reale Fortschritte zu erzielen.

226
9
ZUFÄLLIGKEIT
WANN WIR ES DEM ZUFALL ÜBERLASSEN SOLLTEN

Ich muss zugeben, dass mir die Effizienz der Zufälligkeit bei so
vielen algorithmischen Problemen nach langjähriger Arbeit auf
diesem Gebiet ein Rätsel ist. Sie ist effizient, sie funktioniert – aber
warum das so ist, ist ein Geheimnis.
Michael Rabin404

D
ie Zufälligkeit wirkt wie das Gegenteil der Vernunft – man möchte meinen,
sie bedeutet, angesichts eines Problems alle rationalen Bemühungen aufzu-
geben und nach einem letzten Strohhalm zu greifen. Weit gefehlt. Die über-
raschende und zunehmend bedeutsame Rolle der Zufälligkeit in der Computer-
wissenschaft zeigt uns, dass wir durch eine bewusste Nutzung des Zufalls den
schwierigsten Problemen zu Leibe rücken können. Es gibt sogar Fälle, in denen
uns nichts anderes weiterhelfen wird.
Im Gegensatz zu den üblichen »deterministischen« Algorithmen, bei denen
sich jeder Schritt jedes Mal auf genau dieselbe Art aus dem vorhergehenden Schritt
ergibt, verwendet ein randomisierter Algorithmus zufällig generierte Zahlen,
um ein Problem zu lösen.405 In jüngster Zeit hat die Forschung gezeigt, dass
es Fälle gibt, in denen randomisierte Algorithmen schneller als alle bekannten
deterministischen Algorithmen gute approximative Antworten auf schwierige
Fragen liefern können. Und während sie nicht immer eine Gewähr für optimale
Lösungen sind, können randomisierte Algorithmen in einem Bruchteil der Zeit
Ergebnisse liefern, die der besten Lösung überraschend nahe kommen – und

227
Zufälligkeit

zwar, indem sie strategisch ein paar Münzen in die Luft werfen, während ihre
deterministischen Verwandten mühsam rechnen.
Aus der Tatsache, dass randomisierte Zugänge bei bestimmten Problemen
sogar die besten deterministischen Algorithmen übertreffen, können wir eine
bedeutsame Erkenntnis ableiten. Manchmal besteht die beste Antwort auf ein
Problem darin, die Lösung dem Zufall zu überlassen, anstatt zu versuchen, eine
erschöpfende Antwort zu finden.
Aber es genügt nicht zu wissen, dass die Zufälligkeit hilfreich sein kann.
Wir müssen auch wissen, wann, in welcher Weise und in welchem Maß wir uns
auf den Zufall verlassen können. Die jüngere Geschichte der Informatik liefert
einige Antworten auf diese Fragen, aber die Geschichte beginnt vor einigen
Jahrhunderten.

STICHPROBEN

Im Jahr 1777 veröffentlichte George-Louis Leclerc, Comte de Buffon, die Er-


gebnisse einer interessanten probabilistischen Analyse.406 Er fragte: Wenn man
eine Nadel auf ein liniertes Blatt fallen lässt, wie wahrscheinlich ist es dann, dass
sie eine dieser Linien kreuzen wird? Buffon zeigt, dass die Antwort dann, wenn
die Nadel kürzer ist als die Entfernung zwischen den Linien, mal die Länge
der Nadel geteilt durch die Distanz zwischen den Linien ist. Buffon gab sich mit
der Ableitung dieser Formel zufrieden. Aber im Jahr 1812 wies Pierre-Simon
Laplace (einer der Helden von Kapitel 6), darauf hin, dass dieses Resultat noch
eine weitere Implikation hatte: Man konnte den Wert von π schätzen, indem man
einfach Nadeln über ein liniertes Blatt verstreute.407
Laplaces Vorschlag deutete auf eine bedeutsame Tatsache hin: Wenn wir etwas
über eine komplexe Menge wissen wollen, können wir ihren Wert schätzen, indem
wir eine Stichprobe davon nehmen. Das ist genau die Art von Berechnung, die uns
Laplaces Arbeit zur Bayesschen Regel ermöglicht. Tatsächlich haben verschiedene
Leute Laplaces Vorschlag aufgegriffen, genau dieses Experiment durchgeführt
und festgestellt, dass es möglich – wenn auch nicht besonders effizient – ist, den
Wert von π auf diese zupackende Art zu schätzen.*

* Interessant ist, dass einige dieser Experimente eine sehr viel bessere Schätzung von π geliefert haben,
als man bei einer zufälligen Ermittlung erwarten würde; das deutet darauf hin, dass sie möglicherweise
bewusst an einem guten Stopppunkt abgebrochen wurden oder gefälscht sind. Beispielsweise erhielt

228
Stichproben

Manche Leute mögen es für einen vergnüglichen Zeitvertreib halten, Tausende


Nadeln auf linierte Blätter zu werfen, aber erst die Entwicklung des Computers
machte die Stichprobe zu einer praktikablen Methode. Vor dem Computerzeit-
alter mussten Mathematiker und Physiker, wenn sie ein Problem anhand der
Zufälligkeit lösen wollten, die Berechnungen mühsam von Hand durchführen,
was es erschwerte, ausreichend große Stichproben für zutreffende Ergebnisse zu
sammeln. Der Computer – insbesondere der im Zweiten Weltkrieg in Los Alamos
entwickelte Computer – änderte das vollkommen.
Stanislaw »Stanley« Ulam war einer der Mathematiker, die an der Entwicklung
der Atombombe beteiligt waren. Er wuchs in Polen auf und wanderte im Jahr
1939 in die USA aus, wo er sich im Jahr 1943 dem Manhattan Project anschloss.
Nach einer kurzen Lehrtätigkeit an einer Universität kehrte er 1946 nach Los
Alamos zurück, wo er an thermonuklearen Waffen arbeitete. Er erkrankte jedoch
an Enzephalitis und musste sich einer Notoperation am Gehirn unterziehen.
Während er sich von seiner Krankheit erholte, quälte ihn die Frage, ob er jemals
seine mathematischen Fähigkeiten wiedererlangen würde.408
Während seiner Genesung spielte Ulam vorzugsweise Karten, insbesondere
Patiencen. Wie jeder Paciencespieler weiß, ergeben sich durch bestimmte
Mischungen des Kartendecks Spiele, die einfach nicht zu gewinnen sind. Während
Ulam spielte, stellte er sich eine naheliegende Frage: Wie wahrscheinlich ist es,
dass ein gemischtes Kartendeck ein Spiel ermöglicht, das gewonnen werden kann?
In einem Spiel wie Patience wird die Auseinandersetzung mit dem Spektrum
der Möglichkeiten fast augenblicklich überwältigend. Dreht man die erste Karte
um, so gibt es 52 mögliche Spiele; dreht man die zweite Karte um, so gibt es 51
Möglichkeiten für jede erste Karte. Das bedeutet, dass man es mit Tausenden
möglichen Spielen zu tun hat, noch bevor man überhaupt zu spielen begonnen
hat. F. Scott Fitzgerald schrieb einmal, das Kennzeichen eines erstklassigen

der italienische Mathematiker Mario Lazzarini im Jahr 1901 angeblich bei 3408 Nadelwürfen eine
Schätzung von π (der tatsächliche Wert von π auf sieben Dezimalstellen ist 3,1415927).
(Vgl. Lazzarini, »Un’applicazione del calcolo della probabilità«.) Hätte die Nadel jedoch bei nur einem
einzigen Wurf mehr oder weniger die Linie gekreuzt, so wäre die Schätzung sehr viel weniger genau
gewesen – Lazzarini hätte entweder einen Wert von 3,1398 oder einen Wert von 3,1433 erhalten –,
was Zweifel an seinem Bericht weckt. Es wäre Laplace möglicherweise passend erschienen, dass wir
anhand der Bayesschen Regel feststellen können, dass es unwahrscheinlich ist, dass dies das Resultat
eines gültigen Experiments war. Zur Diskussion über Lazzarinis Resultate vgl. Gridgeman, »Geometric
Probability and the Number π«, sowie Badger, »Lazzarini’s Lucky Approximation of π«.

229
Zufälligkeit

Verstands sei »die Fähigkeit, zwei widersprüchliche Gedanken gleichzeitig zu


haben und trotzdem funktionstüchtig zu sein«.409 Das mag richtig sein, aber kein
erstklassiger Verstand, sei er nun menschlicher oder anderer Natur, kann die 80
Undezillion möglichen Anordnungen des gemischten Kartendecks präsent haben
und dabei funktionieren.
Nachdem er einige komplexe kombinatorische Berechnungen dieser Art an-
gestellt hatte, gab Ulam auf und wählte einen anderen Zugang, der von wunder-
schöner Einfachheit war: Er spielte einfach das Spiel.
Ich stellte fest, dass es sehr viel praktischer war zu versuchen, die Karten aus-
zulegen oder mit dem Prozess zu experimentieren und einfach zu beobachten,
welcher Anteil erfolgreich war, anstatt zu versuchen, sämtliche möglichen
Kombinationen zu berechnen, die von einer exponentiell wachsenden Zahl sind,
die so gewaltig ist, dass es mit Ausnahme sehr elementarer Fälle unmöglich ist,
sie zu schätzen. Das ist intellektuell überraschend, und wenn es auch nicht un-
bedingt demütigend ist, erfüllt es uns doch mit Demut angesichts der Grenzen
des rationalen oder traditionellen Denkens. Bei einem ausreichend komplizierten
Problem ist die Stichprobe einer Untersuchung sämtlicher Ketten von Möglich-
keiten vorzuziehen.410
Mit »vorzuziehen« meinte er nicht unbedingt, dass Stichproben präzisere
Antworten liefern werden als eine sorgfältige Analyse: Ein Stichprobenverfahren
bringt stets Fehler mit sich, aber man kann die Zahl der Fehler verringern, in-
dem man dafür sorgt, dass die Stichproben tatsächlich zufällig sind, und indem
man eine größere Zahl von Proben nimmt. Ulam wollte sagen, dass Stichproben
vorzuziehen sind, weil sie uns dort, wo keine andere Methode zum Ziel führt,
eine Antwort liefern werden.
Diese Erkenntnis – dass eine Zufallsauswahl erfolgreich sein kann, wo die
Analyse scheitert – trug auch wesentlich zur Lösung einiger der schwierigen
Probleme der Atomphysik bei, mit denen die Wissenschaftler in Los Alamos
konfrontiert waren. Eine nukleare Kettenreaktion ist ein Verzweigungsprozess,
in dem sich die Möglichkeiten so rasant vervielfachen wie in einem Kartenspiel:
Ein Partikel spaltet sich in zwei, die mit weiteren Teilchen kollidieren und ihre
Spaltung verursachen … Eine genaue Berechnung der Wahrscheinlichkeit eines
bestimmten Ergebnisses dieses Prozesses, in dem zahlreiche Partikel interagieren,
ist nahezu unmöglich. Eine Simulation, in der jede Interaktion dem Aufdecken
einer weiteren Karte entspricht, stellt eine Alternative dar.

230
Randomisierte Algorithmen

Ulam entwickelte die Idee gemeinsam mit John von Neuman weiter und
arbeitete mit Nicholas Metropolis, einem weiteren Physiker im Manhattan
Project, an der Anwendung der Methode im Computer von Los Alamos.
Metropolis bezeichnete diesen Zugang – in dem die umfangreichen Wahr-
scheinlichkeitsberechnungen durch Stichprobensimulationen ersetzt wurden –
als Monte-Carlo-Methode nach dem Casino im gleichnamigen Fürstentum,
in dem ebenfalls alles vom Zufall abhängt.411 Anhand dieser Methode gelang
es den Wissenschaftlern in Los Alamos, Schlüsselprobleme der Atomphysik zu
lösen. Mittlerweile spielt die Monte-Carlo-Methode eine zentrale Rolle in der
Computerwissenschaft.
Viele dieser Probleme, darunter die Berechnung der Interaktionen subatomarer
Teilchen oder der Wahrscheinlichkeit, eine Patience zu gewinnen, sind an sich
inhärent probabilistisch, weshalb es sinnvoll ist, sie anhand eines randomisierten
Zugangs wie der Monte-Carlo-Methode zu lösen. Aber die vielleicht über-
raschendste Erkenntnis über den Nutzen der Zufälligkeit ist, dass man auch in
Situationen darauf zurückgreifen kann, in denen der Zufall anscheinend über-
haupt keine Rolle spielt. Selbst wenn wir nach der Antwort auf eine Frage suchen,
die entweder Ja oder Nein, entweder Richtig oder Falsch lautet – in der es also
keine Wahrscheinlichkeiten gibt –, kann es sich als hilfreich erweisen, ein paar-
mal zu würfeln.

RANDOMISIERTE ALGORITHMEN

Der Erste, der die überraschend breit gefächerten Anwendungsmöglichkeiten


der Zufälligkeit in der Informatik demonstrierte, war Michael Rabin. Rabin
wurde 1931 im deutschen Breslau geboren (das sich nach dem Zweiten Weltkrieg
ins polnische Wrocław verwandelte) und stammte von einer langen Linie von
Rabbinern ab.412 Seine Familie floh im Jahr 1935 nach Palästina, wo Michael
vom religiösen Weg abkam, den sein Vater für ihn vorgezeichnet hatte. Er konnte
den Verlockungen der Mathematik nicht widerstehen. Nachdem er zu Beginn
seines Studiums an der Hebräischen Universität das Werk Alan Turings entdeckt
hatte, wanderte er in die Vereinigten Staaten aus, wo er ein Doktoratsstudium in
Princeton aufnahm. Für die Ausweitung der theoretischen Computerwissenschaft
auf »nichtdeterministische« Fälle, in denen eine Maschine nicht gezwungen ist,
eine einzige Option zu verfolgen, sondern mehrere Wege einschlagen kann, wurde

231
Zufälligkeit

Rabin mit dem Turing Award ausgezeichnet, dem Gegenstück zum Nobelpreis
auf dem Gebiet der Informatik.413 Während eines Sabbatjahrs kam Rabin 1975
auf der Suche nach einem neuen Betätigungsfeld ans MIT.
Er fand seine neue Bestimmung in der Erforschung eines der ältesten Probleme
überhaupt: in der Identifizierung von Primzahlen.
Algorithmen zum Auffinden von Primzahlen gibt es mindestens seit der
griechischen Antike. Im alten Griechenland bedienten sich die Mathematiker
dazu eines einfachen Verfahrens, das als »Sieb des Erastothenes« bezeichnet wird:
Um alle Primzahlen zu finden, die kleiner als n sind, schreibt man der Reihe nach
alle Zahlen von 1 bis n auf. Sodann streicht man die 2 und alle Vielfachen von
2 durch (also 4, 6, 8, 10, 12 usw.). Sodann nimmt man die nächstkleinste Zahl,
die noch nicht durchgestrichen wurde (in diesem Fall die 3) und streicht alle ihre
Vielfachen durch (6, 9, 12, 15). Dieses Verfahren wendet man solange an, bis nur
noch die Primzahlen übrig sind.
Jahrtausendelang galt das Studium der Primzahlen als »einer der am offensicht-
lichsten nutzlosen Zweige« der Mathematik, wie es G. H. Hardy ausdrückte.414
Aber im 20. Jahrhundert wurde ihr praktischer Nutzen erkannt, und sie wurden
unverzichtbar für Kryptografie und Online-Sicherheit. Wie sich herausstellt, ist es
sehr viel leichter, Primzahlen miteinander zu multiplizieren, als sie zu faktorisieren.
Die Multiplikation ausreichend großer Primzahlen – zum Beispiel solcher mit
tausend Dezimalstellen – ist in Bruchteilen einer Sekunde zu bewerkstelligen,
während ihre Faktorisierung Millionen Jahre dauern könnte. Das verleiht ihnen
die Eigenschaft einer »Einwegfunktion«. Beispielsweise werden bei modernen
Verschlüsselungsmethoden geheime Primzahlen, die nur dem Sender und dem
Empfänger bekannt sind, miteinander multipliziert, und die so erzeugten riesigen
zusammengesetzten Zahlen können unbesorgt öffentlich ausgetauscht werden,
da eine Person, die sie abfangen würde, für die Faktorisierung des Produkts so
lange brauchen würde, dass sich der Versuch nicht lohnt.415 Daher beginnt fast
jede sichere Kommunikation im Internet – elektronischer Geschäftsverkehr, On-
line-Banking oder E-Mail – mit einer Jagd nach Primzahlen.
Ihr Nutzen in der Kryptografie machte Algorithmen zum Auffinden und
Prüfen von Primzahlen plötzlich sehr interessant. Und das Sieb des Erastothenes
ist zwar effektiv, aber nicht effizient. Wenn wir wissen wollen, ob eine bestimmte
Zahl eine Primzahl ist – wenn wir den »Primzahltest« durchführen wollen –,
würde die Anwendung der Siebstrategie bedeuten, dass wir die Zahl durch alle

232
Randomisierte Algorithmen

Primzahlen bis zu ihrer Quadratwurzel teilen müssten.* Um herauszufinden, ob


eine sechsstellige Zahl eine Primzahl ist, müssten wir sie durch alle 168 Prim-
zahlen teilen, die kleiner als 1000 sind, was nicht so schlimm wäre. Aber die
Prüfung einer zwölfstelligen Zahl würde die Division durch 78 498 Primzahlen
erfordern, die kleiner als 1 Million sind – die Divisionen geraten rasch außer
Kontrolle. Die für moderne Verschlüsselungstechniken verwendeten Zahlen sind
mehrere Hundert Stellen lang – zwecklos, es zu versuchen.
Am MIT lernte Rabin den Informatiker Gary Miller kennen, der gerade sein
Studium an der Universität Berkeley abgeschlossen hatte. In seiner Doktorarbeit
hatte Miller einen vielversprechenden, sehr viel schnelleren Algorithmus für
den Primzahlentest entwickelt, mit dem es jedoch ein kleines Problem gab: Er
funktionierte nicht immer.
Miller hatte eine Reihe von Gleichungen entwickelt (ausgedrückt in zwei
Zahlen n und x), die immer aufgelöst werden können, wenn n eine Primzahl
ist, egal welchen Wert man für x einsetzt. Wenn die Gleichung auch nur bei
einem einzigen für x eingesetzten Wert nicht aufgelöst werden kann, dann kann
n unmöglich eine Primzahl sein – in diesen Fällen wird x als »Zeuge« gegen die
Prim-Eigenschaft bezeichnet. Das Problem sind die falschen positiven Ergeb-
nisse: Selbst wenn n nicht prim ist, geht die Gleichung manchmal auf.416 Daher
schien kein abschließendes Urteil über Millers Zugang möglich.
Rabin erkannte, dass es hier ratsam sein konnte, die üblicherweise de-
terministische Welt der Informatik zu verlassen. Wenn die Zahl n tatsächlich
keine Primzahl war, wie viele mögliche Werte von x würden dann das falsche
Ergebnis liefern, sie sei prim? Es gelang Rabin zu zeigen, dass es nicht mehr als
ein Viertel war. Wenn Millers Gleichungen also mit einem zufälligen Wert für
x aufgehen, liegt die Wahrscheinlichkeit, dass n in Wahrheit keine Primzahl
war, nur bei 1 zu 4. Und jedes Mal, wenn ein neues zufälliges x ausprobiert wird
und Millers Gleichungen aufgehen, sinkt die Wahrscheinlichkeit, dass n nur
prim scheint, es in Wahrheit jedoch nicht ist, um eine weitere Potenz von vier.
Wiederholt man das Verfahren zehnmal, so liegt die Wahrscheinlichkeit eines

* Wir müssen nicht über die Quadratwurzel hinausgehen, denn wenn eine Zahl einen Faktor hat, der
größer ist als ihre Quadratwurzel, muss sie definitionsgemäß auch einen entsprechenden Faktor haben,
der kleiner als die Quadratwurzel ist – weshalb wir sie schon gefunden hätten. Wenn wir zum Beispiel
nach den Faktoren der Zahl 100 suchen, wird jeder Faktor, der größer als 10 ist, mit einem Faktor
multipliziert, der kleiner als 10: 20 mit 5, 25 mit 4 usw.

233
Zufälligkeit

falschen positiven Ergebnisses nur noch bei vier zur zehnten Potenz, das heißt
bei weniger als 1 zu 1 Million. Das ist noch keine ausreichende Gewissheit? Mit
weiteren fünf Wiederholungen ist man bei einer Milliarde.
Vaughan Pratt, ein weiterer MIT-Informatiker, setzte Rabins Algorithmus
um und erntete in einer Winternacht erste Ergebnisse, während Rabin daheim
mit Freunden Hanukkah feierte. Rabin erinnert sich, dass er gegen Mitternacht
einen Anruf erhielt:
»›Michael, hier ist Vaughan. Ich habe die Resultate dieser Experimente.
Nehmen Sie Stift und Papier und schreiben Sie es auf.‹ Er hatte festgestellt, dass
2400 −593 eine Primzahl war. Es bezeichnet k das Produkt aller Primzahlen p, die
kleiner sind als 300. Die Zahlen k × 338 + 821 und k × 338 + 823 sind Zwillings-
primzahlen.* Dies war der größte bis dahin bekannte Primzahlzwilling. Mir
stellten sich die Haare auf. Es war unglaublich. Es war einfach unglaublich.«417
Der Miller-Rabin-Test, wie er heute genannt wird, stellt eine Möglichkeit
dar, selbst riesige Primzahlen rasch mit einem willkürlichen Maß an Gewissheit
zu identifizieren.418
Hier könnten wir eine philosophische Frage stellen, nämlich die, was »ist« be-
deutet. Wir sind so daran gewöhnt, dass die Mathematik ein Reich der Gewissheit
ist, dass uns die Vorstellung abwegig scheint, eine Zahl könne »wahrscheinlich
prim« oder »fast sicher prim« sein. Wie sicher ist sicher genug? In der Praxis sind
die modernen Verschlüsselungssysteme, die Internetverbindungen und digitale
Transaktionen verschlüsseln, auf eine Rate von weniger als einer falschen positiven
Identifizierung bei einer Million Milliarde Milliarde Zahlen eingestellt.419 Mit
anderen Worten, das ist eine Dezimale, die hinter 24 Nullen kommt – das ist
weniger als eine falsche Primzahl auf alle Sandkörner auf der Erde.420 Dieser
Standard wird mit nur vierzig Wiederholungen des Miller-Rabin-Tests erreicht.
Es stimmt, dass man nie vollkommen sicher sein kann – aber man kann der Ge-
wissheit unglaublich schnell unglaublich nahe kommen.
Sie selbst haben vielleicht noch nie vom Miller-Rabin-Test gehört, aber Ihr
Notebook, Ihr Tablet und Ihr Smartphone kennen ihn gut. Mehrere Jahrzehnte
nach seiner Entdeckung ist er in vielen Bereichen immer noch die Standard-
methode für das Aufspüren und Prüfen von Primzahlen. Er arbeitet im Hinter-
grund, wann immer Sie Ihre Kreditkarte im Internet benutzen, und wird fast

* Zwillingsprimzahlen sind benachbarte ungerade Zahlen, die beide prim sind, zum Beispiel 5 und 7.

234
Ein Hoch auf die Stichprobe

jedes Mal durchgeführt, wenn sichere Mitteilungen durch die Luft oder durch
Kabel geschickt werden.
Jahrzehnte nach der Veröffentlichung der Arbeit von Miller und Rabin
war immer noch nicht klar, ob es jemals einen effizienten Algorithmus geben
würde, der einen deterministischen Test von Primzahlen ermöglichen würde,
an dessen Ergebnissen es keinerlei Zweifel geben konnte.421 Im Jahr 2002 ent-
deckten Manindra Agrawal, Neeraj Kayal und Nitin Saxena vom Indian Institute
of Technology eine solche Methode, aber randomisierte Algorithmen wie der
Miller-Rabin-Test sind sehr viel schneller, weshalb ihnen in der Praxis weiterhin
der Vorzug gegeben wird.422
Und bei einigen anderen Problemen ist die Zufälligkeit immer noch der
einzige bekannte Weg zu effizienten Lösungen. Ein kurioses Beispiel aus der
Mathematik ist der »polynomiale Identitätstest«. Wenn wir zwei polynomiale
Ausdrücke haben, zum Beispiel 2x3 + 13x2 + 22x + 8 und (2x + 1) x (x + 2) x (x
+ 4), kann es insbesondere bei wachsender Zahl von Variablen ungeheuer zeit-
aufwändig sein herauszufinden, ob diese beiden Ausdrücke tatsächlich dieselbe
Funktion sind, indem wir die Multiplikationen durchführen und anschließend
die Resultate vergleichen.
Auch hier öffnet uns die Zufälligkeit einen Weg: Wir müssen nur einige zu-
fällige x erzeugen und einsetzen.423 Wenn die beiden Ausdrücke nicht identisch
sind, wäre es ein großer Zufall, wenn sie dieselbe Antwort für einen zufällig
erzeugten Input gäben. Und es wäre ein noch größerer Zufall, wenn sie auch für
einen zweiten zufälligen Input identische Antworten gäben. Und ein noch viel
größerer Zufall wäre es, wenn das auch bei drei aufeinanderfolgenden zufälligen
Inputs der Fall wäre. Da kein deterministischer Algorithmus bekannt ist, mit dem
die polynomiale Identität effizient getestet werden kann, ist diese randomisierte
Methode, bei der mehrere Beobachtungen rasch eine nahezu vollkommene Ge-
wissheit liefern, die einzig praktische, die uns zur Verfügung steht.424

EIN HOCH AUF DIE STICHPROBE

Der polynomiale Identitätstest zeigt, dass wir uns manchmal besser auf die
Prüfung zufälliger Werte – das Sampling der beiden Ausdrücke, über die wir
Gewissheit haben wollen – beschränken sollten, anstatt zu versuchen, ihre inneren
Abläufe zu entwirren. Bis zu einem gewissen Grad ist das durchaus vernünftig.

235
Zufälligkeit

Wenn man uns zwei unscheinbare Geräte vorlegt und fragt, ob es zwei ver-
schiedene Apparate oder zwei Kopien desselben Apparats sind, werden die meisten
von uns anfangen, zufällig Tasten zu drücken, anstatt die Gehäuse aufzubrechen,
um das Innenleben der Geräte zu untersuchen. Und wir finden es nicht sonder-
bar, wenn in einem Film ein Drogenhändler willkürlich ein paar Kokainpakete
ansticht, um sich zu vergewissern, dass die gesamte Lieferung in Ordnung ist.
Es gibt jedoch Situationen, in denen wir nicht auf die Zufälligkeit zurück-
greifen, obwohl wir es besser tun sollten.
Der vielleicht wichtigste politische Philosoph des 20. Jahrhunderts war John
Rawls, der die schwierige Aufgabe in Angriff nahm, zwei anscheinend wider-
sprüchliche Konzepte miteinander in Einklang zu bringen: das der Freiheit und
das der Gleichheit. Ist eine Gesellschaft »gerechter«, wenn sie freier ist oder wenn
sie gleicher ist? Und müssen die beiden Ideale einander wirklich ausschließen?
Rawls schlug vor, diese Fragen anhand einer Methode in Angriff zu nehmen, die
er als »Schleier des Nichtwissens« bezeichnete.425 Stellen wir uns vor, erklärte er,
unsere Geburt stünde unmittelbar bevor, aber wir wüssten nicht, als wer wir zur
Welt kommen werden: Werden wir männlich oder weiblich sein, in einer reichen
oder armen Familie aufwachsen, in der Stadt oder auf dem Land leben, krank oder
gesund sein? Und bevor wir herausfinden, welches unser Status ist, müssen wir
wählen, in was für einer Gesellschaft wir leben wollen. Indem wir verschiedene
gesellschaftliche Arrangements durch den Schleier des Nichtwissens betrachten,
erklärt Rawls, können wir eher einen Konsens darüber erzielen, wie die ideale
Gesellschaft aussehen würde.
Was Rawls in seinem Gedankenexperiment nicht berücksichtigt, sind die
Berechnungskosten, die entstehen, wenn wir versuchen, uns hinter einem solchen
Schleier ein Bild von der Gesellschaft zu machen. Wie können wir in diesem
hypothetischen Szenario hoffen, die gesamte relevante Information zu berück-
sichtigen? Lassen wir die großen Fragen von Gerechtigkeit und Fairness für einen
Augenblick beiseite und versuchen wir, Rawls’ Zugang lediglich auf einen Vor-
schlag für eine Änderung der Krankenversicherung anzuwenden. Nehmen wir
die Wahrscheinlichkeit, dass Sie im Mittleren Westen aufwachsen und Beamter
der Stadtverwaltung werden; multiplizieren wir diese Wahrscheinlichkeit mit der
Verteilung der verschiedenen Versicherungspläne, zwischen denen öffentlich Be-
diensteten in Gemeinden im Mittleren Westen wählen können. Multiplizieren wir
anschließend das Resultat mit den versicherungsmathematischen Daten, die zum

236
Ein Hoch auf die Stichprobe

Beispiel über die Wahrscheinlichkeit eines Schienbeinbruchs Aufschluss geben.


Diesen Wert wiederum multiplizieren wir mit den durchschnittlichen Kosten
der durchschnittlichen Behandlung eines Schienbeinbruchs in einem Kranken-
haus im Mittleren Westen unter Berücksichtigung der Verteilung der möglichen
Versicherungspläne … Wäre die vorgeschlagene Änderung des Krankenver-
sicherungssystems »gut« oder »schlecht« für die amerikanische Gesellschaft?
Auf diese Art können wir kaum die Auswirkungen auf einen einzigen Menschen
mit einem verletzten Schienbein beurteilen, geschweige denn auf das Leben von
Hunderten Millionen Menschen.
Die Kritiker von Rawls haben sich eingehend mit der Frage beschäftigt, wie
genau wir die durch den »Schleier des Nichtwissens« gesammelte Information
nutzen können.426 Sollten wir zum Beispiel versuchen, das durchschnittliche
Glück, das mediane Glück, das Gesamtglück oder etwas anderen zu maximieren?
Jeder dieser Zugänge kann zu furchtbaren Dystopien führen – zum Beispiel zu
der von Ursula K. Le Guin beschriebenen fiktiven Zivilisation von Omelas, in
der ein einzelnes Kind als »Sündenbock« in tiefstem Elend leben muss, damit die
übrige Gesellschaft Wohlstand und Harmonie genießen kann.427 Diese Einwände
sind berechtigt, und Rawls umgeht sie bewusst, indem er die Frage offen lässt,
was wir mit der Information tun sollen, die wir hinter dem Schleier sammeln.428
Die vielleicht wichtigere Frage ist jedoch, wie wir uns diese Information über-
haupt beschaffen können.
Es ist gut möglich, dass die Informatik die Antwort liefern wird. Scott
Aaronson vom MIT erklärt, dass er überrascht ist, dass die Informatiker noch
keinen größeren Einfluss auf die Philosophie erlangt haben. Er hat den Verdacht,
dass der Grund teilweise darin zu suchen ist, dass sie »unfähig sind zu vermitteln,
was sie zum konzeptuellen Arsenal der Philosophie beitragen können«. Er erklärt:
»Man sollte meinen, dass sich, sobald wir wissen, dass etwas berechnet werden
kann, offenkundig nicht die Philosophen, sondern die Techniker mit der Frage
beschäftigen müssen, ob die Berechnung 10 oder 20 Sekunden dauert. Aber
diese Schlussfolgerung wäre nicht so selbstverständlich, wenn die Frage lautet,
ob die Berechnung 10 Sekunden oder Sekunden dauert! Und tatsächlich sind
die quantitativen Lücken, die uns in der Komplexitätstheorie beschäftigen,
üblicherweise so riesig, dass man sie auch als qualitative Lücken betrachten
muss. Denken wir zum Beispiel an den Unterschied zwischen der Lektüre eines
400 Seiten dicken Buchs und der Lektüre jedes möglichen derartigen Buchs, oder

237
Zufälligkeit

zwischen der Niederschrift einer tausendstelligen Zahl und dem Zählen bis zu
dieser Zahl.«429
Die Informatik ermöglicht uns zu zeigen, wie komplex die Beurteilung aller
möglichen gesellschaftlichen Vorkehrungen für Eventualitäten wie Schienbein-
brüche ist. Aber glücklicherweise gibt sie uns auch Werkzeuge für die Bewältigung
dieser Komplexität in die Hand. Und die auf Stichproben beruhenden Monte-
Carlo-Algorithmen zählen zu den nützlichsten dieser Werkzeuge.
Wenn wir zum Beispiel eine Reform des nationalen Gesundheitswesens be-
urteilen müssen – dieses riesige System ist zu komplex, um leicht durchschaubar
zu sein –, bieten uns die Politiker normalerweise zwei Arten von Erklärungen
an: sorgfältig ausgewählte persönliche Anekdoten oder aggregierte Überblicks-
statistiken. Die Anekdoten sind natürlich bunt und anschaulich, aber nicht
repräsentativ. Fast jedes Gesetz, gleich wie aufgeklärt oder fehlgeleitet es ist, wird
irgendwem zugutekommen und irgendwen schlechter stellen, weshalb sorgfältig
ausgewählte Geschichten über persönliche Schicksale keinen Aufschluss über die
allgemeinen Muster geben. Bei Gesamtstatistiken verhält es sich umgekehrt: Sie
sind umfassend, aber nicht konkret. Wir erfahren beispielsweise, dass die durch-
schnittlichen Versicherungsbeiträge landesweit gesunken sind, aber es bleibt un-
klar, wie sich diese Veränderung auf einer niedrigeren Ebene auswirkt: Vielleicht
sinken die Kosten für die meisten, während eine bestimmte Gruppe – Studenten,
Einwohner von Alaska oder Schwangere – in finanzielle Schwierigkeiten geraten.
Eine Statistik kann uns einen Teil der Geschichte erzählen und sehr heterogene
Resultate hinter einem einheitlichen Gesamtbild verbergen. Und oft wissen wir
nicht einmal, welche Statistik wir brauchen.
Da uns weder Überblicksstatistiken noch persönliche Anekdoten von Politikern
das Verständnis von Tausenden Seiten an Gesetzestexten ermöglichen, würde ein
Informatiker gestützt auf die Monte-Carlo-Methode einen anderen Zugang
vorschlagen: das Sampling. Eine genaue Untersuchung zufälliger Stichproben
kann eine der effektivsten Methoden sein, um etwas verständlich zu machen, das
zu komplex ist, um es direkt zu verstehen. Wenn es um die Handhabung eines
qualitativ nicht zu bewältigenden Problems geht, das so sperrig und kompliziert
ist, dass es nicht in seiner Gesamtheit zu verstehen ist – Patiencen oder Kern-
spaltung, Primzahlentests oder öffentliche Politik –, stellt die Stichprobennahme
eine der einfachsten und besten Methoden nach, um die Schwierigkeiten handlich
zu machen.

238
Ein Hoch auf die Stichprobe

Wie dieser Zugang funktioniert, sehen wir bei der Hilfsorganisation


GiveDirectly, die Menschen in Kenia und Uganda, die in extremer Armut leben,
mit bedingungslosen Geldtransfers hilft. GiveDirectly hat auf sich aufmerksam
gemacht, indem es auf mehreren Ebenen von den herkömmlichen Praktiken
der Hilfsorganisationen abweicht: nicht nur in seiner ungewöhnlichen Mission,
sondern auch bezüglich des Maßes an Transparenz und Rechenschaftspflicht
in seiner Arbeitsweise. Und der jüngste Bestandteil des Status quo ist, dass die
Organisation ihre eigenen Erfolgsgeschichten hinterfragt.
»Wer regelmäßig unsere Website, unseren Blog oder unsere Facebook-Seite
besucht«, schreibt die Programmassistentin Rebecca Lange, »dem ist möglicher-
weise etwas aufgefallen, was man nicht oft sieht: Geschichten und Fotos von
den Hilfsempfängern.«430 Es ist nicht so, dass die schönen Erfolgsgeschichten
anderer Hilfsorganisationen nicht wahr wären. Das Problem ist vielmehr, dass
sie gezielt ausgewählt wurden, um Erfolge zu präsentieren, weshalb unklar ist,
wie viel Information daraus gewonnen werden kann. Daher hat sich GiveDirectly
entschlossen, auch diese herkömmliche Praxis abzuwandeln.
Jeden Mittwoch wählt das Team von GiveDirectly zufällig einen Hilfs-
empfänger aus, schickt einen vor Ort stationierten Mitarbeiter los, um diese
Person zu interviewen, und veröffentlicht den Bericht des Mitarbeiters wortwört-
lich, egal wie sich der Hilfsempfänger geäußert hat. Sehen wir uns beispielsweise
das erste derartige Interview an, in dem eine Frau namens Mary zu Wort kam,
die von dem Geld ein Blechdach für ihre Hütte gekauft hatte:*
»Sie konnte ihr Haus verbessern, und das war ein Haus mit Blechdach. Sie
konnte auch ein Sofa für ihr Haus kaufen. Ihr Leben hat sich verändert, weil
sie vorher ein undichtes Dach hatte, so dass alles im Haus nass wurde, wenn es
regnete. Aber dank der Überweisung konnte sie ein besseres Haus mit Blech-
dach bauen.«
»Wir hoffen, dass ihnen das zeigt, dass Sie der Information, die wir mit Ihnen
teilen, vertrauen können«, schreibt Lange, »und vielleicht bewegt es Sie sogar
dazu, andere Organisationen an strengeren Maßstäben zu messen.«

* Beachten Sie, dass wir bewusst die erste Geschichte auf der Site genommen haben – das heißt, wir
haben nicht alle Berichte durchgelesen, um eine auszuwählen, da dies dem Zweck der Übung wider-
sprochen hätte.

239
Zufälligkeit

DIE DREITEILIGE ABWÄGUNG

Plötzlich wurde mir klar, welches die Eigenschaft ist, die einen
herausragenden Mann insbesondere in der Literatur auszeichnet und
die Shakespeare in so außerordentlichem Maß besaß – ich meine die
negative Fähigkeit, angesichts von Ungewissheit, Geheimnissen und
Zweifeln nicht verzweifelt nach Tatsachen und Vernunft suchen zu
müssen.
John Keats431

Es gibt keine unbedingte Gewissheit, aber es gibt eine Zuverlässig-


keit, die ausreicht für die Praxis des Menschenlebens.
John Stuart Mill 432

In der Informatik geht es oft um Abwägungen. Zum Beispiel haben wir in Kapitel 3
gesehen, dass beim Sortieren zwischen der im Voraus für das Sortieren aufgewandten
Zeit und dem späteren Zeitaufwand für die Suche abgewogen werden muss. Und
in Kapitel 4 haben wir gesehen, dass beim Caching zusätzlicher Platz benötigt
wird – Cache-Speicher für Cache-Speicher für Cache-Speicher –, um Zeit zu sparen.
Zeit und Platz sind Gegenstand der häufigsten Abwägungen in der Informatik,
aber neuere Forschungsarbeiten auf dem Gebiet der randomisierten Algorithmen
zeigen, dass es noch eine weitere Variable zu berücksichtigen gilt: die Gewissheit.
Michael Mitzenmacher von der Universität Harvard erklärt: »Wir werden eine
Antwort finden, die Zeit und Platz spart und einen Kompromiss in dieser dritten
Dimension schließt: der Fehlerwahrscheinlichkeit.« Nach seinem Lieblingsbei-
spiel für diese Abwägung der Ungewissheit gefragt, sagt er ohne zu zögern: »Ein
Kollege hat ein Trinkspiel vorgeschlagen, bei dem man jedes Mal, wenn dieser
Begriff auf einer meiner Folien auftaucht, ein Glas trinken muss. Haben Sie schon
einmal von den Bloom-Filtern gehört?«433
Um das Konzept hinter dem Bloom-Filter zu verstehen, erklärt Mitzenmacher,
kann man sich die Funktionsweise einer Suchmaschine wie Google vorstellen, die
mit Crawlern das Internet durchsucht, um alle möglichen URLs zu indexieren.
Das Netz besteht aus mehr als einer Billion URLs,434 und der durchschnittliche
Ressourcenzeiger ist etwa 77 Zeichen lang.435 Wie kann die Suchmaschine, wenn
sie eine URL findet, feststellen, ob diese Seite bereits verarbeitet wurde? Eine

240
Hügel, Täler und Fallen

Liste aller besuchten Seiten würde eine gewaltige Menge Platz einnehmen, und
eine wiederholte Durchsuchung dieser Liste (selbst wenn sie vollkommen sortiert
wäre) könnte ein Albtraum werden. Tatsächlich könnte es durchaus sein, dass das
Medikament hier schlimmer als die Krankheit wäre: Jedes Mal zu kontrollieren,
ob eine Seite nicht doppelt indexiert wird, könnte zeitaufwändiger sein, als die
eine oder andere Seite zweimal zu indexieren.
Aber wie wäre es, wenn die Suchmaschine nur im Wesentlichen sicher sein
müsste, dass ihr diese URL neu ist? An diesem Punkt kommt der Bloom-Filter
ins Spiel. Dieser nach seinem Erfinder Burton H. Bloom benannte Mechanismus
funktioniert ganz ähnlich wie der Rabin-Miller-Primzahlentest: Die URL wird
in mehrere Gleichungen eingegeben, die im Grunde nach »Zeugen« dafür suchen,
dass die Seite neu ist.436 (Anstatt zu erklären, dass »n nicht prim ist«, sagen diese
Gleichungen: »Ich habe n noch nicht gesehen.«) Wenn wir bereit sind, uns mit einer
Fehlerquote von 1 Prozent oder 2 Prozent abzufinden, wird uns die Speicherung
der Ergebnisse in einer probabilistischen Datenstruktur wie einem Bloom-Filter
sehr viel Zeit und Platz sparen. Und der Nutzen solcher Filter ist nicht auf Such-
maschinen beschränkt: Einige moderne Browser verwenden Bloom-Filter, um die
URLs mit einer Liste bekannter bösartiger Websites abzugleichen,437 und diese
Filter sind auch für Kryptowährungen wie Bitcoin wichtig.438
Mitzenmacher erklärt: »Die Idee der Abwägung von Fehlerhäufigkeit und
Platz – ich glaube, das Problem ist, dass die Leute das nicht mit dem Computer
verbinden. Sie glauben, die Aufgabe des Computers sei es, uns die Antwort zu
geben. Wenn man also in der Algorithmenvorlesung hört: ›Er soll dir eine Antwort
geben, aber es ist möglicherweise nicht die richtige Antwort‹ – ich hoffe, wenn
[die Studenten] das hören, lenkt es ihre Aufmerksamkeit auf den entscheidenden
Punkt. Ich glaube, den Leuten ist nicht bewusst, wie oft sie das in ihrem eigenen
Leben tun und dass sie es akzeptieren.«

HÜGEL, TÄLER UND FALLEN

Der Fluss mäandert, weil er nicht denken kann.


Richard Kenney439

Die Zufälligkeit hat sich auch als nützliches Instrument für die Lösung diskreter
Optimierungsprobleme erwiesen, zum Beispiel bei der Zusammenstellung des

241
Zufälligkeit

Spielplans für die amerikanische College-Basketballliga oder bei der Suche nach
der kürzesten Route für den Handelsreisenden. Im vorigen Kapitel haben wir ge-
sehen, dass die Entspannung (Relaxation) eine wichtige Rolle bei der Entschärfung
solcher Probleme spielen kann, aber der taktische Einsatz der Zufälligkeit hat
sich in eine möglicherweise noch wichtigere Technik verwandelt.
Nehmen wir an, wir planen die Route für eine Weltreise mit zehn Stationen –
unsere eigene Version des Problems des Handelsreisenden: Unsere Reise beginnt
und endet in San Francisco, und wir wollen Seattle, Los Angeles, New York,
Buenos Aires, London, Amsterdam, Kopenhagen, Istanbul, Neu-Delhi und
Kyoto besuchen. Die Länge der Route macht uns keine allzu großen Sorgen,
aber wir wollen die Reisekosten möglichst niedrig halten. Zunächst müssen wir
festhalten, dass zehn Städte nicht sehr viele zu sein scheinen, aber die Zahl der
möglichen Reiserouten ist zehnfaktoriell: Es sind mehr als 3,5 Millionen. Mit
anderen Worten, es gibt keine praktische Möglichkeit, einfach alle Varianten der
Reihe nach durchzugehen und den niedrigsten Preis auszuwählen. Wir müssen
eine bessere Lösung finden.
Wir könnten zunächst einmal versuchen, einfach den billigsten Flug von San
Francisco aus zu suchen (nehmen wir an, es ist der Flug nach Seattle), und dann
von dort aus den billigsten Flug zu einem der übrigen Ziele auszuwählen (zum Bei-
spiel Los Angeles), dann den billigsten Flug von dort (sagen wir, nach New York)
usw. – solange, bis wir bei der zehnten Station angelangt sind, von der aus wir nach
San Francisco zurückfliegen. Dies ist ein Beispiel für einen sogenannten »gierigen
Algorithmus« (Greedy-Algorithmus), den wir uns auch als »kurzsichtigen Algorith-
mus« vorstellen können: Man wählt an jedem Punkt entlang des Weges kurzsichtig
die in diesem Augenblick beste Option aus. Wie wir in Kapitel 5 gesehen haben,
kann ein gieriger Algorithmus – man erledigt zum Beispiel immer die Aufgabe, die
am wenigsten Zeit in Anspruch nehmen wird, ohne darüber hinaus zu planen – in
der Scheduling-Theorie manchmal die beste Lösung für ein Problem sein. Auch in
diesem Fall, in dem wir es mit dem Problem des Handelsreisenden zu tun haben,
wird der Greedy-Algorithmus vermutlich durchaus akzeptable Ergebnisse liefern,
aber er dürfte weit von der besten möglichen Lösung entfernt sein.
Wenn wir einmal eine Baseline-Route zusammengestellt haben, können
wir ein paar Alternativen prüfen, indem wir die Sequenz der Stationen gering-
fügig abwandeln und uns ansehen, ob das Verbesserungen ermöglicht. Statt
zuerst nach Seattle und von dort nach Los Angeles zu fliegen, können wir diese

242
Hügel, Täler und Fallen

beiden Städte zum Beispiel in umgekehrter Reihenfolge besuchen. Bei jeder


gegebenen Reiseroute können wir elf solche Positionswechsel zwischen jeweils
zwei Städten vornehmen. Nehmen wir an, wir probieren sie alle aus und wählen
dann jene Route, die uns die größte Ersparnis ermöglicht. Nun haben wir eine
neue Route, mit der wir arbeiten können, und auch diese können wir auf der
Suche nach den besten lokalen Einsparungen abwandeln. Dieser Algorithmus
wird als Bergsteiger-Algorithmus (Hill Climbing) bezeichnet, da die Suche in
einem Lösungsraum mit besseren und schlechteren Optionen normalerweise als
Bewegung durch eine Landschaft mit Hügeln und Tälern konzipiert wird, wobei
das Ziel darin besteht, die höchste Erhebung zu erreichen.
Schließlich werden wir eine Lösung finden, die besser als alle ihre Per-
mutationen ist: Gleichgültig, welche benachbarten Stationen wir austauschen,
wird die Reise nicht mehr billiger als mit dieser Route. Hier endet das Bergsteigen.
Aber bedeutet dass, dass wir definitiv die beste mögliche Route gefunden haben?
Leider nein. Möglicherweise haben wir nur ein sogenanntes »lokales Maximum«
gefunden, nicht jedoch das globale Maximum aller Möglichkeiten. Die Hügel-
landschaft liegt im Nebel. Wir wissen, dass wir auf einem Gipfel stehen, weil der
Boden in alle Richtungen abfällt – aber auf der anderen Seite des Tals könnte
es einen noch höheren Gipfel geben, den der Nebel vor unseren Augen verbirgt.

Globales Maximum

Lokales Maximum
Qualität der Lösung

Lokales Maximum

Mögliche Lösungen

Eine »Fehlerlandschaft«, die zeigt, wie die Qualität der Lösung bei verschiedenen
Möglichkeiten schwanken kann.

243
Zufälligkeit

Nehmen wir den Hummer, der in der Hummerfalle gefangen ist: Das arme Tier
versteht nicht, dass es in die Mitte des Käfigs zurückkehren muss, um den Weg
aus der Falle zu finden, dass es sich tatsächlich tiefer in den Käfig begeben muss,
um zu entkommen. Eine Hummerfalle ist nichts anderes als ein lokales Maximum
aus Draht – ein lokales Maximum, das tödlich ist.
Im Fall der Reiseplanung sind die lokalen Maxima glücklicherweise nicht so
gefährlich, aber sie sind von derselben Art. Selbst wenn wir eine Lösung gefunden
haben, die nicht mehr durch geringfügige Modifikationen verbessert werden
kann, verfehlen wir möglicherweise das globale Maximum. Vielleicht müssten wir
die Route vollkommen auf den Kopf stellen, um die optimale Lösung zu finden;
vielleicht müssten wir die Kontinente anders anordnen oder nach Westen statt nach
Osten reisen. Vielleicht müssten wir unsere Lösung vorübergehend verschlechtern,
um weiter nach Verbesserungen suchen zu können. Und die Zufälligkeit liefert uns
eine Strategie – ja sogar mehrere Strategien –, um genau das zu tun.

DER WEG AUS DEM LOKALEN MAXIMUM

Ein Lösungsansatz besteht darin, den Bergsteiger-Algorithmus »durchzu-


schütteln« (jitter), um ihn zu verbessern: Wir können die Dinge neu anordnen,
wenn es den Anschein hat, dass wir in eine Sackgasse geraten sind. Wir können
einige zufällige kleine Veränderungen vornehmen (selbst wenn sie das Ergebnis
verschlechtern) und anschließend zum Bergsteigen zurückkehren und uns an-
sehen, ob wir zu einem höheren Gipfel gelangen.
Eine andere Möglichkeit besteht darin, unsere Lösung vollkommen durch-
einander zu schütteln, wenn wir ein lokales Maximum erreichen, und aus-
gehend von dieser zufälligen Konstellation von vorne anfangen. Dieser Berg-
steiger-Algorithmus mit zufällig gewähltem Neustart (»Random-Restart Hill
Climbing«) wird auch als »Shotgun Hill Climbing« bezeichnet. Diese Strategie ist
sehr effektiv, wenn es bei einem Problem zahlreiche lokale Maxima gibt. Beispiels-
weise wählen Informatiker diesen Zugang bei der Entschlüsselung von Codes,
denn es gibt viele anfangs erfolgversprechende Entschlüsselungsmethoden, die am
Ende in eine Sackgasse führen.440 In der Entschlüsselung bedeutet ein verständ-
lich wirkender Text noch lange nicht, dass man tatsächlich auf der richtigen Spur
ist. Deshalb ist es manchmal besser, sich nicht zu sehr auf eine vielversprechende
Richtung festzulegen, sondern einfach wieder bei null anzufangen.

244
Simulated Annealing

Es gibt jedoch noch einen dritten Ansatz: Anstatt uns der völligen Zufälligkeit
zuzuwenden, wenn wir in eine Sackgasse geraten, können wir jedes Mal, wenn
wir eine Entscheidung fällen müssen, ein wenig Zufälligkeit zulassen. Diese
Technik, die von demselben Team in Los Alamos entwickelt wurde, das sich die
Monte-Carlo-Methode ausgedacht hatte, wird als Metropolis-Algorithmus
bezeichnet.441 Bei diesem Algorithmus werden wie bei Hill-Climbing mehrere
kleine Abwandlungen an einer Lösung vorgenommen, aber es gibt einen wichtigen
Unterschied: Metropolis kann an jedem gegebenen Punkt nicht nur gute, sondern
auch schlechte Abwandlungen akzeptieren.
Diese Methode könnten wir auf unser Problem mit dem Impfprogramm an-
wenden. Einmal mehr versuchen wir, unsere vorläufige Lösung abzuwandeln,
indem wir die Positionen der Reisestationen durchschütteln. Jedes Mal, wenn eine
zufällige Abwandlung unserer Route zu einer Verbesserung führt, akzeptieren
wir diese Änderung und nehmen ausgehend von dieser Konfiguration weitere
Änderungen vor. Aber selbst wenn die Abwandlung das Ergebnis ein wenig
verschlechtert, besteht die Möglichkeit, an dieser Lösung festzuhalten (natürlich
wird die Chance umso geringer, je schlechter die Veränderung ist). Auf diese Art
werden wir nicht lange an einem lokalen Maximum festhalten: Schließlich werden
wir eine andere benachbarte Lösung ausprobieren, selbst wenn diese teurer ist,
und potenziell auf dem Weg zu einem neuen und besseren Reiseplan sein.
Ob wir nun auf Schütteln, zufällige Neuanfänge oder Offenheit für eine
gelegentliche Verschlechterung zurückgreifen, die Zufälligkeit hilft uns sehr,
lokale Maxima zu vermeiden. Der Zufall ist nicht nur geeignet, schwierige
Optimierungsprobleme zu lösen: In vielen Fällen ist er unerlässlich. Es stellen
sich jedoch einige Fragen. Wie viel Zufälligkeit ist ratsam? Wann sollten wir
sie einsetzen? Und wie können wir in Anbetracht der Tatsache, dass wir unsere
Route mit Strategien wie dem Metropolis-Algorithmus praktisch unendlich
abwandeln können, erkennen, wann wir fertig sind? Die Forscher, die sich mit
Optimierungsfragen beschäftigen, haben eine überraschend endgültige Antwort
auf diese Fragen auf einem vollkommen anderen Gebiet gefunden.

SIMULATED ANNEALING

Ende der Siebziger- und Anfang der Achtzigerjahre betrachtete sich Scott
Kirkpatrick nicht als Informatiker, sondern als Physiker. Er interessierte sich

245
Zufälligkeit

insbesondere für statistische Physik, in der die Zufälligkeit zur Erklärung be-
stimmter Naturphänomene herangezogen wird – zum Beispiel die Physik des
Glühens, das heißt der Zustandsveränderung von Stoffen bei Erhitzung und
Abkühlung. Das vielleicht interessanteste Merkmal des Ausglühens ist, dass die
Geschwindigkeit, mit der ein Material abkühlt, erheblichen Einfluss auf seine
endgültige Struktur hat. Wie Kirkpatrick erklärt:
»Um aus einer Schmelze einen Einkristall zu gewinnen, wird die Substanz
zuerst geschmolzen, um anschließend langsam die Temperatur zu senken und
sie lange Zeit in der Nähe des Gefrierpunktes zu halten. Tut man das nicht,
sondern erlaubt der Substanz, aus dem Gleichgewicht zu geraten, so wird der
Kristall zahlreiche Mängel aufweisen oder die Substanz wird ein Glas ohne
Kristallordnung bilden.«442
Kirk arbeitete seinerzeit bei IBM, wo eines der größten, kompliziertesten und
mit Ehrfurcht betrachteten Probleme in der Frage bestand, wie die Schaltkreise
auf den vom Unternehmen produzierten Chips angeordnet werden konnten. Das
Problem war gewaltig und nicht handhabbar: Es mussten zahlreiche mögliche
Lösungen untersucht werden, und es gab einige komplexe Beschränkungen. Bei-
spielsweise war es im Allgemeinen besser, die Komponenten nahe beieinander
anzuordnen, allerdings nicht zu nahe, da sonst kein Platz für die Drähte war. Und
jedes Mal, wenn man etwas bewegte, musste man die Verlegung aller Drähte in
der hypothetischen neuen Anordnung neu berechnen.
Zu jener Zeit wurde die Arbeit von einem rätselhaften Ingenieur geleitet, der
bei IBM den Status eines Gurus hatte. Kirkpatrick erinnert sich: »Der Mann, der
bei IBM besser als jeder andere wusste, wie man immer mehr Schaltkreise auf
einen Chip quetschen konnte […], gab sehr geheimnisvolle Erklärungen dafür,
wie er das machte. Er wollte dir nicht wirklich verraten, wie er es anstellte.«443
Kirkpatricks Freund und Kollege Dan Gelatt war fasziniert von dem Problem
und steckte Kirkpatrick rasch mit seiner Begeisterung an. Und dieser hatte eine
Erleuchtung. »Physikalische Systeme untersuchte man, indem man sie erhitzte,
anschließend abkühlte und sich ansah, wie sie sich organisierten. Es schien ganz
natürlich, alle möglichen Optimierungsprobleme so zu behandeln, als ob das
Maß an Freiheit, das man zu organisieren versuchte, kleine Atome oder Spins
oder was immer seien.«
Für die Physiker ist das, was wir als »Temperatur« bezeichnen, in Wahrheit Ge-
schwindigkeit, das heißt zufällige Bewegung auf molekularer Ebene. Kirkpatrick

246
Simulated Annealing

gelangte zu der Überzeugung, dass dies direkt dem zufälligen »Durchschütteln«


entsprach, dass man auf einen Bergsteiger-Algorithmus anwenden konnte, um
diesen gelegentlich dazu zu bewegen, von besseren Lösungen zu schlechteren
zurückzukehren. Tatsächlich war der Metropolis-Algorithmus selbst ursprünglich
entwickelt worden, um das zufällige Verhalten in physikalischen Systemen (in
diesem Fall nuklearen Explosionen) zu modellieren. Was würde also geschehen,
fragte sich Kirkpatrick, wenn man ein Optimierungsproblem so wie ein Problem
des Glühens behandelte – wenn man es »erhitzte«, um es anschließend langsam
wieder »abzukühlen«?
Im Fall unseres Problems mit der Zehn-Städte-Reiseroute könnten wir mit
einer »hohen Temperatur« beginnen, indem wir vollkommen zufällig eine erste
Route festlegen, das heißt, ungeachtet der Preises der Flugtickets eine Lösung aus
dem gesamten Möglichkeitsraum auswählen. Sodann können wir unsere Suche
langsam »abkühlen«, indem wir jedes Mal, wenn wir über eine Abwandlung
der Sequenz unserer Stationen nachdenken, einen Würfel werfen. Die Wahl
einer besseren Variante ist immer sinnvoll, aber nur wenn wir eine 2 oder mehr
würfeln, wählen wir eine schlechtere Variante. Nach einer Weile kühlen wir das
Verfahren weiter ab, indem wir nur eine teurere Variante wählen, wenn wir eine
3 oder eine höhere Zahl würfen, und später ziehen wir die Grenze bei einer 4
und einer 5. Bald werden wir überwiegend Gipfel besteigen und die schlechtere
Wahl nur noch gelegentlich treffen, wenn wir eine 6 würfeln. Schließlich werden
wir nur noch bergauf gehen und stoppen, wenn wir das nächste lokale Maximum
erreicht haben.444
Dieses als Simulated Annealing bezeichnete Verfahren schien eine vielver-
sprechende Möglichkeit zu sein, um die Physik auf die Problemlösung anzuwenden.
Aber würde die Methode funktionieren? Die erste Reaktion der traditionellen
Optimierungsforscher war, dieser Ansatz sei ein wenig zu … metaphorisch. »Ich
konnte die Mathematiker nicht davon überzeugen, dass dieses Durcheinander
mit den Temperaturen, all diese auf Analogien beruhenden Verfahren, tatsäch-
lich funktionieren würden«, erklärt Kirkpatrick, »denn den Mathematikern wird
beigebracht, ihrer Intuition zu misstrauen.«
Doch das Misstrauen gegenüber diesem analogiegestützten Zugang schwand
rasch: Anhand der von Kirkpatrick und Gelatt entwickelten Simulated Annealing-
Algorithmen gelang es IBM, Chiplayouts zu entwickeln, die denen des »Gurus«
überlegen waren. Anstatt Stillschweigen über ihre Geheimwaffe zu bewahren

247
Zufälligkeit

und sich ebenfalls in geheimnisvolle Gurus zu verwandeln, veröffentlichten


Kirkpatrick und Gelatt ihre Erkenntnisse in der Zeitschrift Science. In den
folgenden zwei Jahrzehnten sollte ihr Artikel unglaubliche 32 000 Male zitiert
werden.445 Simulated Annealing stellt weiterhin eines der aussichtsreichsten Ver-
fahren für die Bewältigung der bekannten Optimierungsprobleme dar.446

ZUFÄLLIGKEIT, EVOLUTION UND KREATIVITÄT

Im Jahr 1943 konnte der kurz zuvor in die Vereinigten Staaten eingewanderte
Salvador Luria nicht ahnen, dass ihm eine Entdeckung bevorstand, die ihm
einen Nobelpreis einbringen sollte, denn er wollte eigentlich nur auf einen Ball
gehen. Luria stammte aus einer sephardischen Familie und war aus Mussolinis
Italien über den Großen Teich geflohen. Er erforschte an der Universität von
Indiana, wie Bakterien Immunität gegen Viren erwarben. Aber an diesem Tag
nahm er an einem Treffen in einem Countryclub teil und dachte nicht über die
Wissenschaft nach.
Luria sah einem seiner Kollegen zu, der an einem Spielautomaten saß:
»Ich hatte selbst nicht viel für das Glücksspiel übrig und zog ihn mit seinen
unvermeidlichen Verlusten auf, als er plötzlich den Jackpot von etwa 3 Dollar
in Zehn-Cent-Münzen gewann, mir einen triumphierenden Blick zuwarf und
mich stehen ließ. In diesem Augenblick begann ich, über die Numerologie der
Spielautomaten nachzudenken, und mir wurde klar, dass es Analogien zwischen
einarmigen Banditen und bakteriellen Mutationen gab.«447
In den Vierzigerjahren wusste man noch nicht genau, warum oder wie Bakterien
eine Resistenz gegen Viren (und Antibiotika) entwickelten. War die Immunität das
Ergebnis einer Reaktion einer Bakterie auf einen Virus, oder wurde die Resistenz
einfach zufällig durch die unablässigen Mutationen hervorgebracht? Es schien
unmöglich, ein Experiment zu gestalten, das eine klare Antwort auf diese Frage
liefern konnte – zumindest bis zu dem Augenblick, in dem Luria diesen Spielauto-
maten sah. Er erkannte, dass dann, wenn er mehrere Generationen unterschied-
licher Bakterienlinien züchtete und die letzte Generation einem Virus aussetzte,
eines von zwei gegensätzlichen Dingen geschehen würde. War die Resistenz eine
Reaktion auf den Virus, so konnte man davon ausgehen, dass man in allen Kulturen
unabhängig von der Abstammung etwa denselben Anteil resistenter Bakterien
finden würde. War die Resistenz hingegen das Ergebnis zufälliger Mutationen, so

248
Zufälligkeit, Evolution und Kreativität

würden die resistenten Bakterien sehr viel ungleichmäßiger verteilt sein – so wie
die von einem Spielautomaten ausgeschütteten Gewinne: Die Bakterien aus den
meisten Linien würden keinerlei Immunität entwickeln, in einigen Linien würde
eine einzelne resistente »Enkelkultur« auftauen, und in seltenen Fällen, in denen
die geeignete Mutation bereits einige Generationen früher im »Familienstamm-
baum« stattgefunden hatte, würde es einen Jackpot geben: Sämtliche »Enkel« in
dieser Linie würden resistent sein. Luria verließ das Fest sobald er konnte und
kehrte ins Labor zurück, um das Experiment zu beginnen.
Nach einigen Tagen des angespannten, ruhelosen Wartens kehrte Luria ins
Labor zurück, um nach seinen Bakterienkolonien zu sehen. Jackpot!
Luria hatte eine bedeutsame Entdeckung über die Macht des Zufalls ge-
macht: Zufällige, wahllose Mutationen konnten eine Resistenz gegen Viren
hervorbringen. Aber auch seine Entdeckung war zumindest teilweise der Macht
des Zufalls zu verdanken. Luria war zum richtigen Zeitpunkt am richtigen Ort
gewesen, so dass ihn der Spielautomat auf eine neue Idee hatte bringen können.
In den Berichten über Entdeckungen werden oft solche Augenblicke beschrieben:
Newtons (möglicherweise apokrypher) Apfel, das »Heureka!« des Archimedes
im Bad, die vergessene Petrischale, in der Penicillium wachsen konnte. Diese
Momente sind so häufig, dass sogar ein Wort erfunden wurde, um solche Ent-
deckungen zu beschreiben: Im Jahr 1754 prägte Horace Walpole den Begriff
serendipity (Serendipität), der so viel bedeutet wie »zufällige, glückliche Ent-
deckung«. Bei dieser Wortschöpfung berief er sich auf das Märchen von den drei
Prinzen von Serendip (Peregrinaggio di tre giovani figliuoli del re di Serendippo),
wobei Serendip (Sarandib) eine alte arabische Bezeichnung für Sri Lanka ist. Die
drei scharfsinnigen Prinzen »entdeckten unentwegt zufällig Dinge, nach denen
sie nicht gesucht hatten«.448
Diese doppelte Rolle der Zufälligkeit als zentraler Bestandteil von Biologie
und wissenschaftlicher Entdeckung beschäftigt seit Langem Psychologen, die auf
der Suche nach einer Erklärung für die menschliche Kreativität sind. Ein frühes
Beispiel für diese Vorstellung lieferte William James, der im Jahr 1880 kurz nach
seiner Ernennung zum Assistenzprofessor für Psychologie in Harvard (und zehn
Jahre vor der Veröffentlichung seines Standardwerks Principles of Psychology) in
der Zeitschrift Atlantic Monthly einen Artikel unter dem Titel »Große Männer,
große Gedanken und die Umwelt« veröffentlichte. Darin stellte James folgende
These auf:

249
Zufälligkeit

Es gibt eine meines Wissens nie zuvor beschriebene Parallele zwischen den
Tatsachen der sozialen Evolution und dem geistigen Wachstum der Mensch-
heit einerseits und der von Mr. Darwin beschriebenen zoologischen Evolution
andererseits.449
Als James diesen Satz schrieb, war die Vorstellung von einer »zoologischen
Evolution« noch jung – Über den Ursprung der Arten war im Jahr 1859 erschienen,
und Mr. Darwin selbst lebte noch. James beschäftigte sich mit der Frage, wie
die Evolutionstheorie auf verschiedene Aspekte der menschlichen Gesellschaft
angewandt werden konnte, und kam gegen Ende des Artikels auf die Evolution
der Ideen zu sprechen:
»Neue Vorstellungen, Emotionen und aktive Tendenzen werden ursprünglich
in Form willkürlicher Bilder, Launen, spontaner Variationen der funktionalen
Aktivität des übermäßig instabilen menschlichen Gehirns erzeugt, die von der
Umwelt lediglich bestätigt oder widerlegt, angenommen oder abgelehnt, erhalten
oder zerstört werden – kurz gesagt, die Umwelt selektiert sie, so wie sie morpho-
logische und soziale Varianten infolge analoger molekularer Unfälle selektiert.«
James maß der Zufälligkeit also beträchtlichen Einfluss auf die Kreativität
bei. Und er glaubte, dass die Zufälligkeit bei den kreativsten Menschen sehr viel
größeren Einfluss hatte. In Gegenwart solcher Menschen, schrieb er, »scheinen
wir plötzlich in einen dampfenden Kessel voller Ideen zu fallen, in dem alles in
einem Zustand verwirrender Aktivität brodelt und blubbert, in dem Partner-
schaften in einem Augenblick geschlossen oder gelöst werden, jede Tretmühl-
routine unbekannt ist und das Unerwartete das einzige Gesetz zu sein scheint.«
(Man beachte dieselbe, in Temperaturmetaphern wurzelnde Intuition bezüglich
des »Glühens«, bei der wilde Permutation Hitze erzeugt.)
Eine moderne Version von James’ Theorie finden wir im Werk des Psychologen
Donald Campbell, der hundert Jahre später lebte. Im Jahr 1960 veröffentlichte
Campbell eine Arbeit mit dem Titel »Blind Variation and Selective Retention
in Creative Thought as in Other Knowledge Processes« (Blinde Variation und
selektive Speicherung im kreativen Denken und in anderen Wissensprozessen).
Wie James eröffnete er seinen Artikel mit der zentralen These: »Eine Prozess der
blinden Variation und selektiven Speicherung ist grundlegend für alle induktiven
Leistungen, für alle wirklichen Wissenszuwächse, für alle Verbesserungen der
Anpassung des Systems an die Umwelt.«450 Und wie James ließ er sich von der
Evolution inspirieren und betrachtete die kreative Innovation als Ergebnis eines

250
Zufälligkeit, Evolution und Kreativität

Prozesses, in dem scharfsinnige menschliche Gehirne zufällig neue Ideen er-


zeugten und die besten davon speicherten. Campbell berief sich auf andere Natur-
wissenschaftler und Mathematiker, die sich über jene Denkprozesse geäußert
hatten, die ihren Entdeckungen zugrunde lagen. Die Physiker und Philosophen
Ernst Mach und Henri Poincaré, die im 19. Jahrhundert gewirkt hatten, schienen
Campbells Darstellung zu bestätigen, wobei Mach soweit ging zu behaupten,
die Leistungen Newtons, Mozarts, Richard Wagners und anderer seien damit
zu erklären, dass »Gedanken, Melodien und Harmonien über sie hereinbrachen
und dass sie einfach die richtigen bewahrten«.451
Eine beliebte Technik zur Anregung der Kreativität besteht darin, eine
Person mit einem willkürlichen Element zu konfrontieren und ihr beispielsweise
die Aufgabe zu geben, Assoziationen mit einem Wort herzustellen. Beispiels-
weise entwickelten der Musiker Brian Eno und der Künstler Peter Schmidt ein
Kartendeck für eine als Oblique Strategies bezeichnete Methode zur Lösung
kreativer Probleme. Man zieht eine beliebige Karte und erhält eine zufällige
neue Perspektive zu seinem Vorhaben. (Und wenn Ihnen das zu mühsam scheint,
können Sie sich mittlerweile eine App herunterladen, die eine Karte für Sie
ziehen wird.) Enos Erklärung dafür, was ihn zur Entwicklung dieser Karten
bewegte, weist klare Parallelen zu der Methode auf, lokalen Maxima aus dem
Weg zu gehen:
»Wenn du vollkommen mit etwas beschäftigt bist, vergisst du die offen-
kundigsten Dinge. Du kommst aus dem Tonstudio und denkst: ›Warum haben
wir nicht daran gedacht, dies und jenes zu tun?‹ Der einzige Zweck dieser Karten
ist, dich aus dem Rhythmus zu bringen, den Kontext ein wenige aufzubrechen,
damit ihr keine Band in einem Studio seid, die sich auf einen Song konzentriert,
sondern lebendige Personen, die auch viele andere Dinge aufnehmen können.«452
Wenn wir mit zufällig durchgeschüttelten Informationen konfrontiert, aus
dem Rhythmus gebracht und dazu gebracht werden, uns auf ein größeres Um-
feld zu konzentrieren, können wir uns von dem lösen, was lokal gut ist, und uns
wieder dem zuwenden, was global optimal sein könnte.
Und man muss nicht Brian Eno sein, um sein Leben durch ein wenig zufällige
Stimulation zu bereichern. Wikipedia zum Beispiel bietet einen Link zu einem
»zufälligen Artikel« an, den Tom seit Jahren als Startseite in seinem Browser
festgelegt hat. Jedes Mal, wenn er den Browser öffnet, sieht er einen zufällig
ausgewählten Wikipedia-Eintrag. Er hat noch keine besonderen Entdeckungen

251
Zufälligkeit

gemacht, aber mittlerweile weiß er viel über einige kaum bekannte Dinge (zum
Beispiel darüber, welche Messer die chilenischen Streitkräfte verwenden) und
hat das Gefühl, dass einige dieser Entdeckungen sein Leben bereichert haben.
(Beispielsweise hat er gelernt, dass es im Portugiesischen ein Wort für einen
»unbestimmten, stetigen Wunsch« nach etwas gibt, das »nicht existiert und
wahrscheinlich nicht existieren kann«, ein Problem, das wir immer noch nicht
mit einer Suchmaschine lösen können.453) Eine interessante Nebenwirkung ist,
dass er jetzt auch ein besseres Gespür nicht nur dafür hat, welche Themen in
Wikipedia behandelt werden, sondern auch dafür, wie Zufälligkeit tatsächlich
aussieht. Beispielsweise werden mit überraschender Häufigkeit Seiten angezeigt,
bei denen er das Gefühl hat, dass sie eine Beziehung zu ihm haben – Artikel über
Personen oder Orte, die er kennt. (In einem Test musste er den Browser nur zwei-
mal neustarten, um den Artikel »Mitglieder des westaustralischen Parlaments,
1962–1965« angezeigt zu bekommen, und er wuchs in Westaustralien auf.) Das
Wissen, dass diese Seiten tatsächlich zufällig generiert werden, erlaubt es ihm,
andere »Zufälle« in seinem Leben besser zu beurteilen.
In der materiellen Welt können wir unser Gemüse randomisieren, indem
wir einer landwirtschaftlichen Versorgungsgemeinschaft beitreten, die uns jede
Woche eine Schachtel mit ihren Produkten liefern wird. Wie wir an anderer
Stelle gesehen haben, kann eine solche Mitgliedschaft ein Scheduling-Problem
verursachen, aber Lieferungen von Obst und Gemüsesorten, die wir normaler-
weise nicht kaufen würden, sind eine ausgezeichnete Möglichkeit, sich von einem
lokalen Maximum in der Rezeptrotation zu lösen. Auch eine Mitgliedschaft in
Buch-, Wein- oder Schokoladeklubs kann uns intellektuelle und geschmackliche
Genüsse erschließen, die wir sonst möglicherweise nie kennengelernt hätten.
Vielleicht befürchten Sie Ärger mit Ihrem Chef, Ihren Freunden und Ihrer
Familie, wenn Sie alle Entscheidungen mit einem Münzwurf fällen. Tatsächlich
ist die Integration der Zufälligkeit ins eigene Leben nicht unbedingt ein Erfolgs-
rezept. Der Kultroman The Dice Man *, den George Cockcroft im Jahr 1971 unter
dem Pseudonym Luke Rhinehart veröffentlichte, sollte uns eine Warnung sein:
Der Erzähler, ein Mann, der sich entschließt, Entscheidungen nur noch mit
Würfeln zu fällen, gerät rasch in Situationen, die die meisten uns vermutlich
lieber vermeiden werden.

* Deutsch als: Der Würfler (1972).

252
Zufälligkeit, Evolution und Kreativität

Aber vielleicht handelt es sich nur um einen jener Fälle, in denen ein bisschen
Wissen gefährlich ist. Hätte der Würfler etwas von Informatik verstanden, so
hätte er eine Orientierungshilfe gehabt. Zunächst einmal hätte er den Berg-
steiger-Algorithmus anwenden können: Manchmal kann man sich nicht dagegen
wehren, einem schlechten Einfall zu folgen, aber einem guten Einfall sollte man
immer folgen. Sodann hätte er den Metropolis-Algorithmus nutzen können:
Die Wahrscheinlichkeit, einen schlechten Einfall in die Tat umzusetzen, sollte
umgekehrt proportional dazu sein, wie schlecht der Einfall ist. Drittens hätte
er etwas aus dem Simulated-Annealing-Verfahren lernen können: Man sollte
mit der Zufälligkeit beginnen, einen vollkommen zufälligen Zustand jedoch
rasch abkühlen, die Zufälligkeit im Lauf der Zeit immer weiter verringern und
am längsten im Zustand nahe dem Gefrierpunkt verweilen. Man sollte sich ab-
kühlen – buchstäblich.
Diese letzte Erkenntnis entging dem Autor des Buches nicht. Anscheinend
verlegte sich Cockcroft selbst ähnlich wie der Held seines Romans für eine Weile
auf das »Würfeln« und führte in einer Art von brownscher Bewegung mit seiner
Familie ein Nomadenleben auf einem Segelboot im Mittelmeer. Aber irgend-
wann kühlte sein Annealing-Plan ab: Er ließ sich in einem annehmlichen lokalen
Maximum im Nordwesten des Staates New York nieder. Dort führt er immer
noch ein zufriedenes Leben. »Wenn du einmal einen Ort gefunden hast, an dem
du glücklich bist«, erzählte der mittlerweile über achtzigjährige Cockcroft einem
Journalisten des Guardian, »wärst du dumm, deine Situation weiter durchzu-
schütteln.«454

253
10
VERNETZUNG
WIE WIR VERBINDUNGEN HERSTELLEN

Der Begriff Verbindung hat zahlreiche Bedeutungen. Er kann eine


physische oder logische Beziehung zwischen zwei Einheiten be-
schreiben. Er kann den Strom in dieser Beziehung beschreiben. Er
kann eine Aktion in Zusammenhang mit der Herstellung einer Be-
ziehung beschreiben, oder er kann den Zusammenhang zwischen
zwei oder mehr Einheiten bezüglich einer Beziehung zwischen ihnen
mit oder ohne eine Verbindung zwischen ihnen beschreiben.
Vint Cerf und Bob Kahn455

D
ie Telegrafie begann mit einem Omen. Am 24. Mai 1844 schickte Samuel
Morse vom Sitz des Obersten Gerichtshofs der Vereinigten Staaten in
Washington einen Vers aus dem Alten Testament an seinen Assistenten
Alfred Vail in Baltimore: »What hath God wrought?« (Was hat Gott getan?) Das
Erste, was wir über jede neue Verbindung wissen wollen, ist, wie sie entstanden
ist, und wir können nicht anders, als ausgehend davon Vermutungen über ihre
Zukunft anzustellen.
Das erste Telefongespräch der Geschichte, das Alexander Graham Bell am
10. März 1876 mit seinem Assistenten führte, begann mit einer ein wenig para-
doxen Aussage: »Mr Watson, kommen Sie her. Ich will Sie sehen.« Diese Worte
veranschaulichten zugleich die Fähigkeit und die Unfähigkeit der neuen Techno-
logie, physische Distanzen zu überwinden.
Die Mobiltelefonie begann mit einer prahlerischen Ankündigung: Am 3. April
1973 schlenderte Martin Cooper von Motorola unter den Augen verblüffter New

254
Wie wir Verbindungen herstellen

Yorker Fußgänger die Sixth Avenue entlang und rief seinen Rivalen Joel Engel
von AT&T an: »Joel, ich rufe von einem Mobiltelefon an. Es ist tatsächlich ein
Mobiltelefon: ein tragbares, wirklich mobiles Telefon.« (Cooper erinnert sich:
»Ich erinnere mich nicht genau, was er antwortete, aber es herrschte eine Weile
Stille. Ich nehme an, dass er mit den Zähnen knirschte.«)456
Und die Ära der Textnachricht begann am 3. Dezember 1992 mit einer Gruß-
botschaft: Neil Papworth von Sema Group Telecoms wünschte Richard Jarvis
von Vodafone etwas verfrüht: »Frohe Weihnachten.«
Die Anfänge des Internets waren, durchaus passend, sehr viel demütiger und
unauffälliger. Am 29. Oktober 1969 schickte Charley Kline von der University
of California in Los Angeles an Bill Duvall im Stanford Research Institute über
das ARPANET die erste Botschaft, die je von einem Computer an einen anderen
übertragen wurde. Die Botschaft lautete »Login« – besser gesagt, sie hätte so ge-
lautet, wenn der Computer, der sie empfing, nicht nach »Lo« abgestürzt wäre.457
Und dennoch klang auch diese Botschaft schicksalhaft, als hätte Kline das
Alte Testament zitieren wollen: Es fehlte nur ein Ausrufezeichen hinter dem Lo,
und es wäre Lo! daraus geworden: »Sehet!«458
Grundlage für Verbindungen zwischen Menschen ist ein Protokoll: eine Kon-
vention über Verfahren und Erwartungen, von Handshakes und Hallos bis zu
Etikette und Höflichkeitsformen, die gesamte Palette der sozialen Normen. Für
Verbindungen zwischen Maschinen gilt dasselbe: Protokolle ermöglichen es ihnen,
einander zu verstehen. Das Wort hat seinen Ursprung im griechischen protokollon,
welches »das an den Anfang einer Papyrusrolle geklebte Blatt« bedeutet (dieses
Blatt enthielt Angaben zu Verfasser und Ursprung der Rolle), zusammengesetzt
aus protos (das Erste) und kolla (Leim).
In den zwischenmenschlichen Beziehungen sind Protokolle eine subtile, aber
ewige Quelle der Besorgnis. Ich habe vor soundsovielen Tagen eine Nachricht an
Soundso geschickt: Wann muss ich beginnen, mir Sorgen darüber zu machen,
dass diese Person meine Mitteilung vielleicht nicht erhalten hat? Es ist jetzt 12:05
Uhr, und wir wollten zu Mittag telefonieren: Warten wir beide darauf, dass der
andre anruft? Die Antwort klingt sonderbar: Habe ich mich verhört, oder hast
du dich verhört? Kannst du das noch einmal wiederholen?
Der Großteil unserer Kommunikationstechnologie – vom Telegrafen bis zur
Textnachricht – hat uns lediglich neue Kanäle geliefert, in denen wir altbekannte
interpersonale Herausforderungen bewältigen müssen. Beim Internet ist das

255
Vernetzung

anders: Der Computer ist nicht nur der Kanal, sondern auch der Endpunkt: Er
spricht für uns. Daher muss er die Verantwortung für die Lösung seiner eigenen
Kommunikationsprobleme übernehmen. Diese Probleme zwischen Maschinen
ahmen – so wie ihre Lösungen – unsere eigenen nach und veranschaulichen sie
zugleich.

PAKETVERMITTLUNG

Das, was wir heute als »das Internet« kennen, ist in Wahrheit eine Ansammlung
verschiedener Protokolle, aber das Wichtigste von allen, das oft sogar mit dem
Internet gleichgesetzt wird, ist das Transmission Control Protocol (TCP). Dieses
Netzwerkprotokoll ging aus einem Vortrag hervor, den Vinton Cerf und Robert
Kahn im Jahr 1973 hielten. In diesem Vortrag, den Cerf und Kahn ein Jahr später
in einem Artikel vorlegten, schlugen sie eine Sprache für ein »Internetwork« vor.
Das TCP-Protokoll war für die Übertragung über Telefonleitungen bestimmt,
aber es war eher eine Evolution der Post als eine des Telefons. Telefonanrufe be-
dienen sich der »Leitungsvermittlung«: Das System öffnet einen Kanal zwischen
Sender und Empfänger, und in diesem Kanal wird für die Dauer des Gesprächs
eine konstante Bandbreite bereitgestellt. Die Leitungsvermittlung ist sehr sinn-
voll für die menschliche Interaktion, aber schon in den Sechzigerjahren war
klar, dass dieses Paradigma nicht auf die Kommunikation zwischen Maschinen
angewandt werden konnte.
Leonard Kleinrock von der UCLA erinnert sich:
»Ich wusste, dass Computer, wenn sie miteinander sprechen, anders als ich in
diesem Augenblick nicht kontinuierlich sprechen. Sie machen Bumms! – und sind
anschließend eine Weile still. Nach einer Weile explodieren sie erneut. Und du
kannst dir nicht leisten, eine Kommunikationsverbindung für etwas zu öffnen, das
fast nie spricht, aber augenblicklichen Zugang verlangt, wenn es einmal sprechen
will. Daher konnten wir nicht das für die kontinuierliche Kommunikation aus-
gelegte Telefonnetz mit Leitungsvermittlung nutzen, sondern brauchten etwas
anderes.«459
Die Telefongesellschaften hatten keine große Lust auf eine grundlegende
Veränderung ihrer Protokolle. Eine Abkehr von der Leitungsvermittlung schien
ihnen abwegig – sie war »absolut häretisch«, wie es der Netzwerkexperte Van

256
Paketvermittlung

Jacobson ausdrückt.460 Kleinrock erinnert sich an seine eigene Begegnung mit


der Telekommunikationsindustrie:
»Ich ging zu AT&T, das das größte Netz jener Zeit betrieb, und erklärte den
Leuten: Ihr solltet uns gute Kommunikationslinien für die Datenübermittlung
anbieten. Sie antworteten: Wovon reden Sie? Die Vereinigten Staaten sind eine
Kupfermine, das Land ist voller Telefonkabel, die solltet ihr nutzen. Ich sagte:
Nein, ihr versteht nicht. Es dauert 35 Sekunden, eine Verbindung herzustellen, ihr
verrechnet mir mindestens 3 Minuten, aber ich brauche nur 100 Millisekunden
für die Datenübermittlung! Und ihre Antwort war: Mach, dass du davonkommst,
Kleiner. Also machte sich der Kleine davon und entwickelte gemeinsam mit
anderen die Technologie, die AT&T die Butter vom Brot nahm.«461
Die Technologie, die der Leitungsvermittlung die Butter vom Brot nahm,
wurde als Paketvermittlung bekannt.462 In einem Paketvermittlungsnetz wird
nicht für jede Verbindung ein Kanal bereitgestellt, sondern die Botschaften werden
in winzige, als »Pakete« bezeichnete Einheiten gepackt und in einen gemeinsamen
Datenstrom eingespeist – es ist ein wenig so, als würden unzählige Postkarten
mit Lichtgeschwindigkeit befördert.
In einem solchen Netz ist das, was man »als Verbindung bezeichnet, eine
einvernehmliche Illusion von Sender und Empfänger«, erklärt der Netzwerk-
experte Stuart Cheshire von Apple. »Im Internet gibt es keine Verbindungen.
Über eine Verbindung im Internet zu sprechen ist so, als würde man über eine Ver-
bindung im amerikanischen Postsystem sprechen. Man schreibt Briefe an mehrere
Personen, und alle diese Briefe werden getrennt befördert – vielleicht führt man
eine Korrespondenz, die hin und her geht und eine gewisse Kontinuität aufweist,
aber die Post muss davon nichts wissen. […] Sie stellt einfach die Briefe zu.«463
Die effiziente Nutzung der Bandbreite war nicht der einzige Beweggrund für
die Erforschung der Paketvermittlung in den Sechzigerjahren. Der andere war
die Bedrohung durch einen Atomkrieg. Paul Baran von der RAND Corporation
versuchte das Problem der Netzrobustheit zu lösen, damit die militärischen
Kommunikationsnetze einen Angriff mit Atomwaffen, der einen erheblichen
Teil des Netzes zerstören würde, überstehen konnten. Inspiriert von den in den
fünfziger Jahren für die Orientierung in Labyrinthen entwickelten Algorithmen
dachte sich Baran ein Design aus, in dem jedes Datenpaket unabhängig von allen
anderen den Weg zu seinem Bestimmungsort finden konnte, selbst wenn sich das
Netzwerk dynamisch veränderte – oder in Stücke gerissen wurde.464

257
Vernetzung

Das ist der zweite Nachteil der Leitungsvermittlung mit ihren stabilen Ver-
bindungen: Eben diese Stabilität bedeutet, dass ein unterbrochener Anruf …
unterbrochen bleibt. Die Leitungsvermittlung ist einfach nicht flexibel oder an-
passungsfähig genug, um robust zu sein. Und auch hier wird die Paketvermittlung
den Erfordernissen gerecht. In Netzen mit Leitungsvermittlung bricht eine Ver-
bindung zusammen, wenn eines der Glieder die Leitung ausfüllt, was bedeutet,
dass die Zuverlässigkeit exponentiell abnimmt, je größer das Netz wird. In der
Paketvermittlung hingegen ist die Zunahme der Kanäle in einem wachsenden
Netz ein Vorteil: Es gibt jetzt so viel mehr Kanäle, durch die die Daten fließen
können, dass die Zuverlässigkeit des Netzes mit wachsender Größe exponentiell
zunimmt.465
Doch auch nach der Entwicklung der Paketvermittlung wollten die Telefon-
gesellschaften nichts davon hören, wie sich Van Jacobson erinnert. »Die Tele-
kommunikationsleute sagten im Brustton der Überzeugung: Das ist kein Netz!
Das ist nur eine schäbige Art, unser Netz auszunutzen! Ihr verwendet unsere Kabel,
ihr schickt die Pakete durch die Kanäle, die wir zur Verfügung stellen! Und ihr
beladet sie zusätzlich mit einer Menge Mist, weshalb ihr unser Netz wirklich
ineffizient nutzt.« Aber aus Sicht der Paketvermittlung sind die Telefonkabel
lediglich ein Mittel zum Zweck: Es ist den Sendern und Empfängern eigent-
lich gleichgültig, wie die Pakete übermittelt werden. Die Fähigkeit, über zahl-
reiche unterschiedliche Medien hinweg agnostisch zu arbeiten, erwies sich als der
große Vorteil der Paketvermittlung. Nachdem frühe Netzwerke wie APRANET
Ende der Sechziger- und Anfang der Siebzigerjahre bewiesen hatten, dass das
Konzept funktionierte, tauchten im ganzen Land alle möglichen Netzwerke auf,
in denen die Paketvermittlung nicht nur durch Kupferleitungen, sondern auch
über Satelliten und Funk durchgeführt wurde. Im Jahr 2001 nahm eine Gruppe
von Informatikern im norwegischen Bergen sogar für kurze Zeit ein Paket-
vermittlungsnetz mit »aviaren Carriern« in Betrieb: Die Datenpakete wurden zu
Papier gebracht und an den Beinen von Brieftauben befestigt.466
Natürlich bringt auch die Paketvermittlung Probleme mit sich. Zunächst ein-
mal lautet die erste Frage bei jedem menschlichen oder maschinellen Protokoll:
Wie können wir wissen, dass unsere Botschaft ihr Ziel erreicht hat?

258
Die Empfangsbestätigung

DIE EMPFANGSBESTÄTIGUNG

Keine Übertragung kann hundertprozentig zuverlässig sein.


Vint Cerf und Bob Kahn467

»Was hat Gott getan?« war nicht nur die erste Botschaft, die per Telegraf über-
mittelt wurde. Sie war zugleich auch die zweite: Alfred Vail schickte das Bibelzitat
als Bestätigungsschreiben aus Baltimore zurück nach Washington.
Die Antwort gab Morse und den um ihn versammelten Kongressabgeordneten
die Gewissheit, dass Vail die Botschaft erhalten hatte – natürlich nur, wenn sie
darauf vertrauten, dass Vail den Inhalt der Mitteilung nicht im Voraus gekannt
hatte. Aber wie konnte Vail seinerseits wissen, dass seine Bestätigung am anderen
Ende eingetroffen war?
Die Informatiker sprechen in diesem Zusammenhang vom »Problem der
byzantinischen Generäle«.468 Stellen wir uns zwei Generäle vor, die an gegenüber-
liegenden Hängen eines Tals, in dem ein feindliches Heer liegt, Position bezogen
haben. Die beiden Generäle wollen einen Angriff auf den Feind koordinieren.
Nur ein vollkommen synchroner Angriff von beiden Seiten wird zum Erfolg
führen; die isolierte Attacke einer Streitmacht wäre angesichts der Stärke des
feindlichen Heeres selbstmörderisch. Alle Botschaften eines Generals an den
anderen müssen von einem Boten überbracht werden, der das vom Feind besetzte
Gelände durchqueren muss, weshalb immer die Möglichkeit besteht, dass eine
Botschaft ihr Ziel nicht erreichen wird.
Nehmen wir an, der erste General schlägt einen Zeitpunkt für die Attacke
vor, wird jedoch erst zum Angriff blasen lassen, wenn er sicher sein kann, dass
sich die Truppen auf der anderen Seite des Tals ebenfalls in Bewegung setzen
werden. Der zweite General erhält die Botschaft und schickt eine Bestätigung
zurück, wird jedoch keinen Angriff wagen, bevor er weiß, dass der erste General
seine Bestätigungsnachricht erhalten hat (da der erste General ja andernfalls
nicht angreifen wird). Der erste General erhält die Bestätigung – wird jedoch
erst angreifen, wenn er sicher sein kann, dass der zweite General weiß, dass er die
Bestätigung erhalten hat. Wenn die beiden Generäle diese logische Kette fort-
setzen, müssen sie eine unendliche Serie von Botschaften schicken, was natürlich
vollkommen sinnlos wäre. Die Kommunikation gehört zu jenen wunderbaren
Dingen, die nur in der Praxis funktionieren: In der Theorie ist sie unmöglich.

259
Vernetzung

In den meisten Szenarien sind die Konsequenzen von Kom­mu­ni­ka­tionsfehlern


nicht so gravierend und das Erfordernis von Gewissheit nicht derart absolut. Im
TCP-Protokoll führt ein Fehler normalerweise nicht zum Tod, sondern zur er-
neuten Übermittlung, weshalb davon ausgegangen wird, dass es genügt, wenn eine
Sitzung mit einem »Drei-Wege-Handschlag« beginnt. Der Besucher sagt Hallo,
der Server nimmt das Hallo zur Kenntnis und sagt ebenfalls Hallo, der Besucher
bestätigt die Kenntnisnahme, und wenn der Server diese dritte Botschaft erhält,
ist keine weitere Bestätigung erforderlich: Es kann losgehen. Aber selbst wenn
diese erste Verbindung hergestellt ist, besteht noch immer das Risiko, dass einige
spätere Pakete beschädigt werden, bei der Übermittlung verloren gehen, oder in
der falschen Reihenfolge eintreffen. Beim Postversand kann die Zustellung eines
Pakets mit einem Rückschein bestätigt werden. Online wird die Zustellung eines
Pakets mittels sogenannter ACK-Pakete (acknowledgment packets) bestätigt. Diese
sind unverzichtbar für das Funktionieren des Netzwerks.
Die ACK-Bestätigung ist eine ebenso einfache wie brillante Lösung. Beim
Drei-Wege-Handschlag übermitteln die Maschinen einander hinter den Kulissen
eine Art Seriennummer – und mit jedem Paket, das von da an übermittelt wird,
wird diese Nummer um eine Stelle erhöht. Die Pakete sind durchnummeriert
wie die Schecks in einem Scheckbuch. Nehmen wir an, Ihr Computer nimmt
Kontakt zu einem Server auf und schickt diesem bei der Begrüßung die Nummer
100. Das vom Server zurückgeschickte ACK-Paket weist die Seriennummer auf,
mit der die Pakete des Servers beginnen – sagen wir 5000 – und er sagt: »Bereit
für 101«. Das von Ihrem Rechner geschickte ACK-Paket hat die Nummer 101
und sagt: »Bereit für 5001.« (Zu beachten ist, dass die beiden Nummerierungs-
systeme vollkommen unabhängig voneinander sind, und die Nummer, mit der
eine Sequenz beginnt, wird normalerweise zufällig ausgewählt.)
Anhand dieses Mechanismus kann leicht identifiziert werden, ob ein Paket
verloren gegangen ist. Wenn der Server das Paket 101 erwartet, aber das Paket 102
erhält, wird er erneut eine ACK-Bestätigung mit der Mitteilung »Bereit für 101«
schicken. Wenn er als Nächstes das Paket 103 erhält, wird er wieder »Bereit für 101«
zurückschicken. Drei aufeinanderfolgende Wiederholungen würden Ihrem Rechner
signalisieren, dass 101 nicht nur verspätet, sondern endgültig verloren ist, weshalb er
dieses Paket erneut schicken wird. An diesem Punkt wird der Server (der die Pakete
102 und 103 aufbewahrt hat), eine ACK-Bestätigung mit der Botschaft »Bereit für
104« schicken, um zu signalisieren, dass die Sequenz wiederhergestellt worden ist.469

260
Die Empfangsbestätigung

All diese Bestätigungen können sich zu einem beträchtlichen Datenauf-


kommen summieren. Wir stellen uns den Transfer einer großen Datei als uni-
direktionalen Vorgang vor, aber in Wahrheit schickt der Empfänger im Verlauf
der Übermittlung Hunderte »Kontrollmitteilungen« an den Sender zurück. Aus
einem Bericht aus dem Jahr 2014 geht hervor, dass fast 10 Prozent des Upstream-
Verkehrs in Spitzenzeiten auf Netflix entfielen – wir stellen uns eher vor, dass
dieser Anbieter fast ausschließlich Daten downstream zu seinen Benutzern schickt.
Aber all diese Videodatenpakete gehen mit der Übermittlung großer Mengen an
ACK-Bestätigungen einher.470
Auch in den zwischenmenschlichen Beziehungen ist die Frage, ob die Bot-
schaft tatsächlich empfangen wurde, in einem Gespräch allgegenwärtig. Der
Sprecher hängt möglicherweise im Unterbewusstsein die Frage »Nicht wahr?« an
jeden Satz an, und der Hörer kann nicht umhin, den Empfang der Botschaften
mit einem stetigen Strom von Kopfnicken, »Ja«, »Genau«, »Verstanden« und
»Mhm« zu bestätigen. Wir tun das sogar, wenn wir einander von Angesicht zu
Angesicht gegenübersitzen, und in einem Telefongespräch ist es oft die einzige
Möglichkeit herauszufinden, dass die Verbindung nicht unterbrochen wurde. Kein
Wunder, dass sich die erfolgreichste Werbekampagne des 21. Jahrhunderts um
einen Netzwerkingenieur eines Mobilfunkbetreibers dreht, der ein ums andere
Mal die bei der Qualitätskontrolle übliche Frage stellt: »Can you hear me now?«
Wenn in diesem Hin und Her etwas schiefgeht, bleibt uns oft nur ein Frage-
zeichen. Der Softwareblogger Tyler Treat sagt es so:
»In einem verteilten System versuchen wir, die Zustellung einer Botschaft zu
garantieren, indem wir auf eine Empfangsbestätigung warten, aber es kann alles
Mögliche schiefgehen. Ist die Botschaft verlorengegangen? Ist die Bestätigung
verlorengegangen? Ist der Empfänger abgestürzt? Oder ist er einfach nur lang-
sam? Ist das Netzwerk langsam? Bin ich langsam?«471
Das Problem der byzantinischen Generäle, ruft uns Treat in Erinnerung,
»sind nicht die Komplexitäten des Systems, sondern die Unmöglichkeitsresultate.«
Die frühe Netzwerkforschung, erklärt Vint Cerf, beruhte »auf der Annahme,
dass man ein zuverlässiges Netz bauen konnte«. Hingegen »beruhte das Internet
auf der Annahme, dass kein Netz zwangsläufig zuverlässig war und dass man
erneute End-to-end-Übertragungen brauchte, um Fehler zu korrigieren«.472
Eine der wenigen Ausnahmen ist ironischerweise die Übertragung der
menschlichen Stimme. Für die Sprachkommunikation in Echtzeit, zum Beispiel

261
Vernetzung

über Skype, wird üblicherweise nicht das TCP-Protokoll verwendet, auf dem der
Großteil der Kommunikation im Internet beruht. Wie die Forscher in der Früh-
zeit der Vernetzung entdeckten, wäre es übertrieben, für die Übertragung der
menschlichen Stimme zuverlässige, robuste Protokolle samt ACK-Bestätigungen
und erneuter Übermittlung verlorener Pakete zu verwenden. Cerf erklärt: »Wenn
man bei der Sprachübertragung ein Paket verliert, sagt man einfach: ›Bitte wieder-
hole das, ich habe dich nicht richtig gehört.‹«473
Aus diesem Grund leisten Telefondienste, die automatisch Hintergrund-
geräusche unterdrücken, dem Benutzer einen Bärendienst. Hintergrundgeräusche
sind eine kontinuierliche Versicherung, dass die Verbindung weiterhin besteht
und dass Stille am anderen Ende einfach bedeutet, dass der Gesprächspartner
schweigt. Ohne diese Geräusche muss man ständig mit der Möglichkeit rechnen,
dass die Verbindung unterbrochen wurde, und sich unentwegt vergewissern,
dass es nicht so ist. Das ist auch die Sorge aller Paketvermittlungsprotokolle, ja
sogar aller Medien, die auf einem asynchronen Senderwechsel beruhen, sei es
das Briefschreiben, der Austausch von Textnachrichten oder das unverbindliche
Hin und Her im Online-Dating. Jede Botschaft könnte die letzte sein, und oft
ist es unmöglich zu erkennen, ob jemand nur ein wenig länger für die Antwort
braucht oder das Gespräch schon vor einiger Zeit beendet hat.
Wie sollen wir also mit einem Menschen – oder einem Computer – umgehen,
der unzuverlässig ist?
Die erste Frage ist, wie lang der Zeitraum, in dem eine Antwort ausbleibt,
sein muss, damit von einem Zusammenbruch der Verbindung auszugehen ist.
Die Antwort hängt teilweise von der Natur des Netzes ab: Am Telefon beginnen
wir uns nach einigen Sekunden der Stille zu fragen, ob die Verbindung noch
besteht, während wir uns bei der E-Mail erst nach mehreren Tagen und bei der
herkömmlichen Post erst nach Wochen Sorgen zu machen beginnen. Je länger
die Übermittlung vom Sender zum Empfänger dauert, desto länger dauert es,
bis wir einer ausbleibenden Antwort Bedeutung beimessen – und desto mehr
Information kann umsonst auf den Weg gebracht werden, bevor der Sender ein
Problem bemerkt. Bei der Vernetzung ist es für das Funktionieren des Systems
unverzichtbar, dass die Beteiligten ihre Erwartung bezüglich des angemessenen
Zeitraums für die Übermittlung einer Empfangsbestätigung richtig abstimmen.
Die zweite Frage ist natürlich, was genau wir tun sollten, wenn wir einen
Zusammenbruch festgestellt haben.

262
Exponential Backoff: Der Algorithmus der Nachgiebigkeit

EXPONENTIAL BACKOFF: DER


ALGORITHMUS DER NACHGIEBIGKEIT

Als am schwersten zu übersetzende Wort wurde »ilunga« identi-


fiziert, ein Wort aus der im Südosten des Kongo gesprochenen
Sprache Tschiluba. […] Ilunga bedeutet »eine Person, die bereit ist,
jedes Fehlverhalten beim ersten Mal zu verzeihen, beim zweiten Mal
zu dulden, aber nie ein drittes Mal hinzunehmen«.
BBC News474
Wenn du beim ersten Mal scheiterst, versuch es ein zweites Mal.
T. H. Palmer475

Heute erwarten wir von unseren Geräten, dass sie drahtlos kom­mu­ni­zieren können,
selbst wenn eine Verbindung über Drähte leicht wäre – beispielsweise sollen
Tastatur und Maus drahtlos mit dem wenige Zentimeter entfernten Computer
kommunizieren. Aber die drahtlose Vernetzung hat ihren Ursprung in einer Not-
wendigkeit an einem Ort, an dem Kabel ungeeignet sind: in Hawaii. Ende der
Sechziger- und Anfang der Siebzigerjahre versuchte Norman Abramson von der
University of Hawaii in Honolulu, sieben Universitätsstandorte und zahlreiche
Forschungsinstitute, die über vier Inseln verstreut waren und Hunderte Kilometer
auseinanderlagen, miteinander zu verbinden. Er erkannte die Möglichkeit, die
Paketvermittlung über Funk statt über das Telefonnetz zu bewältigen und eine
Kette von Sendern und Empfangsgeräten auf den Inseln zu bauen. Dieses System
wurde als ALOHAnet bekannt.476
Die größte Hürde, die das System überwinden musste, waren die Inter-
ferenzen. Manchmal übertrugen zwei Stationen zum selben Zeitpunkt und
störten unabsichtlich gegenseitig ihre Übertragungssignale. (Dieses Problem ist
uns natürlich auch in menschlichen Gesprächen vertraut.) Wenn beide Stationen
in einer solchen Situation einfach ihre Botschaft erneut schickten, bestand die
Gefahr, dass sie in einer ewigen Interferenz hängen blieben. Das ALOHAnet
würde konkurrierenden Signalen also sagen müssen, wie sie einander Raum geben
konnten, wann sie nachgeben und einander den Vortritt lassen konnten.
Als Erstes müssen die Sender in einem solchen Fall »die Symmetrie brechen«.
Jeder Fußgänger kennt das Problem: Eine Person weicht auf dem Bürgersteig

263
Vernetzung

einer entgegenkommenden Person aus. Wenn die erste Person nach rechts aus-
weicht und die andere Person gleichzeitig nach links ausweicht, wird das Problem
nicht gelöst, indem beide gleichzeitig in die entgegengesetzte Richtung auszu-
weichen versuchen: Denn dann stehen sie einander erneut im Weg. Dasselbe
Problem tritt auf, wenn zwei Gesprächspartner innehalten, einander bedeuten,
der andere möge weitersprechen, um dann gleichzeitig zu sprechen beginnen,
weil sie beide annehmen, dass der andere der Aufforderung nicht folgen will,
oder wenn zwei Autos an einer Kreuzung anhalten, um einander die Vorfahrt
zu geben, dann jedoch gleichzeitig wieder losfahren. In diesem Bereich wird
die Zufälligkeit unverzichtbar – tatsächlich wäre die Vernetzung ohne sie nicht
möglich.
Eine einfache Lösung im Fall eines Funknetzes besteht darin, dass die Funk-
stationen jeweils eine Münze werfen. Bei »Kopf« übertragen sie erneut, bei »Zahl«
lassen sie der jeweils anderen den Vortritt und übertragen anschließend erneut.
Es wird nicht lange dauern, bis eine von beiden ungestört übertragen kann. Diese
Methode funktioniert durchaus gut, wenn es nur zwei Sender gibt. Aber was ge-
schieht, wenn drei Signale gleichzeitig gesendet werden? Oder vier? Hier bedürfte
es einer Chance von 1 zu 4, damit das Netzwerk zu diesem Zeitpunkt auch nur
ein einziges Paket bewältigen könnte (womit immer noch drei Stationen übrig
wären, deren Sendungen miteinander kollidieren, und möglicherweise kommen
in der Zwischenzeit noch weitere konkurrierende Signale dazu). Mit wachsender
Zahl von Konflikten könnte der Datendurchsatz des Netzwerks abstürzen. In
einem Bericht über das ALOHAnet aus dem Jahr 1970 wurde festgestellt, dass
der Kanal oberhalb einer Auslastung von 18,6 Prozent instabil und die durch-
schnittliche Zahl der erneuten Übermittlungen unkontrollierbar wurde.477 Das
klingt nicht gut.
Was konnte man also tun? Gab es eine Möglichkeit, ein System zu entwickeln,
das dieses Problem löste?
Der Durchbruch gelang, als man die durchschnittliche Verzögerung nach
jedem Übertragungsfehler erhöhte – genauer gesagt, wurde die potentielle Ver-
zögerung vor einem erneuten Übertragungsversuch verdoppelt. Nach einem ersten
Fehler übermittelte ein Sender zufällig ein oder zwei Intervalle später erneut, aber
nach einem zweiten Fehlschlag versuchte er es irgendwann zwischen einem und
vier Intervallen später erneut. Nach einem dritten sukzessiven Fehlschlag wartete
er zwischen ein und acht Intervallen ab usw..

264
Exponential Backoff: Der Algorithmus der Nachgiebigkeit

Diese elegante Lösung ermöglicht es einem Netzwerk, eine potenziell be­


liebige Zahl konkurrierender Signale zu bewältigen. Da die maximale Dauer der
Verzögerung (2, 4, 8, 16 usw.) exponentiell steigt, wird dieser Algorithmus als
Exponential Backoff bezeichnet.
Die Einführung des Exponential-Backoff-Verfahrens trug wesentlich
dazu bei, dass das ALOHAnet ab 1971 funktionstüchtig wurde, und in den
Achtziger­jahren wurde der Algorithmus in das TCP-Protokoll integriert, womit
er sich in einen wesentlichen Bestandteil des Internets verwandelte. Jahrzehnte
später ist er immer noch unverzichtbar. Wie es in einer maßgeblichen Arbeit
zum Thema heißt: »Wenn ein Transportendpunkt in ein Netz von unbekannter
Topologie mit einer unbekannten, unerkennbaren und sich ständig wandelnden
Population konkurrierender Gespräche eingebettet ist, gibt es nur ein Verfahren,
das funktionieren kann, nämlich Exponential Backoff.«478
Es sind jedoch die anderen Anwendungen dieses Algorithmus, die eine grund-
legende Erkenntnis liefern. Der Exponential-Backoff-Algorithmus kann nicht
nur zur Kollisionsvermeidung eingesetzt werden, sondern eignet sich zur Be-
wältigung fast aller Vernetzungsfehler oder Zuverlässigkeitsprobleme. Wenn Ihr
Computer beispielsweise versucht, eine Website zu erreichen, die anscheinend
nicht antwortet, wendet er das Exponential-Backoff-Verfahren an: Er versucht
es nach einer Sekunde erneut, dann nach zwei Sekunden usw. Das ist für alle
Beteiligten von Vorteil: Es verhindert, dass der Hostserver mit Anfragen verstopft
wird, sobald er wieder online geht, und es verhindert, dass Ihr Computer zu viel
Energie für ein aussichtloses Unterfangen verschwendet. Aber interessanterweise
zwingt er Ihren Computer auch nie, vollkommen aufzugeben (und er erlaubt es
ihm nicht).
Exponential Backoff ist auch unverzichtbar für die Netzwerksicherheit.
Sukzessive Passwortfehler beim Einloggen in einen Account werden mit einer
exponentiell steigenden Sperrzeit bestraft. Das hindert einen Hacker daran, einen
Account mit einem »Lexikonangriff« zu knacken, indem er einfach solange alle
möglichen potenziellen Passworte durchspielt, bis er das richtige gefunden hat.
Gleichzeitig löst es ein weiteres Problem: Der wirkliche Eigentümer des Accounts
wird, so vergesslich er auch sein mag, nach einer willkürlichen Unterbrechung
nie dauerhaft ausgesperrt.
Menschliche Gesellschaften gestehen ihren Mitgliedern zumeist eine be-
grenzte Zahl von Chancen zur Läuterung und geben sie anschließend vollkommen

265
Vernetzung

auf: drei Fehlschläge, und du bist raus. Dieses Muster ist in fast allen Situationen
zu finden, in denen Vergebung, Nachsicht oder Beharrungsvermögen erforderlich
sind. Vielleicht machen wir etwas falsch.
Eine Freundin von uns dachte darüber nach, wie sie sich einer Jugendfreundin
gegenüber verhalten sollte, die die befremdliche Angewohnheit hatte, sozialen
Verpflichtungen nicht nachzukommen. Was sollte unsere Freundin tun? Ein für
allemal zu entscheiden, dass das Fass voll war und dass es das Beste war, die Be-
ziehung zu beenden, schien ihr willkürlich und übermäßig hart, aber gleichzeitig
schien es ihr naiv, Verabredungen immer wieder zu verschieben, Zeit mit einer
unzuverlässigen Person zu verschwenden und ein ums andere Mal enttäuscht zu
werden. Die Lösung: Sie wandte den Exponential-Backoff-Algorithmus auf die
Einladungsrate an. Als ihre Freundin wieder einmal absagte, versuchte sie eine
Woche später, erneut ein Treffen zu verabreden. Als es erneut nicht klappte,
versuchte sie es nach zwei, dann nach vier, dann nach acht Wochen wieder. Auf
diese Art konnte unsere Freundin die Zahl der »erneuten Übertragungsversuche«
langsam gegen null senken – aber sie musste vollkommen aufgeben.
Eine andere Freundin von uns quälte sich mit der Frage, ob sie ein Familien-
mitglied mit Drogenproblemen bei sich aufnehmen und finanziell unterstützen
sollte. Sie wollte die Hoffnung nicht aufgeben, dass sich alles zum Besseren
wenden würde, und konnte es nicht über sich bringen, sich endgültig von diesem
Verwandten abzuwenden. Aber sie konnte sich auch nicht überwinden, all das
zu tun, was erforderlich war, um ihn in ihrem Haus aufzunehmen: Sie musste
ihm Kleidung kaufen, für ihn kochen, ein Bankkonto für ihn eröffnen und ihn
jeden Morgen zur Arbeit fahren. Und dann würde er in einem unvorhersehbaren
Moment plötzlich das ganze Geld nehmen und verschwinden, nur um einige
Wochen später erneut anzurufen, um Vergebung zu flehen und darum zu bitten,
wieder aufgenommen zu werden. Es schien ein Paradox zu sein, eine grausame
und unmögliche Entscheidung.
Der Exponential-Backoff-Algorithmus ist in solchen Fällen kein Allheil-
mittel, aber er stellt einen möglichen Ausweg dar. Beispielsweise konnte unsere
Freundin von ihrem drogensüchtigen Verwandten eine exponentiell wachsende
Zeit der Abstinenz verlangen, was den Anreiz, erneut gegen die Regeln des
Hauses zu verstoßen, verringern würde. So müsste das Familienmitglied immer
überzeugender nachweisen, dass es ihm ernst damit war, sein Leben wieder in
den Griff zu bekommen, und der Gastgeberin würde die permanente Belastung

266
Exponential Backoff: Der Algorithmus der Nachgiebigkeit

durch einen sich wiederholenden Zyklus erspart. Und am vielleicht wichtigsten


war, dass sie ihren Verwandten nie endgültig aufgeben musste. Dank dieses
Algorithmus konnte sie also endliche Geduld und unendliches Erbarmen haben.
Vielleicht müssen wir nicht immer wählen.
Tatsächlich haben wir im vergangenen Jahrzehnt die Anfänge einer stillen
Revolution im Umgang des Justizsystems mit der Beaufsichtigung von Drogen-
kriminellen gesehen. Ein Element dieser Revolution ist ein Pilotprogramm mit
der Bezeichnung HOPE, das sich auf das Exponential-Backoff-Verfahren von
ALOHAnet stützt – und ein verblüffender Zufall wollte es, dass es auch am
selben Ort geboren wurde: in Honolulu.479
Kurz nach seiner Vereidigung als Richter im 1. Gerichtsbezirk von Hawaii
beobachtete Steven Alm ein bemerkenswertes Muster. Wegen Drogenvergehen
verurteilte und auf Bewährung freie Straftäter verstießen wiederholt gegen die Be-
währungsbestimmungen, und die Richter nutzten regelmäßig ihren Ermessens-
spielraum, um sie mit einer Verwarnung davonkommen zu lassen. Aber irgend-
wann, vielleicht nach einem Dutzend oder mehr Verstößen, entschlossen sich
die Richter, streng zu sein und die Straftäter zu einer jahrelangen Haftstrafe zu
verurteilen. Richter Alm erklärt: »Das schien mir eine vollkommen ungeeignete
Methode zu sein, um das Verhalten einer Person zu ändern.«480 Also schlug er
einen ganz anderen Zugang vor. Die Anhörungen wegen Verstößen gegen die
Bewährungssauflagen sollten nicht mehr zu einem weit entfernten Zeitpunkt
stattfinden, was ungewisse Beurteilungen erforderte und gelegentlich zu hohen
Strafen führte. Stattdessen wurde im HOPE-Programm bei jedem Verstoß auto-
matisch eine feststehende Strafe verhängt: Beim ersten Verstoß musste der Täter
nur für einen Tag ins Gefängnis, doch mit jedem weiteren Verstoß erhöhte sich
die Haftdauer. Das Justizministerium fand in einer Studie heraus, dass die Wahr-
scheinlichkeit, wegen einer erneuten Straftat verhaftet zu werden oder die Be-
währung entzogen zu bekommen, bei den Teilnehmern am HOPE-Programm
im Untersuchungszeitraum von fünf Jahren nur halb so hoch war wie bei Straf-
tätern mit einer normalen Bewährungsstrafe. Und die Wahrscheinlichkeit, dass
sie erneut Drogen konsumierten, war um 72 Prozent geringer. Mittlerweile sind
17 amerikanische Bundesstaaten dem Vorbild Hawaiis gefolgt und haben eigene
Versionen des HOPE-Programms eingeführt.

267
Vernetzung

DATENFLUSSSTEUERUNG UND VERMEIDUNG


VON NETZÜBERLASTUNG

Bei den ersten Versuchen zur Vernetzung von Computern ging es den Forschern
vor allem darum, zuverlässige Übertragungen über unzuverlässige Verbindungen
möglich zu machen. Diese Bemühungen waren so erfolgreich, dass sie sich sofort
eine zweite Frage stellten: Wie konnte man einen katastrophalen Zusammenbruch
eines überlasteten Netzwerks ausschließen? Kaum hatte das TCP das Problem
gelöst, wie Daten von Punkt A zu Punkt B gebracht werden konnten, da wurde
das Protokoll mit dem Problem des Kollaps konfrontiert.
Das Problem trat erstmals im Jahr 1986 in einer Leitung auf, die das Lawrence-
Berkeley-Laboratorium (LBL) mit der University of California in Berkeley (UCB)
verband. Die beiden Einrichtungen sind durch eine Distanz getrennt, die etwa
der Länge eines Footballfelds entspricht. (In Berkeley füllt diesen Raum zufällig
tatsächlich ein Footballfeld aus.) Eines Tages fiel die Bandbreite der Leitung ab-
rupt von 32 000 Bits pro Sekunde auf nur noch 40 Bits pro Sekunde. Die Opfer
dieses Absturzes, Van Jacobson beim LBL und Michael Karels an der UCB, waren
»fasziniert von dieser plötzlichen Verringerung der Bandbreite um einen Faktor
von tausend« und machten sich daran, die Ursachen für diesen Leistungsverlust
zu untersuchen.481
Andere Networking-Gruppen im ganzen Land berichteten ebenfalls von
diesem Problem. Jacobson sah sich den Code an. Er fragte sich, ob es einen Fehler
im Protokoll gab. »Es funktionierte bei Tests in kleinerem Maßstab, und dann
brach plötzlich alles zusammen.«482
Einer der wesentlichen Unterschiede zwischen Leitungsvermittlung und
Paketvermittlung besteht in ihrem Umgang mit Übertragungsstaus. Bei der
Leitungsvermittlung teilt das System einen angeforderten Kanal entweder zu
oder verweigert ihn von vornherein aufgrund mangelnder Kapazitäten. Deshalb
haben Sie in Spitzenzeiten vielleicht schon einmal die Meldung gehört, dass
»gegenwärtig alle Leitungen besetzt« sind.
Die Paketvermittlung funktioniert ganz anders. Das Telefonsystem ist voll,
das E-Mail-System wird langsam. Ein Sender wird im Netzwerk keine klaren
Angaben dazu erhalten, wie viele andere Sender in diesem Augenblick aktiv sind
oder wie überlastet das Netzwerk ist, und das Ausmaß der Überlastung ändert

268
Datenflusssteuerung und Vermeidung von Netzüberlastung

sich unentwegt. Daher müssen Sender und Empfänger nicht nur kommunizieren,
sondern auch metakommunizieren: Sie müssen herausfinden, wie schnell die
Daten geschickt werden sollen. Irgendwie müssen die Paketflüsse – ohne explizite
Steuerung oder Koordinierung – einander aus dem Weg gehen und gleichzeitig
jeden neu verfügbaren Platz rasch nutzen.
Das Resultat der Detektivarbeit von Jacobson und Karels war eine Reihe neuer
Algorithmen für Datenflusssteuerung und Vermeidung von Netzüberlastung.
Es war eine der größten Modifikationen des TCP-Protokolls in vierzig Jahren.
Das Kernstück der Congestion Control in TCP ist ein Algorithmus, der als
Additive Increase, Multiplicative Decrease (AIMD) bezeichnet wird. Bevor
AIMD angewandt wird, fährt eine neue Verbindung ihre Datenübertragungs-
rate aggressiv hoch: Wird das erste Paket erfolgreich übertragen, so werden zwei
weitere losgeschickt; kommen diese beiden Pakete durch, wird ein Stapel von
vier Paketen geschickt usw.483 Aber in dem Moment, da die ACK-Bestätigung
eines Pakets nicht zurückkommt, nimmt der AIMD-Algorithmus die Dinge
in die Hand. Nun wird die Zahl der abgeschickten Pakete in Reaktion auf die
erfolgreiche Übertragung eines vollen Stapels von Paketen nicht mehr verdoppelt,
sondern nur nicht um eines erhöht, und gehen Pakete verloren, so wird die Über-
tragungsrate um die Hälfte verringert (daher die Bezeichnung »Additive Er-
höhung, multiplikative Verringerung«). Im Grunde sagt der AIMD-Algorithmus:
»Ein bisschen mehr, ein bisschen mehr, ein bisschen mehr – Hoppala!, das war
zu viel, sehr viel weniger – ein bisschen mehr, ein bisschen mehr …« Daraus er-
gibt sich eine charakteristische Form der Bandbreite, die als »TCP-Sägezahn«
bezeichnet wird: Stetige Anstiege werden von steilen Abstürzen unterbrochen.
Warum dieser scharfe, asymmetrische Rückgang? Wie Jacobson und Karels er-
klären, schaltet sich AIMD erstmals ein, wenn nach einer anfänglichen aggressiven
Erhöhung des Datendurchsatzes zum ersten Mal ein Paket verloren geht. Da die
Übertragungsrate in dieser ersten Phase mit jeder erfolgreichen Sendung verdoppelt
wurde, ist es durchaus angemessen, die Geschwindigkeit um die Hälfte zu ver-
ringern, sobald ein Problem auftritt. Und wenn eine laufende Übertragung erneut
aussetzt, liegt das wahrscheinlich daran, dass eine neue Verbindung die Ressourcen
des Netzwerks in Anspruch nehmen will. Die konservativste Lagebeurteilung –
die Annahme, dass Sie die einzige Person im Netzwerk waren und dass jetzt eine
zweite Person die Hälfte der Ressourcen beansprucht – führt ebenfalls zu einer
Verringerung um die Hälfte. Ein konservatives Vorgehen ist unverzichtbar: Das

269
Vernetzung

Netzwerk kann sich nur stabilisieren, wenn sich seine Benutzer mindestens so
schnell zurückziehen, wie das System überlastet wird. Aus demselben Grund hilft
eine lediglich additive Erhöhung dabei, die Dinge für alle Beteiligten zu stabilisieren
und Zyklen von rasch wechselnder Überlastung und Erholung zu vermeiden.
Obwohl eine derart strenge Trennung zwischen Addition und Multiplikation
zu den Dingen gehört, die in der Natur kaum zu finden sind, können wir das
Wirken eines Mechanismus wie des TCP-Sägezahns in verschiedenen Bereichen
beobachten, in denen es darum geht, sich ein so großes Stück des Kuchens zu
sichern, wie gefahrlos möglich ist.
Beispielsweise machten die Ökologin Deborah Gordon von der Universität
Stanford und der Informatiker Balaji Prabhakar im Jahr 2012 zufällig die Ent-
deckung, dass Ameisen offenbar schon vor Millionen Jahren Algorithmen für
die Datenflusssteuerung entwickelten. Wie ein Computernetz ist eine Ameisen-
kolonie beim Management ihres »Datenflusses« – in diesem Fall des Flusses der
Ameisen, die zur Futtersuche aufbrechen und in die Kolonie zurückkehren –
mit einem Zuteilungsproblem konfrontiert, und zwar unter wechselnden Be-
dingungen, die erhebliche Auswirkungen auf die Rate der erfolgreichen Ausflüge
der Ameisen haben können. Und wie Computer im Internet müssen Ameisen
dieses gemeinsame Problem ohne Hilfe eines zentralen Entscheidungsträgers lösen
und stattdessen das entwickeln, was Gordon als »Steuerung ohne Hierarchie« be-
zeichnet.484 Wie sich herausstellt, haben die Ameisen auch eine ähnliche Lösung
gefunden: einen Rückkoppelungszyklus, in dem erfolgreiche Futtersucher mehr
Ameisen zum Verlassen des Nests veranlassen, während Rückkehrer, die keinen
Erfolg gehabt haben, eine Verringerung der Aktivität auslösen.485
Auch das Verhalten anderer Tierarten erinnert an die Datenflusssteuerung
durch TCP mit dem charakteristischen Sägezahn. Eichhörnchen und Tauben,
die menschliche Essensreste sammeln, tasten sich Schritt für Schritt vor, machen
gelegentlich einen Satz zurück und tasten sich anschließend wieder stetig vor.
Und möglicherweise ist auch die menschliche Kommunikation ein Spiegelbild
der dafür verwendeten Übertragungsprotokolle: Jede Antwort auf eine Textnach-
richt oder E-Mail löst eine neue Botschaft aus, während jede unbeantwortete
Botschaft den Fluss bremst.
Der AIMD-Algorithmus stellt ganz allgemein einen Zugang zu den zahl-
reichen Lebensbereichen dar, in denen wir beschränkte Ressourcen unter un-
gewissen und wechselnden Bedingungen zuteilen müssen.

270
Datenflusssteuerung und Vermeidung von Netzüberlastung

Das in den Sechzigerjahren von dem Philologen Laurence J. Peter entwickelte


satirische »Peter-Prinzip« besagt, dass jeder Beschäftigte in einer Hierarchie »bis
zu seiner Stufe der Inkompetenz« aufsteigt.486 Der Grundgedanke ist, dass in
einer hierarchischen Organisation jeder Mitarbeiter, der eine Arbeit gewissenhaft
erledigt, mit einer Beförderung belohnt wird und einer Tätigkeit nachgehen darf,
die komplexere und/oder andere Herausforderungen mit sich bringen kann. Wenn
der Mitarbeiter schließlich eine Position erreicht, in der er keine guten Leistungen
mehr bringen kann, kommt sein Aufstieg in der Hierarchie zum Stillstand und
er bleibt für den Rest seiner Karriere auf dieser Position. Daher, so die düstere
Logik des Peter-Prinzips, muss davon ausgegangen werden, dass schließlich jeder
Posten in einer Organisation mit jemandem besetzt sein wird, der dieser Aufgabe
nicht gewachsen ist. Dieselbe Einschätzung äußerte der spanische Philosoph José
Ortega y Gasset schon fünfzig Jahre vor der Formulierung des Peter-Prinzips.
Im Jahr 1910 schrieb er: »Jeder Staatsdiener sollte auf den nächstniedrigeren
Rang zurückgestuft werden, denn er wurde solange befördert, bis er sich als in-
kompetent erwies.«487
Einige Organisationen haben versucht, der Falle des Peter-Prinzips zu ent-
gehen, indem sie Angestellte, die nicht mehr aufsteigen, einfach auf die Straße
setzen. Das sogenannte Cravath-System, das von der Anwaltsfirma Cravath,
Swaine & Moore entwickelt wurde, beruht auf dem Grundsatz, fast ausschließ-
lich Hochschulabsolventen einzustellen, sie mit untergeordneten Tätigkeiten zu
betrauen und sie in den folgenden Jahren in regelmäßigen Abständen entweder
zu befördern oder zu entlassen.488 Im Jahr 1980 wurde mit dem Defense Officer
Personnel Management Act in den amerikanischen Streitkräften eine ähnliche
»Rauf-oder-raus«-Politik eingeführt.489 Großbritannien bedient sich einer ähn-
lichen, sehr umstrittenen Praxis, die vorsieht, Soldaten nach drei, sechs, neun,
zwölf oder fünfzehn Jahren zu entlassen, wenn sie sich nicht wie erhofft ent-
wickeln.490
Gibt es eine Alternative, einen Mittelweg zwischen der institutionellen
Stagnation des Peter-Prinzips und der drakonischen Härte des »Rauf-oder-
raus«-Systems? Der AIMD-Algorithmus liefert uns eine solche Alternative, da
er dafür entwickelt wurde, die Erfordernisse einer volatilen Umgebung zu be-
wältigen. Ein Computernetz muss seine eigene maximale Übertragungskapazität
sowie die Übertragungsraten seiner Klienten steuern, und all das ist unvorher-
sehbaren Schwankungen unterworfen. Ein Unternehmen hat beschränkte Be-

271
Vernetzung

triebsmittel, und die Kapazität jedes Mitarbeiters oder Lieferanten, Arbeiten und
Verantwortung zu übernehmen, ist begrenzt. Alle Beteiligen brauchen Kapazi-
täten, und die Partnerschaften wechseln unablässig.
Vom TCP-Sägezahn können wir lernen, dass der beste (oder einzige) Weg
in einer unvorhersehbaren und wechselhaften Umgebung manchmal tatsächlich
darin bestehen kann, die Kapazitätsnutzung bis an die Grenze der Belastbarkeit
zu treiben. Entscheidend ist, dass man dafür sorgt, dass die Reaktion auf Zu-
sammenbrüche sowohl deutlich ausfällt als auch anpassungsfähig ist. Der AIMD-
Algorithmus erhöht die Auslastung jeder Verbindung, die nicht überlastet ist,
genau solange, bis sie an eine Grenze stößt – und verringert sie in diesem Moment
um die Hälfte, nur um sie anschließend sofort wieder zu erhöhen. Und obwohl
das wohl gegen fast alle Normen der modernen Unternehmenskultur verstoßen
würde, können wir uns ein Unternehmen vorstellen, das einmal im Jahr jeden
Mitarbeiter entweder befördert oder um eine Stufe zurückversetzt.
Das schädliche Peter-Prinzip hat seinen Ursprung nach Ansicht von Laurence
Peter darin, dass das erste Gebot des Lebens in Hierarchien lautet: »Die Hierarchie
muss erhalten werden.« Das TCP-Protokoll hingegen ist ein Beispiel für die Vor-
züge der Flexibilität. Unternehmen sprechen gern von »flachen« Hierarchien,
aber vielleicht sollten sie sich eher um dynamische Hierarchien bemühen. In
einem AIMD-System fürchtet sich niemand lange vor einer Überbewertung
oder grollt lange über eine zu Unrecht entgangene Beförderung: Beides sind
vorübergehende und häufige Abhilfemaßnahmen, und das System bleibt in der
Nähe seines Gleichgewichts, obwohl sich alles andere unentwegt ändert. Vielleicht
werden wir eines Tages nicht mehr über unsere Bogenkarriere, sondern über
unsere Sägezahnkarriere sprechen.

BACKCHANNELS: DATENFLUSSSTEUERUNG
IN DER LINGUISTIK

Ein Blick auf die Datenflusssteuerung in Netzwerken zeigt, dass die Upstream-
ACK-Signale nicht nur erfolgreiche Datenübertragungen bestätigen, sondern
auch der gesamten Interaktion, ihrer Geschwindigkeit und Kadenz Form geben.
Das erinnert uns daran, wie wichtig das Feedback für die Kommunikation ist,
und liefert uns zugleich neue Erkenntnisse darüber. Wie wir gesehen haben,

272
Backchannels: Datenflusssteuerung in der Linguistik

gibt es im TCP-Protokoll keine Übertragung in eine Richtung: Ohne ständiges


Feedback wird der Sender fast augenblicklich die Datenübermittlung drosseln.
Bemerkenswert ist, dass das wachsende Bewusstsein für die unverzicht-
bare Funktion des Feedbacks in der Vernetzung einer beinahe identischen und
gleichzeitigen Entwicklung auf dem Gebiet der Linguistik entspricht. Mitte des
20. Jahrhunderts dominierten die Theorien Noam Chomskys die Linguistik.
Chomsky betrachtet die Sprache in ihrem vollkommensten und idealen Zustand –
vollkommen fließende, grammatisch korrekte, ununterbrochene Sätze, so als wäre
jegliche Kommunikation ein geschriebener Text.491 Aber in den Sechziger- und
Siebzigerjahren erwachte ein neues Interesse an den praktischen Aspekten der
gesprochenen Sprache, und es zeigte sich, wie komplex und subtil die Vorgänge
sind, die Sprecherwechsel, Unterbrechungen und die improvisierte Komposition
eines Satzes oder einer Erzählung kennzeichnen, während der Sprecher ständig
auf die Reaktionen des Zuhörers achtet. Es setzte sich die Erkenntnis durch, dass
sogar eine offenkundig unidirektionale Kommunikation ein kooperativer Vorgang
ist. Wie der Linguist Victor Yngve im Jahr 1970 schrieb: »Tatsächlich sind sowohl
die Person, die das Wort hat, als auch ihr Gesprächspartner gleichzeitig sowohl
Sprecher als auch Zuhörer. Der Grund dafür ist, dass es etwas gibt, was ich als
den Rückkanal bezeichne, in dem die Person, die am Wort ist, kurze Botschaften
wie ›Ja‹ und ›Mhm‹ empfängt, ohne das Wort abzugeben.«492
Die Untersuchung menschlicher »Rückkanäle« erschloss ein ganz neues Be-
tätigungsfeld für die Linguistik und führte zu einer umfassenden Neubewertung
der Dynamik der Kommunikation und insbesondere der Rolle des Zuhörers. In
einer aufschlussreichen Studie ging ein von Janet Bavelas geleitetes Team an der
University of Victoria der Frage nach, was geschieht, wenn jemand, der einer
persönlichen Geschichte zuhört, abgelenkt wird – nicht, wie sich die Ablenkung
auf das Verständnis des Zuhörers auswirkt, sondern wie sie sich auf die Geschichte
auswirkt. Die Forscher entdeckten, dass die Erzählung ohne angemessenes
Feedback auseinanderfällt.
»Personen, die abgelenkten Zuhörern ein dramatisches Ereignis schilderten,
[…] erzählten die Geschichte insgesamt schlecht und scheiterten insbesondere an
der Vermittlung des dramatischen Schlusses. Ihre Erzählungen endeten abrupt
oder unvollständig, oder sie drehten sich im Kreis und erzählten das Ende der
Geschichte mehr als einmal; und oft rechtfertigten sie ihre Geschichte, indem
sie die leicht erkennbare Dramatik zusätzlich erklärten.«493

273
Vernetzung

Jeder weiß, wie es ist, mit jemandem zu sprechen, dessen Blick abschweift –
zum Beispiel zu seinem Handy –, und sich zu fragen, ob es daran liegt, dass man
schlecht erzählt. Tatsächlich ist mittlerweile klar, dass Ursache und Wirkung oft
umgekehrt sind: Ein schlechter Zuhörer zerstört die Erzählung.
Die exakte Funktion der menschlichen Rückkanäle wird noch erforscht.
Beispielsweise konnten Jackson Tolins und Jean Fox Tree von der University of
California in Santa Cruz im Jahr 2014 nachweisen, dass die unauffälligen »Ahas«,
»Jas«, »Mhms« und »Ohs«, die eine Schilderung begleiten, eine wichtige Funktion
in der Regulierung des Informationsflusses vom Sprecher zum Zuhörer erfüllen,
und das betrifft sowohl ihre Häufigkeit als auch ihre Präzision. Tatsächlich sind
sie genauso wichtig wie die ACK-Bestätigungen im TCP-Protokoll.494 Tolins
erklärt: »Es mag sein, dass manche Leute schlechter erzählen als andere, aber
einen Teil der Schuld an ›schlechtem Geschichtenerzählen‹ dürften die Zuhörer
tragen.«495 Diese Erkenntnis hat bei Tolins die unerwartete Nebenwirkung gehabt,
den Druck ein wenig zu verringern, wenn er Vorträge hält – darunter natürlich
auch Vorträge über eben dieses Ergebnis. »Wann immer ich über den Rückkanal
spreche«, erklärt er im Scherz, »warne ich meine Zuhörer, dass sich ihre Re-
aktionen auf meinen Vortrag darauf auswirken werden, was ich sage, weshalb sie
für die Qualität meines Vortrags verantwortlich sind.«

BUFFERBLOAT: ES IST DIE LATENZ, DUMMKOPF

Die Entwicklung eines effektiven Warteschlangenmanagements wird


durch Missverständnisse bezüglich der Natur und der Ursachen von
Warteschlangen behindert.
Kathleen Nichols und Van Jacobson496

Im Sommer 2010 musste sich Jim Gettys wie viele Eltern häufige Klagen seiner
Kinder über das langsame W-Lan WLA-Netz in seinem Haus anhören. Doch
im Unterschied zu den meisten Eltern hatte Gettys für HP, Alcatel-Lucent,
das World Wide Web Consortium und die Internet Engineering Task Force
gearbeitet. Er hatte im Jahr 1999 die HTTP-Spezifikation verfasst, die noch
heute verwendet wird.497 Während sich die meisten technisch versierten Väter das
Problem angeschaut hätten, ging Gettys dem Problem auf den Grund.

274
Bufferbloat: Es ist die Latenz, Dummkopf

Vor einer Versammlung von Google-Ingenieuren gab Gettys eine Erklärung,


in der an die Stelle des Networking-Jargons eine klare Überzeugung trat:
»Ich schickte die alten X Consortium-Ordner über einen zehn Millisekunden
langen Weg von meinem Haus ans MIT. […] SmokePink meldete durchschnitt-
liche Latenzen von deutlich mehr als einer Sekunde sowie einen massiven Paket-
verlust, während ich einfach eine Datei kopierte. […] Ich nahm Wireshark, und
dann kam es zu diesen Ausbrüchen von wirklich seltsamem Verhalten. […] Es
sah anders aus als jeder TCP-Sägezahn, den ich erwartet hätte. Es hätte nie so
aussehen dürfen.«498
Er wollte also sagen, dass er etwas … sehr Sonderbares gesehen hatte. Wie
es so schön heißt: »Der aufregendste Satz, den man in der Wissenschaft hören
kann, der Ausruf, der neue Entdeckungen ankündigt, ist nicht ›Heureka!‹, sondern
›Das ist sonderbar!‹«499
Anfangs dachte Gettys, dass mit seinem Kabelmodem etwas nicht stimmte.
Was seine Familie als Problem im Internet bezeichnete, schien ein Verkehrsstau
im hauseigenen Anschluss zu sein. Die nach Boston geschickten Datenpakete
blieben nicht auf halbem Weg stecken, sondern noch innerhalb der vier Wände
der Familie Gettys.
Je genauer Gettys das Problem studierte, desto größer wurde seine Sorge.
Das Problem betraf nicht nur seinen Router und sein Modem, sondern jeden
Heimrouter und jedes Modem. Und es war nicht auf Networking-Ausrüstung
beschränkt – es betraf die Computer selbst, die Desktops, Notebooks, Tablets
und Smartphones mit ihren Linux-, Windows- und OS X-Betriebssystemen. Es
betraf auch nicht nur die Hardware der Endbenutzer, sondern die gesamte Infra-
struktur des Internets. Gettys setzte sich mit Experten von Comcast, Verizon,
Cisco und Google zusammen, darunter Van Jacobson und Vint Cerf, und begann,
das Puzzle langsam zusammenzusetzen.
Das Problem war überall. Und das Problem war der Bufferbloat.
Ein Puffer ist im Grunde eine Warteschlange, deren Funktion darin besteht,
die Bursts abzufedern. Wenn Sie eine Konditorei gleichzeitig mit einem anderen
Kunden betreten, kann die momentan überlastete Angestellte unmöglich einen
von Ihnen auffordern, den Laden zu verlassen und später wiederzukommen. Das
würden die Kunden nicht akzeptieren. Dasselbe gilt für das Management: Ein
solches Vorgehen wäre praktisch eine Garantie dafür, dass die Arbeitskraft der An-
gestellten nicht richtig genutzt wird. Dadurch, dass sich die Kunden in einer Warte-

275
Vernetzung

schlange anstellen müssen, wird gewährleistet, dass der durchschnittliche Durchsatz


der Konditorei dem maximalen Durchsatz nahe kommt. Und das ist gut so.
Die bessere Ressourcennutzung geht jedoch mit sehr realen Kosten in Form
von Verzögerungen einher. Einmal besuchte Tom mit seiner Tochter das Cinco-
de-May-Festival in Berkeley, wo das Mädchen unbedingt eine Schokoladen-
Bananen-Crêpe wollte, weshalb sich die beiden in der Warteschlange vor dem
Crêpe-Stand anstellten. Nach zwanzig Minuten erreichte Tom schließlich die
Spitze der Schlange und gab seine Bestellung auf. Aber nachdem er bezahlt hatte,
mussten die beiden noch einmal vierzig Minuten warten, bis die Crêpe fertig war.
(Wie Jim Gettys musste auch Tom rasch eine große Menge an Beschwerden der
Familie bewältigen. Wie sich herausstellte, dauerte die Bestellung weniger lange
als die Zubereitung der Crêpes, weshalb die Warteschlange vor dem Bestellschalter
lediglich der erste Teil des Problems war. Aber dieses Problem war wenigstens
sichtbar: Die Kunden wussten, was sie erwartete. Die zweite und sehr viel längere
Warteschlange war unsichtbar. Daher wäre es in diesem Fall sehr viel angenehmer
für alle Beteiligten gewesen, hätten die Betreiber des Crêpe-Stands einfach an
irgendeinem Punkt die Schlange unterbrochen und ein Schild mit der Mitteilung
aufgestellt, dass eine Weile keine Bestellungen aufgenommen würden. Hier wäre
es für einen Teil der Kunden besser gewesen, hätte man sie weggeschickt – ob sie
nun einige Zeit später in einer kürzeren Warteschlange am Crêpe-Stand landeten
oder woanders hingingen. Und der Crêpe-Stand hätte keinerlei Umsatzeinbußen
erlitten, denn er konnte unabhängig davon, wie lange die Kunden warteten, ja nur
so viele Crêpes verkaufen, wie er im Lauf des Tages zubereiten konnte.
Genau dieses Phänomen beobachtete Jim Gettys auch beim Modem in seinem
Haus. Da er eine Datei hochlud, schickte sein Computer so viele Upstream-Pakete
an das Modem, wie dieses bewältigen konnte. Und das Modem tat so, als könnte
es ein sehr viel größeres Datenaufkommen bewältigen als tatsächlich möglich;
es lehnte kein Paket ab, sondern ließ zu, dass sich eine riesige Warteschlange
aufstaute. Als Gettys versuchte, gleichzeitig etwas aus dem Netz herunterzu-
laden – indem er eine Webseite besuchte oder seine E-Mail kontrollierte – blieben
seine ACK-Pakete hinter den hochgeladenen Daten stecken und mussten in der
Schlange warten, um das Haus verlassen zu können. Da diese ACK-Bestätigungen
eine Ewigkeit brauchten, um zu den Web- und E-Mail-Servern zurückzukehren,
drosselten die Server ihrerseits ihre Downstream-Geschwindigkeit auf ein ent-
sprechendes Schneckentempo.

276
Bufferbloat: Es ist die Latenz, Dummkopf

Es war, als versuchte man, sich mit jemandem zu unterhalten, und jedes Mal,
wenn man »aha« sagt, wird diese Botschaft um 10 oder 20 Sekunden verzögert.
Nun wird der Sprecher in der Annahme, dass man ihn nicht versteht, sehr viel
langsamer sprechen – und man kann nichts dagegen tun.
Wenn sich ein Netzwerkpuffer füllt, geschieht normalerweise das, was als
Taildrop bezeichnet wird: Das Ende wird »fallengelassen«, was eine einfache
Art ist zu sagen, dass dann, wenn der Puffer voll ist, jedes weitere Paket einfach
abgelehnt und de facto gelöscht wird. (Neue Kunden wegzuschicken, sobald
die Schlange am Crêpe-Stand zu lang wird, wäre eine Version des Taildrop-
Algorithmus im menschlichen Alltag.) Da für die Paketvermittlung die Post-
metapher verwendet wird, kann dies ein wenig sonderbar wirken: Wie wäre
es, wenn ein Bote jedes Paket, das am Morgen nicht in den Lieferwagen passt,
einfach wegwürfe? Aber ein Computer bemerkt genau dadurch, dass Pakete
»weggeworfen« werden, dass die Ankunft eines seiner Pakete nicht bestätigt
wurde, was den AIMD-Algorithmus dazu veranlasst, die Bandbreite zu halbieren.
Das Wegwerfen von Datenpaketen ist der wichtigste Feedbackmechanismus im
Internet. Ein zu großer Puffer – ein Restaurant, das jede Bestellung annimmt,
selbst wenn die Küche sie unmöglich bewältigen kann, ein Modem, das jedes
hereinkommende Datenpaket annimmt, egal, wie lange es dauern wird, es weiter-
zuleiten – verhindert, dass dieser Drosselungsmechanismus richtig funktioniert.
Puffer stützen sich auf die Verzögerung – im Networking als »Latenz« be-
zeichnet –, um den Durchsatz zu maximieren. Das bedeutet, dass sie Pakete (oder
Kunden) dazu veranlassen, solange zu warten, bis zu einem späteren Zeitpunkt
wieder Ressourcen frei werden. Aber ein Puffer, der ständig voll ist, gibt uns das
Schlechteste beider Welten: die ganze Latenz und nichts von der Elastizität. Die
Glättung der Bursts ist wunderbar, wenn wir die Dinge im Durchschnitt genauso
schnell erledigen, wie sie eintreffen – aber wenn unsere durchschnittliche Arbeits-
last unsere durchschnittliche Arbeitsleistung übersteigt, ist jeder Puffer bald
überfordert. Und je größer der Puffer ist, desto weiter werden wir zurückfallen,
bevor wir um Hilfe bitten. Eines der zentralen Prinzipien des Puffers, sei es nun
eines Puffers für Datenpakete oder Restaurantgäste, lautet, dass er nur richtig
funktionieren kann, wenn er regelmäßig geleert wird.500
Speicherplatz war jahrzehntelang so teuer, dass es einfach keinen Grund gab,
Modems mit Unmengen an unnötiger Speicherkapazität zu bauen. Daher hatte ein
Modem einfach keine Möglichkeit, eine Warteschlange aufzubauen, die zu lang

277
Vernetzung

war, um sie bewältigen zu können. Aber als die wachsenden Größenvorteile in


der Computerindustrie die Kosten von Speicherplatz deutlich senkten, begannen
die Modemhersteller, ihre Geräte mit Speichermodulen mit Gigabyte an RAM
auszustatten, weil dies praktisch die kleinsten verfügbaren RAM-Speicher waren.
Die Folge war, dass die allgegenwärtigen Puffer in Modems, Routern, Notebooks,
Smartphones und der Internetinfrastruktur Tausende Male zu groß wurden, bevor
Leute wie Jim Gettys die Alarmglocke läuteten.

BESSER NIE ALS SPÄT

Nehmen wir das grundlegende Problem, das Sie als einzelner Mensch
haben können … jemand mag Sie, aber Sie mögen diese Personen
nicht. Das kann unangenehme Situationen heraufbeschwören. Sie
müssen sich mit dieser Person unterhalten, was peinlich ist. Was
können Sie tun? Jemand mag Sie, aber Sie mögen ihn nicht? Sie tun
einfach so, als wären Sie beschäftigt … und zwar für immer.
Aziz Ansari

Jetzt ist besser als nie.


Aber nie ist oft besser als genau jetzt.
The Zen of Python

Die Sängerin Katy Perry hat 107 Prozent mehr Twitter-Follower als ihr Heimat-
staat Kalifornien Einwohner.501 Sie ist die Person mit den meisten Followern auf
Twitter und hatte Anfang des Jahres 2016 rund 84,2 Millionen Anhänger. Das
bedeutet, dass Perry selbst dann, wenn ihr 99 Prozent ihrer Fans nie eine Bot-
schaft schicken – und selbst dann, wenn dieses 1 Prozent ihrer ergebensten Fans
ihr nur einmal im Jahr eine Botschaft schickt – immer noch 2225 Botschaften
am Tag erhält. An jedem einzelnen Tag des Jahres.
Nehmen wir an, Perry wäre fest entschlossen, jede Fanbotschaft in der Reihen-
folge des Eintreffens zu beantworten. Könnte sie jeden Tag 100 Botschaften be-
antworten, so würde die zu erwartende Wartezeit auf eine Antwort der Sängerin
bald in Jahrzehnten gemessen. Wir dürfen annehmen, dass die meisten ihrer Fans
eine verschwindend geringe Chance auf eine sofortige Antwort der Sängerin einer
garantierten Antwort in zehn oder zwanzig Jahren vorziehen werden.

278
Besser nie als spät

Zu beachten ist, dass Perry dieses Problem nicht hat, wenn sie eine Konzert-
halle verlässt und sich einen Weg durch eine Schar von Fans bahnen muss, die
auf ein Autogramm oder ein paar freundliche Worte von ihr hoffen. Perry erfüllt
so viele Autogrammwünsche wie möglich, geht weiter, und die verlorenen Ge-
legenheiten lösen sich in Wohlgefallen auf. Der Körper hat seine eigene Daten-
flusssteuerung. Wir können nicht an mehreren Orten gleichzeitig sein. Bei einer
Party, bei der ein großes Gedränge herrscht, nehmen wir unvermeidlich an
weniger als 5 Prozent der Unterhaltungen teil, und die übrigen können wir nicht
rekapitulieren. Photonen, die nicht auf die Retina treffen, werden nicht für eine
spätere Betrachtung in eine Warteschleife geschickt. Im wirklichen Leben ist der
Paketverlust beinahe total.
Im Englischen gibt es die Redewendung »to drop the ball«, die soviel be-
deutet wie »Mist bauen« und fast ausschließlich derogativ verwendet wird, um
anzudeuten, dass derjenige, der den Ball hat fallen lassen, faul, nachlässig oder
vergesslich ist. Aber es gibt auch ein taktisches Ballfallenlassen, das unverzichtbar
ist, um trotz Überlastung Aufgaben zu bewältigen.
Die moderne Kommunikation wird vor allem deshalb kritisiert, weil wir
heute »ständig online« sind. Aber das Problem ist nicht, dass wir immer online
sind, denn das stimmt nicht. Das Problem ist, dass wir ständig Dinge im Puffer
ablegen. Das sind zwei ganz verschiedene Dinge.
Das Gefühl, alles im Internet anschauen, alle möglichen Bücher lesen oder
alle möglichen Shows sehen zu müssen, ist nichts anderes als Bufferbloat. Wir
verpassen eine Episode unserer Lieblingsserie und sehen sie uns eine Stunde,
einen Tag, ein Jahrzehnt später an. Wir fahren in Urlaub und finden bei unserer
Heimkehr einen Berg Post vor. Früher klingelten die Leute an unserer Tür und
gingen wieder, wenn wir nicht öffneten. Heute warten sie im Grunde in einer
Schlange, wenn wir heimkommen.
Die E-Mail wurde gezielt dafür konzipiert, den Taildrop zu überwinden. Ihr
Erfinder Ray Tomlinson erklärt:
»Damals gab es eigentlich keine gute Methode, um jemandem eine Nach-
richt zu hinterlassen. Das Telefon erfüllte die Funktion bis zu einem gewissen
Punkt, aber es musste jemand anwesend sein, um den Anruf entgegenzunehmen.
Wenn die Person, mit der man sprechen wollte, abwesend war, hinterließ man
die Nachricht bei der Sekretärin oder auf dem Anrufbeantworter. Das war der
Mechanismus, den man anwenden musste, um eine Mitteilung an ihr Ziel zu

279
Vernetzung

bringen, weshalb alle Welt begeistert von der Idee war, Botschaften auf dem
Computer zu hinterlassen.«502
Mit anderen Worten: Wir wollten ein System, das nie einen Sender abweisen
würde, und wir bekamen es – ob das nun ein Vorteil war oder nicht. Tatsächlich
ist der Übergang von der Verbindungsvermittlung zur Paketvermittlung überall
in unserer Gesellschaft zu beobachten. Früher forderten wir eigene Kanäle für
die Kommunikation mit anderen; heute schicken wir ihnen Pakete und warten
gespannt auf Empfangsbestätigungen. Früher lehnten wir ab; heute verschieben wir.
Der häufig beklagte »Mangel an Untätigkeit«, über den wir heute lesen, ist, so
widersinnig das klingen mag, das wesentliche Merkmal des Puffers: Der Durch-
schnittsdurchsatz soll auf den Spitzendurchsatz erhöht werden. Puffer verhindern
Untätigkeit. Wir prüfen unsere E-Mail auf Reisen, im Urlaub, auf der Toilette,
mitten in der Nacht. Wir sind nie unbeschäftigt. Das ist der zweifelhafte Segen
der Puffer, die genau das tun, was wir von ihnen erwarteten.
Eine automatische Abwesenheitsnotiz teilt dem Sender mit, dass er mit einer
Latenz rechnen muss; eine bessere automatische Antwort würde ihm stattdessen
mitteilen, dass er mit einem Taildrop rechnen muss. Anstatt Sender vor über-
durchschnittlich langen Warteschlangen zu warnen, sollten wir sie vielleicht
warnen, dass alle eingehenden Nachrichten einfach abgelehnt werden.503 Und dass
muss nicht auf den Urlaub beschränkt sein: Es wäre ein E-Mail-Programm denk-
bar, das dafür eingerichtet ist, alle eingehenden Nachrichten zu löschen, sobald
sich im Posteingang hundert ungelesene Nachrichten angesammelt haben. Das
ist keine gute Lösung für den Umgang mit Rechnungen und Ähnlichem, aber es
ist ein durchaus vernünftiger Zugang zu persönlichen Einladungen.
Die Vorstellung, einen »vollen« Posteingang oder eine »volle« Voicemail vor-
zufinden, ist mittlerweile ein Anachronismus, eine Erinnerung an die Jahr-
tausendwende. Aber wenn die Netze, die unsere neumodischen Smartphones und
Computer mit ihren in der Praxis unbegrenzten Speichern miteinander verbinden,
immer noch absichtlich Datenpakete wegwerfen, wenn der Verkehr zu schnell
und wild wird, dann gibt es vielleicht Grund zu der Annahme, dass der Taildrop
nicht die bedauerliche Konsequenz eines beschränkten Speicherplatzes, sondern
eine sinnvolle Strategie ist.
Was den Bufferbloat in Netzwerken anbelangt, so ist die gegenwärtige Ent-
wicklung komplex, aber begrüßenswert. Die Hersteller von Hardware und Be-
triebssystemen bemühen sich sehr, die Warteschlangen vollkommen neu zu ge-

280
Besser nie als spät

stalten. Es gibt auch einen Vorschlag für einen neuen Backchannel für TCP – die
erste derartige Modifikation seit vielen Jahren: Gemeint ist Explicit Congestion
Notification (ECN).504 Eine völlige Beseitigung von Bufferbloat im Internet
wird nur mit all diesen Veränderungen möglich sein und mehrere Jahre Geduld
erfordern. »Es ist ein langer Marsch durch den Sumpf«, sagt Gettys.505
Aber in einer Zukunft ohne Bufferbloat gibt es vieles, auf das wir uns freuen
können. Aufgrund ihrer inhärenten Latenz wirken sich Puffer nachteilig auf die
meisten interaktiven Prozesse aus. Wenn wir zum Beispiel über Skype telefonieren,
ist uns ein gelegentlich knackendes Signal in diesem Augenblick im Allgemeinen
lieber als eine klare Aufzeichnung der Stimme des Gesprächspartners vor drei
Sekunden. Für Anhänger von Videospielen kann bereits eine Verzögerung von 50
Millisekunden den Unterschied zwischen Töten und Sterben ausmachen; tatsäch-
lich ist das Gaming derart anfällig für Latenzen, dass alle wichtigen Wettkämpfe
immer noch persönlich ausgetragen werden: Die Spieler reisen im Flugzeug an,
um sich in einem Netzwerk, das einen einzigen Raum versorgt, miteinander zu
messen. Dasselbe gilt für alle Bereiche, in denen die Synchronität wichtig ist.
»Wenn du mit deinen Freunden Musik machen willst, und sei es in derselben
Stadt, sind Zehntelmillisekunden wichtig«, erklärt Gettys, der sich eine Vielzahl
neuer Anwendungen und Anbieter vorstellen kann, die das Potenzial niedriger
Latenzen in interaktiven Aktivitäten nutzen könnten. »Aus dieser Erfahrung
ziehe ich den allgemeinen Schluss, dass sich die Ingenieure die Zeit als Bürger
erster Klasse vorstellen sollten.«
Auch Stuart Cheshire von Apple ist der Meinung, es sei an der Zeit, dass die
Netzwerkingenieure die Latenz zu einer ihrer wichtigsten Prioritäten machen.
Er findet es inakzeptabel, dass Unternehmen, die mit »schnellen« Internet-
verbindungen werben, nur eine große Bandbreite, nicht jedoch geringe Ver-
zögerungen anbieten können. Als Analogie verweist er darauf, dass eine Boeing
737 und eine Boeing 747 beide rund 800 Stundenkilometer schnell fliegen; aber
der erste Flugzeugtyp kann nur 120 Passagiere befördern, während in einer 747
dreimal so viele Fluggäste Platz haben. »Würden wir deshalb sagen, dass eine
Boeing 747 dreimal ›schneller‹ fliegt als eine Boeing 737? Natürlich nicht.«506
Manchmal ist die Kapazität wichtig: Bei der Übertragung großer Dateien sind
wir auf eine ausreichende Bandbreite angewiesen. (Wenn Sie eine riesige Ladung
bewegen müssen, ist eine Sendung per Containerschiff möglicherweise Tausenden
Reisen mit einer Boeing 747 vorzuziehen.) Aber bei zwischenmenschlichen An-

281
Vernetzung

wendungen ist eine kurze Umschlagzeit oft sehr viel wichtiger, und hier brauchen
wir eigentlich mehr Concordes. Tatsächlich ist die Verringerung der Latenzen
eines der großen Ziele der Networking-Forschung, und wir dürfen gespannt auf
die Ergebnisse sein.
In der Zwischenzeit sind andere Schlachten zu schlagen. Gettys wendet seine
Aufmerksamkeit für eine Sekunde vom Thema ab. »Es funktioniert nicht bei
Ihnen? Ich spreche gerade mit jemandem und werde mich darum kümmern, wenn
ich fertig bin. Wir machen hier Schluss – ah, nein, der 5 Ghz-Kanal funktioniert,
der 2,4 GHz-Kanal hat sich aufgehängt. Es ist der berüchtigte Bug. Ich werde
den Router neu starten.« Das scheint der richtige Augenblick zu sein, um uns zu
verabschieden und unsere Bandbreite der Allgemeinheit zur Verfügung zu stellen,
den ungezählten, additiv wachsenden Datenflüssen.

282
11
SPIELTHEORIE
DIE GEDANKEN DER ANDEREN

Ich bin insofern Optimist, als ich glaube, dass die Menschen nobel
und ehrbar sind, und einige von ihnen sind wirklich intelligent. […]
Was Menschengruppen anbelangt, bin ich weniger zuversichtlich.
Steve Jobs507

E
in Investor verkauft eine Aktie an einen anderen. Der Erste ist überzeugt, dass
die Aktie an Wert verlieren wird, der andere ist sicher, dass ihr Kurs steigen
wird. Ich denke, ich weiß, was Sie denken, aber ich habe keine Ahnung,
was Sie glauben, dass ich denke. Eine Spekulationsblase platzt. Ein potenzieller
romantischer Partner bringt ein Geschenk mit, das weder »Ich möchte mehr als
eine Freundschaft« noch »Ich möchte nicht mehr als eine Freundschaft« sagt. Um
einen Tisch versammelte Restaurantbesucher streiten darüber, wer wen einladen
darf und warum. Jemand, der helfen möchte, beleidigt unabsichtlich die Person,
der er helfen wollte. Jemand, der sich sehr bemüht, lässig zu wirken, macht sich
lächerlich. Jemand, der sich von der Herde lösen möchte, stellt zu seiner Ver-
zweiflung fest, dass die Herde seinem Beispiel folgt. »Ich liebe dich«, sagt eine
Person zur anderen. »Ich liebe dich auch«, antwortet die andere Person – und
beide fragen sich, was genau die andere Person damit gemeint hat.
Was hat die Informatik mit alldem zu tun?
In der Schule wird den Kindern beigebracht, dass die Handlung eines
literarischen Werks einer bestimmten Kategorie zugeordnet werden kann: Mensch
gegen Natur, Mensch gegen sich selbst, Mensch gegen Mensch, Mensch gegen die

283
Spieltheorie

Gesellschaft. Bisher haben wir es in diesem Buch vor allem mit Beispielen aus den
ersten beiden Kategorien zu tun gehabt: Die Informatik hat uns Hinweise dazu
geliefert, wie wir Probleme lösen können, die der grundlegenden Struktur der Welt
und unserer beschränkten Fähigkeit zur Informationsverarbeitung entspringen.
Optimale Stoppprobleme haben ihren Ursprung in der Unumkehrbarkeit und
Unwiederbringlichkeit der Zeit, das Explore/Exploit-Dilemma im begrenzten
Vorrat an Zeit. Entspannung und Randomisierung sind unverzichtbare Strategien
für die Bewältigung der unausweichlichen Komplexität von Herausforderungen
wie Routenplanung und Impfkampagnen.
In diesem Kapitel verlagern wir unsere Aufmerksamkeit auf die beiden ver-
bleibenden Genres: Mensch gegen Mensch und Mensch gegen Gesellschaft. Wir
wenden uns also den Problemen zu, die wir uns gegenseitig verursachen. Die beste
Orientierungshilfe auf diesem Gebiet gibt uns ein Zweig der Mathematik, der als
Spieltheorie bezeichnet wird. Dieses Forschungsgebiet hatte in seiner klassischen
Form gewaltige Auswirkungen auf das 20. Jahrhundert. In den vergangenen zwei
Jahrzehnten hat die gegenseitige Befruchtung von Spieltheorie und Informatik
das Feld der algorithmischen Spieltheorie hervorgebracht, und dieses hat bereits
begonnen, sich auf das 21. Jahrhundert auszuwirken.

REKURSION

Ein cleverer Mann würde das Gift in seinen eigenen Kelch tun, in
der Annahme, dass nur ein großer Narr das nimmt, was man ihm
reicht. Ich bin kein großer Narr; also kann ich natürlich nicht den
Wein nehmen, der vor Euch steht. Aber Ihr müsstet wissen, dass
ich kein großer Narr bin. Damit habt Ihr gerechnet: Also kann ich
natürlich nicht den Wein nehmen, der vor mir steht.
Der sizilianische Räuber Vizzini in
Die Braut des Prinzen508

Der vielleicht einflussreichste Ökonom des 20. Jahrhunderts, John Maynard


Keynes, erklärte einmal: »Der erfolgreiche Investor antizipiert die Antizipation
anderer.«509 Damit eine Aktie für 60 Dollar verkauft werden kann, muss der
Käufer glauben, dass er sie später für 70 Dollar weiterverkaufen kann, und zwar
an jemanden, der glaubt, dass er sie für 80 Dollar an jemand anderen verkaufen

284
Rekursion

kann, der glaubt, dass er sie für 90 Dollar an jemand anderen verkaufen kann,
der glaubt, dass er sie für 100 Dollar an jemand anderen verkaufen kann. Der
Wert der Aktie hängt also nicht von dem Wert ab, den sie in den Augen eines
Investors hat, sondern vom Wert, den sie nach Ansicht anderer Investoren in den
Augen dieses Investors hat. Und selbst das geht noch nicht weit genutzt. Wie
Keynes es ausdrückte:
»[D]ie berufliche Investition [kann] mit jenen Zeitungswettbewerben ver-
glichen werden, bei denen die Teilnehmer die sechs hübschesten Gesichter von
hundert Lichtbildern auszuwählen haben, wobei der Preis dem Teilnehmer zu-
gesprochen wird, dessen Wahl am nächsten mit der durchschnittlichen Vorliebe
aller Teilnehmer übereinstimmt, so daß jeder Teilnehmer nicht diejenigen Ge-
sichter auszuwählen hat, die er selbst am hübschesten findet, sondern jene, von
denen er denkt, daß sie am ehesten die Vorliebe der anderen Teilnehmer gewinnen
werden, welche alle das Problem vom gleichen Gesichtspunkt aus betrachten. Es
handelt sich nicht darum, jene auszuwählen, die nach dem eigenen Urteil wirk-
lich die hübschesten sind, ja sogar nicht einmal jene, welche die durchschnittliche
Meinung wirklich als die hübschesten betrachtet. Wir haben den dritten Grad
erreicht, wo wir unsere Intelligenz der Vorwegnahme dessen widmen, was die
durchschnittliche Meinung als das Ergebnis der durchschnittlichen Meinung
erwartet. Und ich glaube, daß es sogar einige gibt, welche den vierten, fünften
und noch höhere Grade ausüben.«510
Die Informatik veranschaulicht anhand des »Halteproblems«, an welche
Grenzen diese Denkweise stößt. Wie Alan Turing im Jahr 1936 bewies, kann uns
ein Computerprogramm nie mit Gewissheit sagen, ob ein anderes Programm un-
endlich rechnen wird – es sei denn, es simuliert die Rechenvorgänge des anderen
Programms und geht damit das Risiko ein, ebenfalls in eine Sackgasse zu geraten.
(Das bedeutet auch, dass die Programmierer niemals automatisierte Werkzeuge
besitzen werden, die ihnen sagen können, ob ihre Software zum Stillstand kommen
wird.) Dies ist eine der grundlegenden Erkenntnisse der Informatik, von der viele
andere Beweise abhängen.* Einfach ausgedrückt: Wann immer ein System – sei es
eine Maschine oder ein menschlicher Verstand – die Abläufe eines Systems simuliert,

* Tatsächlich ist sie der Ursprung aller modernen Computer – es war das Halteproblem, das Turing dazu
bewegte, in der Turingmaschine Berechnungsvorschriften festzulegen. Er schlug die Turingmaschine
in »On Computable Numbers, with an Application to the Entscheidungsproblem« und in »On Com-
putable Numbers, with an Application to the Entscheidungsproblem: A Correction« vor.

285
Spieltheorie

das ebenso komplex wie es selbst ist, stellt es fest, dass seine Ressourcen mehr oder
weniger definitionsgemäß vollkommen erschöpft werden. Die Informatiker haben
einen Begriff für diese potentielle endlose Reise in ein Spiegelkabinett, in dem
ein Verstand einen Verstand simuliert, der einen Verstand simuliert: »Rekursion«.
»Beim Poker spielst du nie mit deinen eigenen Karten«, sagt James Bond in
Casino Royale. »Du spielst mit den Karten des Spielers, der dir gegenübersitzt.« In
Wahrheit spielt man eine theoretisch unendliche Rekursion. Da sind die eigenen
Karten und die Karten, die der andere Spieler unserer Meinung nach hat. Sodann
sind da die Karten, von denen wir glauben, dass der andere Spieler glaubt, dass
wir sie haben, und die Karten, von denen wir glauben, dass unser Gegner glaubt,
dass wir glauben, dass er sie hat … usw. »Ich weiß nicht, ob das tatsächlich ein
Begriff aus der Spieltheorie ist«, erklärt der Profispieler Dan Smith, »aber wir
Pokerspieler bezeichnen es als ›Leveling‹. Das Level eins ist ›Ich weiß‹. Level
zwei ist ›Du weißt, dass ich weiß‹. Level drei ist ›Ich weiß, dass du weißt, dass
ich weiß‹. Es gibt Situationen, in denen du einfach sagst: ›Jetzt wäre es wirklich
dumm von mir zu bluffen, aber wenn er weiß, dass es dumm von mir wäre zu
bluffen, dann wird er nicht sehen wollen und aussteigen, weshalb es klug wäre
zu bluffen.‹ Solche Dinge passieren tatsächlich.«511
Bei einem der berühmtesten Bluffs in der Geschichte des professionellen
Pokerspiels setzte Tom Dwan in einer Texas-Hold’em-Partie 479 500 Dollar auf
die schlimmste mögliche Hand – eine 2 und eine 7 – und sagte tatsächlich zu
seinem Gegenspieler Sammy George, dass er diese Karten habe. »Du hast keine
Zwei und Sieben«, antwortete George. »Du hast keine Zwei und Sieben.« George
schmiss hin und Dwan gewann mit einer 2 und einer 7 den Topf.512
Beim Poker ist die Rekursion ein gefährliches Spiel. Natürlich möchte man
nicht einen Schritt hinter dem Gegner herhinken, aber man darf ihm auch um
keinen Preis zu weit vorauseilen. »Es gibt die Regel, dass man nur eine Ebene
oberhalb des Gegners spielen sollte«, erklärt die professionelle Pokerspielerin
Vanessa Rousso. »Wenn du zu weit oberhalb deines Gegners spielst, wirst du
denken, dass er Information besitzt, die er in Wahrheit nicht hat – [und] er wird
aus deinem Verhalten im Spiel nicht die Information ableiten, die du ihm geben
willst.«513 Manchmal locken Pokerprofis einen Gegner gezielt in eine komplexe
Rekursion, während sie selbst einfach vollkommen folgerichtig spielen und auf
jegliche Psychologie verzichten. Die Experten sprechen in diesem Zusammen-
hang davon, dass man jemanden »in einen Leveling-Krieg mit sich selbst« treibt.

286
Das Gleichgewicht finden

(Einen Widersacher in eine sinnlose Rekursion zu locken, kann auch bei


anderen Spielen eine gute Strategie sein. Eine der spektakulärsten, bizarrsten
und faszinierendsten Episoden in der Geschichte der Schachpartien zwischen
Mensch und Computer ereignete sich in einem Blitzschachwettbewerb zwischen
dem amerikanischen Großmeister Hikaru Nakamura und dem Schachcomputer
Rybka im Jahr 2008. In einer Partie, in der jede Seite nur drei Minuten Zeit für
sämtliche Züge hatte, schien der Computer offenkundig im Vorteil zu sein: Er
konnte Millionen Positionen in einer Sekunde durchspielen und zeigte bei seinen
Zügen nicht die geringste Regung. Doch Nakamura bewegte seine Figuren rasch
in eine stabile Position und wiederholte in rascher Abfolge sinnlose Züge. Der
Computer vergeudete wertvolle Zeit mit der ergebnislosen Suche nach erfolg-
versprechenden Varianten, die nicht existierten, und versuchte beharrlich, alle
möglichen zukünftigen Züge Nakamuras vorwegzunehmen, der seinerseits nichts
anderes tat, als auf dem Schachbrett Däumchen zu drehen. Als der Computer
seine drei Minuten fast verbraucht hatte und überhastet reagierte, um nicht durch
Zeitüberschreitung zu verlieren, öffnete Nakamura seine Verteidigungsstellung
und ging zu einem siegreichen Angriff über.)
Wie befreien sich professionelle Pokerspieler in Anbetracht dieser Gefahren
aus der Rekursion? Sie greifen auf die Spieltheorie zurück. »Manchmal kannst
du Gründe für [Leveling-] Spiele finden, mit denen du einen Gewinn erzielen
kannst, aber oft wendest du nur minderwertige Taktiken an, die eigentlich nichts
anderes als Rauschen sind«, erklärt Dan Smith. »Ich bemühe mich in den meisten
Situationen wirklich sehr um ein grundlegendes theoretisches Verständnis. […]
Ich gehe immer von dem Verständnis des Nash-Gleichgewichts oder von dem
Versuch aus, es zu verstehen.«514
Aber was ist ein Nash-Gleichgewicht?

DAS GLEICHGEWICHT FINDEN

You know the rules, and so do I….


We know the game and we’re gonna play it.
Rick Astley

Die Spieltheorie umfasst ein ungeheuer breites Spektrum von Szenarien der Ko-
operation und Konfrontation, aber am Anfang beschäftigte sich die Forschung

287
Spieltheorie

mit Szenarien wie einem Pokerspiel: mit Auseinandersetzungen zwischen zwei


Spielern, in denen der Gewinn des einen der Verlust des anderen Spielers ist.
Die Mathematiker, die diese Spiele analysieren, suchen nach einem sogenannten
Gleichgewicht, das heißt nach Strategien, die beide Spieler anwenden können,
ohne dass sie gezwungen sein werden, ihr Spiel in Reaktion auf das Verhalten des
Gegners zu ändern.515 Als Gleichgewicht wird dies bezeichnet, weil die Situation
stabil ist: Weitere Überlegungen werden keinen der beiden Spieler dazu bewegen,
seine Entscheidung zu ändern. Sie sagen beide: Ich bin angesichts deiner Strategie
mit meiner eigenen zufrieden, und du bist angesichts meiner Strategie mit deiner
eigenen zufrieden.
Bei »Schere, Stein, Papier« zum Beispiel besteht die wenig aufregende Gleich-
gewichtsstrategie darin, jeweils in einem Drittel der Spielrunden vollkommen
zufällig eine der drei Gesten auszuwählen.516 Stabil ist dieses Gleichgewicht,
weil beide Spieler nichts Besseres tun können, als sich an diese Strategie zu
halten, sobald sie sich einmal dafür entschieden haben.517 (Würden wir beginnen,
häufiger Stein zu spielen, so würde unserer Gegenspieler das rasch bemerken und
seinerseits beginnen, häufiger Papier zu spielen, was uns dazu veranlassen würde,
häufiger Schere zu spielen – und das würde so lange gehen, bis wir beide wieder
zur Gleichgewichtsstrategie zurückkehren.)
Eine der bahnbrechenden Erkenntnisse der Spieltheorie veröffentlichte der
Mathematiker John Nash im Jahr 1951: Er bewies, dass es in jedem Spiel mit
zwei Spielern mindestens ein Gleichgewicht gibt.518 Für diese bedeutende Ent-
deckung wurde Nash im Jahr 1994 mit dem Wirtschaftsnobelpreis ausgezeichnet.
(Seine Lebensgeschichte wurde später in dem Buch A Beautiful Mind erzählt,
das auch verfilmt wurde.) Ein solches Gleichgewicht wird heute oft als »Nash-
Gleichgewicht« bezeichnet, und Dan Smith hält immer Ausschau danach.
Auf den ersten Blick scheint die Tatsache, dass es in Spielen mit zwei Teil-
nehmern immer ein Nash-Gleichgewicht gibt,519 Abhilfe von den Rekursionen
im Spiegelkabinett zu ermöglichen, die für Poker und viele andere vertraute
Wettbewerbsspiele charakteristisch sind. Wenn wir das Gefühl haben, in die
Falle der Rekursion zu gehen, haben wir immer noch die Möglichkeit, uns von
der Beschäftigung mit den Gedanken unseres Gegenspielers zu lösen und nach
dem Gleichgewicht Ausschau zu halten, direkt die beste Strategie zu wählen und
rational zu spielen. Bei »Schere, Stein, Papier« beispielsweise lohnt es sich mög-
licherweise nicht, in der Mimik des Gegners nach Hinweisen darauf zu suchen,

288
Das Gleichgewicht finden

wenn man weiß, dass die langfristig unschlagbare Strategie darin besteht, in jeder
Runde einfach willkürlich eine der drei Optionen zu wählen.
Generell ermöglicht das Nash-Gleichgewicht eine Vorhersage des stabilen
langfristigen Ergebnisses der Anwendung beliebiger Regeln oder Anreize. Als
solches stellt es ein unverzichtbares Werkzeug dar, um die Wirtschaftspolitik und
jegliche Gesellschaftspolitik zu prognostizieren und zu gestalten. Wie der Öko-
nom und Nobelpreisträger Roger Myerson erklärt, hat das Nash-Gleichgewicht
»grundlegende und umfassende Auswirkungen auf die Wirtschafts- und Sozial-
wissenschaften gehabt, vergleichbar mit dem Einf luss der Entdeckung der
DNA-Doppelhelix auf die biologischen Wissenschaften.«520
Doch die Informatik hat diese Geschichte komplizierter gemacht. Ganz allgemein
ist der Untersuchungsgegenstand der Mathematik die Wahrheit, während der Gegen-
stand der Informatik die Komplexität ist. Wie wir gesehen haben, genügt es nicht zu
wissen, dass ein Problem eine Lösung hat, wenn das Problem schwer handhabbar ist.
Im Kontext der Spieltheorie verrät uns das Wissen, dass ein Gleichgewicht
existiert, nicht, worin dieses Gleichgewicht besteht oder wie wir es herstellen
können. Der Informatiker Christos Papadimitriou von der Universität Berkeley
erklärt, dass die Spieltheorie »das Gleichgewichtsverhalten der Akteure typischer-
weise ungeachtet dessen vorhersagt, wie dieser Zustand erreicht wird – aber
genau das interessiert den Informatiker am meisten.«521 Tim Roughgarden von
der Universität Standford ist ebenfalls unzufrieden mit Nashs Beweis, dass es
immer ein Gleichgewicht gibt. »Schön und gut«, sagt er, »aber wir sind schließlich
Informatiker. Gebt uns etwas, das wir verwenden können. Sagt mir nicht nur, dass
es da ist – sagt mir, wie ich es finden kann.«522 Daher brachte das ursprüngliche
Gebiet der Spieltheorie die algorithmische Spieltheorie hervor: Das Studium
theoretisch idealer Strategien für Spiele verwandelte sich in die Erforschung der
Frage, wie Maschinen (und Menschen) Strategien für Spiele entwickeln.
Wie sich herausstellt, stößt man rasch auf Berechnungsschwierigkeiten, wenn
man zu viele Fragen über Nash-Gleichgewichte stellt. Ende des 20. Jahrhunderts
wurde bewiesen, dass Fragen wie die, ob es in einem Spiel mehr als eine Gleich-
gewichtsstrategie gibt, welches Gleichgewicht einem Spieler einen bestimmten
Ertrag sichert oder ob ein Gleichgewicht ein bestimmtes Vorgehen erfordert,
schwer handhabbar sind.523 Dann bewiesen Papadimitriou und seine Kollegen
in den Jahren 2005 bis 2008, dass es bereits ein schwer handhabbares Problem
ist, Nash-Gleichgewichte überhaupt zu finden.524

289
Spieltheorie

In einfachen Spielen wie »Schere, Stein, Papier« mag das Gleichgewicht auf
einen Blick erkennbar sein, aber mittlerweile wissen wir, dass wir in Spielen mit
realer Komplexität nicht annehmen dürfen, dass alle Teilnehmer in der Lage sein
werden, das Gleichgewicht zu entdecken oder zu erreichen. Das wiederum be-
deutet, dass derjenige, der das Spiel entwirft, das Gleichgewicht nicht zwangsläufig
verwenden kann, um das Verhalten der Spieler vorherzusagen. Dieses ernüchternde
Ergebnis hat weitreichende Auswirkungen: Die Nash-Gleichgewichte nehmen
einen festen Platz in der Wirtschaftstheorie ein und werden zur Modellierung
und Vorhersage des Marktverhaltens herangezogen. Doch diesen Platz haben sie
möglicherweise nicht verdient. Wie Papadimitriou erklärt: »Wenn ein Gleich-
gewichtskonzept nicht effizient berechnet werden kann, verliert es einen Großteil
seiner Glaubwürdigkeit als Instrument zur Vorhersage des Verhaltens rationaler
Akteure.«525 Scott Aaronson vom MIT teilt diese Einschätzung: »Wenn das
Theorem, dass die Nash-Gleichgewichte existieren, zum Beispiel als relevant für
die Debatte über die Vorzüge einer freien Marktwirtschaft oder einer staatlichen
Wirtschaftslenkung betrachtet wird, sollte das Theorem, dass die Bestimmung
dieser Gleichgewichte schwer handhabbar ist, meiner Meinung nach ebenfalls als
relevant betrachtet werden.«526 Die Nash-Gleichgewichte eignen sich nur dann zur
Vorhersage, wenn die Akteure diese Gleichgewichte tatsächlich finden können.
Um Kamal Jain, den ehemaligen Forschungsleiter von eBay, zu zitieren: »Wenn
dein Notebook es nicht finden kann, kann es der Markt auch nicht finden.«527

DOMINANTE STRATEGIEN, WOHL ODER ÜBEL

Selbst wenn wir ein Gleichgewicht herstellen können, ist es nicht gut, nur weil es
stabil ist. Es mag paradox scheinen, aber die Gleichgewichtsstrategie, in der kein
Spieler bereit ist, sein Vorgehen zu ändern, ist keineswegs zwangsläufig auch die
Strategie, die zum besten möglichen Ergebnis für die Spieler führt. Nirgendwo
sieht man das besser als im berühmtesten, provokantesten und umstrittensten
Zwei-Teilnehmer-Spiel der Spieltheorie: dem »Gefangenendilemma«.528
Das Gefangenendilemma sieht so aus: Angenommen, Sie haben gemeinsam
mit einem Komplizen eine Bank ausgeraubt und sind erwischt worden. Jetzt sitzen
Sie in getrennten Zellen. Sie müssen entscheiden, ob Sie miteinander »kooperieren«
wollen – indem Sie schweigen und nichts gestehen – oder »abtrünnig« werden und

290
Dominante Strategien, wohl oder übel

den Komplizen belasten. Wenn Sie zusammenhalten und beide schweigen, hat
die Polizei nicht genug Beweise, um einen von Ihnen vor Gericht zu bringen. In
diesem Fall wird die Polizei Sie auf freien Fuß setzen müssen, weshalb Sie sich die
Beute von 1 Million Dollar teilen können. Wenn hingegen einer von Ihnen den
anderen verrät und dieser schweigt, wird der Geständige freigelassen und kann
die Million für sich behalten, während der Komplize, der geschwiegen hat, als
Einzeltäter verurteilt und zu einer zehnjährigen Haftstrafe verurteilt werden wird.
Wenn Sie beide »singen«, werden Sie jeweils für fünf Jahre im Gefängnis landen.
Das Problem ist: Egal, was Ihr Komplize tut, für Sie ist es in jedem Fall
besser, ihn zu verraten.
Wenn Ihr Komplize Sie belastet, werden Sie dadurch, dass Sie ihn ebenfalls
verraten, nicht für zehn, sondern nur für fünf Jahre ins Gefängnis wandern. Und
wenn Ihr Komplize schweigt, sie jedoch »singen«, können Sie die gesamte Beute
von 1 Million Dollar für sich allein behalten. Egal, was Ihr Komplize tut, Sie
werden vom Verrat in jedem Fall mehr profitieren als von der Kooperation. Jede
andere Entscheidung wird Ihre Lage verschlechtern.
Dadurch wird die Abtrünnigkeit nicht nur zur Gleichgewichtsstrategie,
sondern auch zur dominanten Strategie. Eine dominante Strategie vermeidet
jegliche Rekursion, da sie die beste Antwort auf alle möglichen Strategien der
Gegenseite ist; es ist also nicht nötig zu versuchen, die Gedanken des anderen
nachzuvollziehen. Eine dominante Strategie ist ungemein wirksam.
Aber nun kommen wir zum Paradox. Wenn Sie und Ihr Komplize rational
handeln und die dominante Strategie verfolgen, endet die Geschichte damit, dass
Sie beide für fünf Jahre ins Gefängnis müssen – was für beide sehr viel schlechter
ist als Freiheit und eine halbe Million Dollar pro Nase. Wie konnte das passieren?
Dies ist eine der bedeutsamsten Erkenntnisse der traditionellen Spieltheorie:
Die Gleichgewichtsstrategie für eine Gruppe von Spielern, die allesamt rational
in ihrem eigenen Interesse handeln, ist möglicherweise nicht das beste Ergebnis
für die individuellen Spieler.
Die algorithmische Spieltheorie hat diese Erkenntnisse gestützt auf die
Prinzipien der Informatik quantifiziert und einen Maßstab entwickelt, der als
»Preis der Anarchie« bezeichnet wird. Der Preis der Anarchie entspricht der Lücke
zwischen Kooperation (einer zentral entwickelten oder koordinierten Lösung)
und Konkurrenz (bei der alle Teilnehmer unabhängig voneinander versuchen, das
für sie beste Ergebnis zu erzielen). In einem Spiel wie dem Gefangenendilemma

291
Spieltheorie

ist dieser Preis tatsächlich unendlich hoch: Durch Erhöhung des Geldbetrags
und Verlängerung der Haftstrafen kann die Lücke zwischen den möglichen Er-
gebnissen willkürlich vergrößert werden, während der Ertrag der dominanten
Strategie unverändert bleibt. Es gibt keine Grenze dafür, wie schmerzhaft es für
die Spieler werden kann, sich nicht miteinander zu koordinieren. Aber wie die
algorithmischen Spieltheoretiker entdeckt haben, ist der Preis der Anarchie in
anderen Spielen nicht annähernd so hoch.
Nehmen wir beispielsweise den Verkehr. Ob es sich nun um individuelle
Pendler handelt, die sich jeden Tag durch den Stau quälen, oder um Router,
die TCP-Pakete durch das Internet schleusen: jeder Teilnehmer am System ist
lediglich an der für ihn persönlich besten Lösung interessiert. Autofahrer wollen
einfach die schnellste Route finden, und Router wollen einfach ihre Pakete mit
minimalem Aufwand weiterbefördern – aber in beiden Fällen kann dies zu einem
übermäßigen Verkehr auf wichtigen Verbindungsstrecken führen, was Staus zur
Folge hat, die dem gesamten System schaden. Aber wie groß ist der Schaden? Tim
Roughgarden und Éva Tardos von der Cornell University wiesen im Jahr 2002
nach, dass der Preis der Anarchie beim »eigennützigen Routing« überraschender-
weise lediglich bei 4/3 liegt. Das bedeutet, dass freie Bahn für alle nur 33 Prozent
schlechter ist als eine perfekte Koordinierung.529
Die Ergebnisse von Roughgarden und Tardos haben große Bedeutung sowohl
für die Stadtplanung als auch für die Gestaltung von Netzinfrastrukturen. Der
geringe Preis der Anarchie, der mit einer eigennützigen Routenwahl einhergeht,
könnte zum Beispiel erklären, warum das Internet so gut funktioniert, ohne dass
eine zentrale Instanz die Vermittlung der einzelnen Pakete steuert. Selbst wenn
eine solche Koordinierung möglich wäre, würde sie nicht viel bringen.
Was den Straßenverkehr anbelangt, so ist der niedrige Preis der Anarchie ein
zweischneidiges Schwert. Positiv ist, dass der Mangel an zentraler Koordinierung
die Pendelfahrten um maximal 33 Prozent schlimmer macht. Aber für all jene,
die hoffen, dass vernetzte selbstfahrende Autos die Verwirklichung einer schönen
Verkehrsutopie ermöglichen werden, dürfte es desillusionierend sein zu erfahren,
dass sich die heutigen eigennützigen, unkoordinierten Fahrer bereits einiger-
maßen optimal durch den Verkehr bewegen. Zwar dürften autonome Fahrzeuge
die Zahl der Verkehrsunfälle verringern und könnten vermutlich mit geringeren
Abständen zueinander fahren, was beides den Verkehr beschleunigen würde.
Aber was die Verkehrsstaus anbelangt, ist die Tatsache, dass die Anarchie nur zu

292
Die Tragik der Allmende

4/3 der Staus führt, die auch bei perfekter Koordinierung unvermeidlich wären,
bedeutet, dass perfekt koordinierte Pendlerfahrten immer noch 3/4 so viel unter
Staus leiden werden wie heute. Das erinnert an das berühmte Bonmot von James
Branch Cabell: »Der Optimist behauptet, dass wir in der besten möglichen Welt
leben; der Pessimist befürchtet, dass es tatsächlich so ist.«530 Verkehrsstaus werden
immer ein Problem sein, das Planer und die Nachfrage eher lösen können als die
Entscheidungen einzelner Fahrer, seien diese nun Menschen oder Computer, und
seien sie nun eigennützig oder kooperativ.
Die Quantifizierung des Preises der Anarchie hat es ermöglicht, die Vor- und
Nachteile dezentralisierter Systeme konkret und rigoros zu beurteilen, und das
wirkt sich auf verschiedenste Bereiche aus, in denen Menschen an Spielen be-
teiligt sind (ob sie es nun wissen oder nicht). Ein niedriger Preis der Anarchie
bedeutet, dass das System, wenn es sich selbst überlassen wird, etwa genauso gut
funktioniert wie mit einem sorgfältigen Management, ob das nun erfreulich ist
oder nicht. Ein hoher Preis der Anarchie hingegen bedeutet, dass das Potenzial
für eine deutliche Verbesserung durch sorgfältige Koordinierung des Systems
besteht, während wir ohne Eingriffe eine Katastrophe riskieren. Das Gefangenen-
dilemma gehört offenkundig in die zweite Kategorie. Leider gilt dasselbe für viele
der wichtigsten Spiele, die die Welt spielen muss.

DIE TRAGIK DER ALLMENDE

Im Jahr 1968 weitete der Ökologe Garrett Hardin das Gefangenendilemma mit
zwei Spielern auf die Bewohner eines Dorfes aus. Hardin forderte seine Leser
auf, sich eine »Allmendeweide« vorzustellen, auf die jeder Dorfbewohner sein
Vieh treiben darf.531 Allerdings ist die Kapazität der Weide begrenzt. Theoretisch
sollten alle Mitglieder der Gemeinde nur so viele Tiere auf die Weide treiben,
dass dort noch genug Gras für die Tiere der anderen Dorfbewohner übrig bleibt.
Aber in der Praxis profitiert jeder Dorf bewohner direkt davon, dass er seine
Tiere ein bisschen mehr Allmendegras fressen lässt, während der dadurch ent-
stehende Schaden sehr gering scheint. Aber wenn jeder dieser Logik folgt und
die Allmende nur ein bisschen mehr ausbeutet, als ihm zusteht, ergibt sich ein
unheilvolles Gleichgewicht: Die Weide wird vollkommen kahl gefressen, und es
gibt für niemandes Tiere mehr Gras.

293
Spieltheorie

Hardin bezeichnete dies als »Tragik der Allmende«, und Ökonomen, Politik-
wissenschaftler und die Umweltschutzbewegung verwenden dieses Szenario, um
umfassende Probleme wie Umweltverschmutzung und Klimawandel zu beurteilen.
»Als ich ein Kind war, gab es das Problem mit dem bleihaltigen Benzin«, sagt
Avrim Blum, ein Informatiker und Spieltheoretiker von der Carnegie Mellon
University. »Das bleihaltige Benzin war vielleicht zehn Cent billiger, aber es
schadete der Umwelt. […] Wie viel schlimmer machst du persönlich die Dinge,
indem du bleihaltiges Benzin tankst, wenn es alle anderen ebenfalls tun? Nicht
viel schlimmer. Das ist das Gefangenendilemma.«532 Dasselbe gilt auf der Ebene
von Unternehmen und Staaten. Eine Zeitungsschlagzeile bringt das Problem
auf den Punkt: »Um das Klima zu stabilisieren, müsste der Großteil der fossilen
Energieträger in der Erde bleiben. Aber wessen Teil?«533 Jedes Unternehmen (und
bis zu einem gewissen Grad jedes Land) ist individuell besser dran, wenn es ein
bisschen rücksichtsloser als seine Konkurrenten ist, um sich einen Wettbewerbs-
vorteil zu verschaffen. Aber wenn sie alle ein bisschen rücksichtsloser handeln,
führt das dazu, dass die Erde verwüstet wird, und alles war umsonst: Niemand
verbessert seine wirtschaftliche Situation gegenüber der Ausgangslage.
Diese Logik ist derart allgegenwärtig, dass wir uns nicht einmal auf Fehl-
verhalten konzentrieren müssen, um zu sehen, wie sie aus dem Ruder läuft. Wir
können ebenso leicht mit einem reinen Gewissen in ein furchtbares Gleichgewicht
schlittern. Wie? Man muss sich nur die Urlaubsregelungen vieler Arbeitgeber an-
sehen. Die Arbeitszeiten in den Vereinigten Staaten zählen zu den längsten in der
Welt. Wie es im Economist heißt: »Nirgendwo ist die Arbeit mehr und die Freizeit
weniger wert.«534 Es gibt kaum Gesetze, welche die Arbeitgeber verpflichten,
ihren Mitarbeitern freie Tage zuzugestehen, und selbst wenn amerikanische
Arbeitskräfte Urlaubsanspruch haben, machen sie ihn oft nicht geltend. Eine
neuere Studie hat gezeigt, dass die durchschnittliche amerikanische Arbeitskraft
nur die Hälfte der ihr zustehenden Urlaubstage nimmt, und verblüffende 15 Pro-
zent machen überhaupt keinen Urlaub.535
Gegenwärtig wird im Großraum von San Francisco (wo die beiden Autoren
leben) versucht, diese bedauerliche Situation zu ändern und in den Urlaubs-
regelungen einen radikalen Paradigmenwechsel herbeizuführen. Doch dieser gut
gemeinte Paradigmenwechsel ist zu einem tragischen Scheitern verurteilt. Das
Vorhaben wirkt harmlos genug: Anstatt eine bestimmte Zahl von Urlaubstagen
für jeden Mitarbeiter festzulegen und anschließend die Zeit der Personalabteilung

294
Die Tragik der Allmende

zu vergeuden, um sicherzustellen, dass niemand sein Limit sprengt, sollen die


Unternehmen den Leuten einfach erlauben, unbegrenzt Urlaub zu nehmen. Die
ersten Erfahrungsberichte zeichnen ein gemischtes Bild, aber aus Sicht der Spiel-
theorie ist dieser Zugang ein Albtraum. Alle Arbeitnehmer wollen theoretisch so
viel Urlaub wie möglich nehmen. Aber sie wollen auch alle ein bisschen weniger
Urlaub nehmen als ihre Kollegen, denn sie wollen loyaler, engagierter und fleißiger
(das heißt beförderungswürdiger) auf ihren Arbeitgeber wirken. Jeder orientiert
sich an den anderen und wird ein bisschen weniger Urlaub nehmen als sie. Das
Nash-Gleichgewicht in diesem Spiel liegt bei null. Wie der Geschäftsführer des
Softwareunternehmens Travis CI, Mathias Meyer, schreibt: »Die Leute werden
zögern, Urlaub zu nehmen, da sie nicht die Person sein wollen, die die meisten
Urlaubstage nimmt. Es ist ein Wettlauf zum Tiefpunkt.«536
Hier entfaltet sich die Tragik der Allmende vollkommen. Und zwischen den
Unternehmen ist es genauso schlimm wieder innerhalb der Unternehmen. Stellen
wir uns zwei Ladeninhaber in einer Kleinstadt vor. Die beiden können wählen, ob
sie sieben Tage in der Woche öffnen oder an den Sonntagen schließen wollen, um
sich mit Familie und Freunden zu entspannen. Wenn sich beide einen Tag frei-
nehmen, werden sie ihren Marktanteil halten und unter geringerem Stress leiden.
Aber wenn sich einer von ihnen entschließt, seinen Laden an sieben Tagen in der
Woche zu öffnen, wird er zusätzliche Kundschaft anlocken. Diese Kundschaft
wird seinem Konkurrenten fehlen, was die Existenz seines Ladens bedroht. Das
Nash-Gleichgewicht besteht auch hier darin, dass beide die ganze Zeit arbeiten.
Genau dieses Problem beschwor in den Vereinigten Staaten in der Urlaubssaison
2014 eine Krise herauf, als ein Einzelhändler nach dem anderen eine miserable
Gleichgewichtsstrategie übernahm, um keine Marktanteile an Konkurrenten zu
verlieren, die den üblichen Aktionstagen nach dem Thanksgiving-Fest zuvor-
kommen wollten. »Die Läden öffnen früher als je zuvor«, berichtete die Inter­
national Business Times. Macy’s öffnete zwei Stunden früher als im Jahr davor,
und dasselbe tat Target. Kmart seinerseits öffnete an Thanksgiving um 6 Uhr
morgens und blieb 42 Stunden am Stück geöffnet.537
Was können wir als Spieler tun, wenn wir in eine solche Situation geraten – sei
es ein Gefangenendilemma mit zwei Beteiligten oder eine Allmendeklemme mit
zahlreichen Beteiligten? In gewissem Sinn können wir gar nichts tun. Die Stabili-
tät eines schlechten Gleichgewichts, die Eigenschaft, die es zu einem Gleich-
gewicht macht, wird zu etwas Schädlichem. Im Großen und Ganzen können wir

295
Spieltheorie

die dominanten Strategien nicht von innen verschieben. Aber das bedeutet nicht,
dass schlechte Gleichgewichte nicht korrigiert werden können. Es bedeutet nur,
dass wir die Lösung anderswo suchen müssen.

MECHANISMUS-DESIGN: EIN
ANDERES SPIEL SPIELEN

Hasse nicht den Spieler, hasse das Spiel.


Ice-T538

Ergreife nie wieder gegen deine Familie für irgendjemand Partei.


Nie wieder!
Der Pate539

Das Gefangenendilemma steht seit Generationen im Mittelpunkt der Debatte


und Kontroverse über die Natur der menschlichen Kooperation, aber der Spiel-
theoretiker Ken Binmore vom University College London ist der Meinung, dass
die Kontroverse zumindest teilweise in die falsche Richtung führt. In seinen
Augen ist es »vollkommen falsch, dass das Gefangenendilemma das Wesen der
menschlichen Kooperation erfasst. Es stellt im Gegenteil eine Situation dar, in
der die Kooperation so sehr erschwert wird wie nur irgend möglich.« (Binmore
liefert noch eine weitere Erkenntnis: Spiele wie das Gefangenendilemma scheinen
Immanuel Kants Argument zu widerlegen, dass die Rationalität aus dem besteht,
was er als »kategorischen Imperativ« bezeichnet, der besagt, dass man so handeln
soll, wie man sich wünscht, dass alle anderen handeln sollen. Der kategorische
Imperativ würde uns im Gefangenendilemma ein besseres Ergebnis liefern als die
Gleichgewichtsstrategie, aber dieses Ergebnis wird zwangsläufig instabil sein.)540
Wenn die Spielregeln eine schlechte Strategie erzwingen, sollten wir vielleicht
nicht versuchen, die Strategie zu ändern. Vielleicht sollten wir eher versuchen,
das Spiel zu ändern.
Damit sind wir bei einem Zweig der Spieltheorie, der als »Mechanis-
mus-Design« bezeichnet wird. Während die Spieltheorie fragt, welches Verhalten
Menschen im Rahmen bestimmter gegebener Regeln zeigen werden, geht der
Mechanismus-Design in die entgegengesetzte Richtung und fragt: Welche Regeln

296
Mechanismus-Design: Ein anderes Spiel spielen

werden das erwünschte Verhalten hervorbringen? Und wenn die Entdeckungen


der Spieltheorie – etwa die Tatsache, dass eine Gleichgewichtsstrategie rational
für jeden einzelnen Spieler und zugleich schlecht für alle Spieler sein kann –
der Intuition widersprechen, so gilt das für die Entdeckungen des Mechanis-
mus-Design noch sehr viel mehr.
Wir wollen Sie und Ihren Komplizen noch einmal in die Gefängniszelle
zurückbringen, um das Gefangenendilemma erneut zu betrachten. Aber dies-
mal wollen wir ein wesentliches Element hinzufügen: den Paten. Sie und Ihr
Kumpan sind jetzt Mitglieder eines Verbrechersyndikats, und das Oberhaupt
der Organisation hat keinen Zweifel daran gelassen, dass jeder Verräter bald mit
den Fischen schlafen wird. Diese Abwandlung der möglichen Ergebnisse des
Spiels schränkt Ihre Möglichkeiten ein, erhöht ironischerweise jedoch gleich-
zeitig die Wahrscheinlichkeit, dass die Geschichte sowohl für Sie als auch für
Ihren Komplizen gut ausgehen wird. Da die Abtrünnigkeit jetzt sehr viel weniger
verlockend ist, haben Sie beide einen starken Anreiz zur Kooperation und dürfen
beide darauf vertrauen, das Gefängnis bald als freie Männer und um eine halbe
Million Dollar reicher zu verlassen. (Natürlich abzüglich eines kleinen Betrags,
mit dem Sie Ihre Ergebenheit dem Paten gegenüber zeigen können.)
Die auf den ersten Blick widersinnige Erkenntnis ist, dass wir jedes Ergebnis –
Tod auf der einen, Steuern auf der anderen Seite – verschlechtern und dennoch
die Situation aller Beteiligten verbessern können, indem wir das Gleichgewicht
verschieben.
Im Fall der Ladeninhaber in der Kleinstadt wäre ein verbales Übereinkommen,
am Sonntag nicht zu öffnen, instabil: In dem Moment, da einer von ihnen etwas
Geld braucht, wäre er versucht, gegen die Vereinbarung zu verstoßen, womit
er die anderen dazu veranlassen würde, ebenfalls am Sonntag zu arbeiten, um
keine Marktanteile einzubüßen. Also würden sie rasch wieder in das schlechte
Gleichgewicht zurückfallen, ohne dadurch irgendeinen Wettbewerbsvorteil zu
erlangen. Aber vielleicht sind sie in der Lage, sich in ihre eigenen Paten zu ver-
wandeln, indem sie einen rechtlich bindenden Vertrag unterzeichnen, aus dem
hervorgeht, dass die an Sonntagen von einem Laden erzielten Einnahmen dem
anderen Laden zufließen werden. Indem sie das unbefriedigende Gleichgewicht
weiter verschlechtern, können sie ein neueres und besseres herstellen.
Auf der anderen Seite wird eine Änderung der Resultate, die das Gleich-
gewicht nicht verändert, normalerweise eine sehr viel geringere Wirkung haben als

297
Spieltheorie

erwünscht. Phil Libin, der Geschäftsführer der Softwarefirma Evernote, machte


Schlagzeilen mit seinem Entschluss, den Mitarbeitern seines Unternehmens 1000
Dollar in bar dafür zu zahlen, dass sie in Urlaub gingen.541 Das klingt nach einer
vernünftigen Methode, um mehr Angestellte dazu bewegen, Urlaub zu nehmen,
aber aus Sicht der Spieltheorie ist es keine gute Strategie. Beispielsweise hat es
wenig Sinn, im Gefangenendilemma den möglichen Gewinn zu erhöhen: Dieser
Eingriff ändert nichts an dem schlechten Gleichgewicht. Wenn beide Diebe mit
einer Beute von 1 Million Dollar im Gefängnis landen, landen sie auch mit 10
Millionen Dollar im Gefängnis. Im Fall von Evernote ist das Problem nicht, dass
der Urlaub unattraktiv ist, sondern, dass jedermann ein bisschen weniger Urlaub
nehmen will als seine Kollegen, womit sich ein Spiel entwickelt, in dem das
Gleichgewicht erreicht ist, wenn niemand auch nur einen Tag Urlaub nimmt. 1000
Dollar machen den Urlaub attraktiver, ändern jedoch nichts am Grundprinzip des
Spiels – das darin besteht, möglichst viel Urlaub zu nehmen, zugleich jedoch ein
wenig loyaler oder engagierter zu wirken als der Kollege und sich dadurch eine
Gehaltserhöhung oder Beförderung zu sichern, die viele Tausend Dollar wert ist.
Bedeutet das, dass Libin seinen Angestellten 10 000 Dollar dafür anbieten
muss, damit sie in Urlaub gehen? Nein. Der Mechanismus-Design sagt uns, dass
Libin die glücklichen Angestellten haben kann, die er sich wünscht, indem er statt
des Zuckerbrots die Peitsche einsetzt: Er kann ein besseres Gleichgewicht her-
stellen, ohne einen Cent auszugeben. Beispielsweise könnte er seine Angestellten
einfach verpflichten, eine bestimmte Zahl an Urlaubstagen zu nehmen.542 Wenn
er das Rennen nicht ändern kann, so kann er doch die Rennstrecke ändern.
Das Konzept des Mechanismus-Designs besagt eben, dass wir einen Designer
brauchen, sei es einen Geschäftsführer, einen bindenden Vertrag für alle Parteien
oder einen Paten, der die Omertà mit der Peitsche erzwingt.
Der Chef einer professionellen Sportliga ist ein solcher Designer. Stellen Sie
sich vor, wie lächerlich die NBA wirken würde, wenn es keinen Spielplan als
solchen gäbe und die Teams einfach zu jedem beliebigen Zeitpunkt zwischen
dem Beginn und dem Ende der Saison gegeneinander antreten könnten: um
drei Uhr morgens an einem Sonntag, um ein Uhr nachmittags am ersten Weih-
nachtsfeiertag, wann immer. Wir bekämen ausgelaugte Spieler zu sehen, die
unter extremem Schlafmangel leiden, sich mit Aufputschmitteln wachhalten
müssen und dem Wahnsinn nahe sind. Eine solche Situation ist eher für den
Krieg charakteristisch. Sogar die Wall Street, das Zentrum des erbarmungslosen

298
Evolutionärer Mechanismus-Design

kapitalistischen Handels in Mikrosekunden, kommt jeden Tag Schlag 16 Uhr


zum Stillstand, damit sich die Händler ausruhen können und nicht von ihren
Konkurrenten in ein Gleichgewicht der Schlaflosigkeit getrieben werden. Was
das anbelangt, ist der Börsenhandel eher ein Sport als ein Krieg.
Wenn man diesen Gedankengang im größeren Maßstab anwendet, gelangt
man rasch zu dem Schluss, dass hier staatliche Eingriffe vorteilhaft wären. Tat-
sächlich gibt es in vielen Ländern Gesetze, die eine Mindestzahl von Urlaubs-
tagen vorschreiben und die Ladenöffnungszeiten beschränken. Und während
die Vereinigten Staaten zu den wenigen Industrieländern zählen, in denen es
auf nationaler Ebene keine Vorschriften über bezahlten Urlaub gibt, haben die
Bundesstaaten Massachusetts, Maine und Rhode Island sehr wohl den Öffnungs-
zeiten im Einzelhandel an den Thanksgiving-Feiertagen Grenzen gesetzt.543
Solche Gesetze stammen oft noch aus der Kolonialzeit und waren ursprünglich
religiöse Normen. Tatsächlich ermöglicht die Religion direkte Eingriffe in die
Struktur derartiger Spiele. Ein religiöses Gesetz wie »Gedenke des Sabbats. Halte
ihn heilig!« löst das Problem der Ladeninhaber, egal, ob es nun von einem all-
mächtigen Gott oder den benachbarten Mitgliedern einer religiösen Gemeinschaft
durchgesetzt wird. Auch die Bekräftigung von Verboten antisozialen Verhaltens
wie Mord, Ehebruch und Diebstahl durch einen göttlichen Willen ist geeignet,
einige der spieltheoretischen Probleme zu lösen, die das gesellschaftliche Leben
mit sich bringt. Die göttlichen Gebote erweisen sich diesbezüglich als noch
wirksamer als staatliche Eingriffe, denn Allwissenheit und Allmacht sind eine
besonders starke Garantie dafür, dass Verstöße schlimme Folgen haben werden.
Die Religion gehört zu den Dingen, über die Informatiker nur selten sprechen;
diese Tatsache ist sogar Thema eines Buchs mit dem Titel Things a Computer
Scientist Rarely Talks About.544 Aber indem sie die Zahl unserer Optionen be-
schränken, vereinfachen Verhaltensvorschriften wie jene, die wir in den religiösen
Geboten finden, nicht nur die Berechnung bestimmter Entscheidungen, sondern
liefern auch bessere Ergebnisse.

EVOLUTIONÄRER MECHANISMUS-DESIGN

Mag man den Menschen für noch so egoistisch halten, es liegen doch
offenbar gewisse Prinzipien in seiner Natur, die ihn dazu bestimmen,

299
Spieltheorie

an dem Schicksal anderer Anteil zu nehmen, und die ihm selbst die
Glückseligkeit dieser anderen zum Bedürfnis machen, obgleich er
keinen anderen Vorteil daraus zieht als das Vergnügen, Zeuge davon
zu sein.
Adam Smith545

Das Herz hat seine Gründe, von denen der Verstand nichts weiß.
Blaise Pascal 546

Die Redwood-Bäume Kaliforniens gehören zu den ältesten und majes­tätischsten


Vertretern des Lebens auf unserem Planeten. Aber aus Sicht der Spieltheorie
haben sie auch etwas Tragisches. Der einzige Grund für ihre gewaltige Höhe
ist, dass sie versuchen, größer als ihre Artgenossen zu werden, was soweit geht,
dass die schädlichen Folgen des übermäßigen Wachstums schließlich sogar die
Nachteile des Lebens im Schatten anderer Bäume übersteigen. Wie es Richard
Dawkins ausdrückt:
»Das Kronendach eines typischen ausgewachsenen Waldes kann man sich als
eine Art Wiese der Lüfte vorstellen; es ähnelt einer hügeligen Graslandschaft, nur
dass [die Wiese] auf Stelzen steht. Das Kronendach fängt kaum mehr Sonnen-
energie auf als eine mit Gras bewachsene Prärie. Ein beträchtlicher Teil der
Energie wird aber ›verschwendet‹, weil er unmittelbar in die Stelzen fließt, die
nichts anderes zu tun haben, als die »Wiese« in die Luft zu erheben, so sie genau
die gleiche Photonenernte einfährt, die sie – mit weitaus geringeren Kosten – auch
dann erzielen könnte, wenn sie flach auf dem Boden läge.«547
Könnten sich die Bäume in diesem Wald auf einen Waffenstillstand einigen,
so könnte das Ökosystem den photosynthetischen Überfluss genießen, ohne die
Ressourcenverschwendung im Wettrüsten der Holzproduktion fortsetzen zu
müssen. Aber wie wir gesehen haben, wird für gute Ergebnisse unter solchen
Bedingungen eine externe Autorität benötigt, jemand, der von oben die Erträge
neu definiert. Es scheint, als gäbe es in der Natur einfach keine Möglichkeit, ein
gutes Gleichgewicht zwischen Individuen herzustellen.
Andererseits wäre zu erwarten, dass sich kooperative Spezies in der Evolution
durchsetzen werden, wenn die Kooperation in bestimmten Spielen tatsächlich zu
besseren Ergebnissen führt. Aber wie kann es zur Kooperation kommen, wenn
sie nur auf Ebene der Gruppe, nicht jedoch auf individueller Ebene vernünftig

300
Evolutionärer Mechanismus-Design

ist? Vielleicht wird sie von etwas hervorgebracht, das die Individuen nicht voll-
kommen beherrschen können. Von etwas wie den Emotionen.
Sehen wir uns zwei Szenarien an, zwischen denen scheinbar kein Zusammen-
hang besteht: (1) Ein Mann kauft einen Staubsauger, der jedoch nach wenigen
Wochen kaputtgeht, woraufhin der Käufer zehn Minuten opfert, um im Internet
eine schlechte Bewertung des Produkts zu hinterlassen. (2) Eine Frau bemerkt
beim Einkauf in einem Supermarkt, dass jemand einem alten Mann die Geld-
börse entwendet. Sie stellt sich dem Dieb in den Weg und schafft es, ihm die
Geldbörse zu entreißen.
Die Protagonistin der zweiten Szene scheint eine Heldin zu sein, während der
Mann in der ersten Szene lediglich wütend wirkt, aber die beiden Episoden haben
etwas gemein (obwohl dieses gemeinsame Merkmal sehr verschiedene Formen an-
nimmt): unfreiwillige Selbstlosigkeit. Der unglückliche Konsument versucht nicht,
den Staubsauger umzutauschen oder sein Geld zurückzubekommen, sondern strebt
eine ausgesprochen indirekte Form von Vergeltung an, deren einziger Lohn unter
rationalen spieltheoretischen Gesichtspunkten die Befriedigung ist, eine böse Be-
wertung zu schreiben. Die mutige Frau im Supermarkt übt zu hohen persönlichen
Kosten Selbstjustiz: Sie riskiert eine schwere Verletzung, um einem alten Mann,
der ihr vollkommen fremd ist, die Brieftasche zurückzugeben, deren Wert sie nicht
kennt. Wenn sie ihm unbedingt helfen wollte, hätte sie ihn auch fragen können, wie
viel Geld in der Brieftasche war, um ihm den Verlust zu erstatten, ohne einen Ausflug
in die Notaufnahme zu riskieren. In diesem Sinn handeln also beide Protagonisten
irrational. Andererseits dienen ihre Handlungen dem Gemeinwohl: Wir alle wollen
in einer Welt leben, in der sich Diebstahl nicht lohnt und in der Unternehmen für
den Verkauf minderwertiger Produkte zur Rechenschaft gezogen werden.
Vielleicht wäre es für jeden Einzelnen von uns besser, immer distanziert und
berechnend in unserem eigenen Interesse entscheiden zu können; vielleicht wäre
es für uns individuell besser, keine Zeit mit Beschwerden über versunkene Kosten
zu vergeuden oder wegen eines kleinen Geldbetrags einen Zahn zu verlieren.
Aber für uns alle ist es besser, in einer Gesellschaft zu leben, in der ein solches
selbstloses Verhalten üblich ist.
Was hat diese Personen in Ermangelung einer externen Autorität also dazu
bewegt, das eigennützige Gleichgewicht aufzugeben? Zum einen die Wut. Gleich-
gültig, ob ein schlechtes Produkt oder ein niederträchtiger Diebstahl der Grund
für unsere Empörung ist, diese Emotion kann unsere Rationalität unterdrücken.

301
Spieltheorie

Und hier hat möglicherweise die Hand der Evolution getan, wofür andernfalls
eine Autorität außerhalb des Spiels benötigt worden wäre.
In der Natur finden wir zahlreiche Beispiele für Individuen, die entführt
wurden, um den Zielen einer anderen Spezies zu dienen. Der Kleine Leberegel
(Dicrocoelium dendriticum) zum Beispiel ist ein Parasit, der Ameisen befällt und
dazu veranlasst, auf Grashalme hinaufzuklettern, damit sie von Schafen gefressen
werden, die das bevorzugte Wirtstier des Leberegels sind. Und der Parasit Toxo­
plasma gondii raubt Mäusen die Furcht vor Katzen – mit ähnlichem Resultat.548
Im Fall des verbitterten, rachsüchtigen Konsumenten und der Supermarkt-
heldin ermöglichen es die Emotionen der eigenen Spezies, vorübergehend die
Kontrolle über das Individuum zu erlangen. »Moralität ist Herden-Instinkt im
Einzelnen«, schrieb Nietzsche.549 Wenn wir das ein wenig abwandeln, könnten
wir sagen, dass Emotion Mechanismus-Design in der Spezies ist. Eben weil
die Gefühle unfreiwillig sind, machen sie Verträge möglich, die nicht von einer
äußeren Autorität durchgesetzt werden müssen. Die Rache kommt fast nie dem
Rachsüchtigen zugute, und doch wird jemand, der mit »irrationaler« Vehemenz
darauf reagiert, dass man ihn übervorteilt, eben aus diesem Grund eher fair be-
handelt werden. Der Ökonom Robert Frank von der Cornell University drückt
es so aus: »Wenn die Leute von uns erwarten, dass wir auf den Diebstahl unseres
Eigentums irrational reagieren, werden wir selten so reagieren müssen, weil es
nicht im Interesse anderer Leute ist, uns zu bestehlen. Die Prädisposition zur
irrationalen Reaktion leistet uns hier sehr viel bessere Dienste als ein Verhalten,
das nur unserem materiellen Eigeninteresse dient.«550
(Falls Sie denken, dass der zivilisierte moderne Mensch die Vergeltung durch
rechtlich bindende Verträge und Gesetze ersetzt hat, sollten Sie sich in Erinnerung
rufen, dass der Aufwand und das Leid, dass die Verfolgung eines Straftäters mit
sich bringt, oft den materiellen Ertrag, den sich das Opfer von der Strafverfolgung
erhoffen kann, deutlich übersteigen. Gerichtsverfahren sind in einer entwickelten
Gesellschaft nicht der Ersatz, sondern das Mittel der selbstzerstörerischen Ver-
geltung.)
Und was für die Wut gilt, gilt auch für Mitgefühl, Schuldgefühl – und Liebe.
So sonderbar das klingen mag, aus dem Gefangenendilemma können wir
auch viel über die Ehe lernen. In der Auseinandersetzung mit optimalen Stopp-
problemen wie dem Sekretärinnenproblem haben wir sowohl die Partnersuche
als auch die Wohnungssuche als Fälle behandelt, in denen wir eine Verpflichtung

302
Evolutionärer Mechanismus-Design

eingehen müssen, obwohl es mögliche zukünftige Optionen gibt, die wir noch
nicht gesehen haben. Sowohl in der Liebe als auch auf dem Wohnungsmarkt
werden wir jedoch weiter mit Optionen konfrontiert, nachdem wir zu der Über-
zeugung gelangt sind, dass der optimale Zeitpunkt zur Beendigung der Suche
gekommen ist. Warum sollten wir also nicht bereit sein, unsere Entscheidung
erneut zu ändern? Natürlich würde das Wissen, dass die andere Seite (sei es unser
Ehepartner oder der Vermieter) ebenfalls für andere Optionen offen ist, viele lang-
fristige Investitionen verhindern, die sich dank solcher Vereinbarungen lohnen
(wir können zusammen Kinder haben oder die Mühe aufbringen, unsere Möbel
und unseren gesamten Hausrat in die neue Wohnung zu bringen).
In beiden Fällen kann dieses sogenannte Verpflichtungsproblem zumindest
teilweise gelöst werden, indem man einen Vertrag schließt. Aber die Erkenntnisse
der Spieltheorie deuten darauf hin, dass im Fall der Partnersuche die freiwillige
Bindung durch das Gesetz weniger wichtig für eine dauerhafte Partnerschaft ist
als die unfreiwillige Bindung durch die Liebe. Wie es Robert Frank ausdrückt:
»Die Sorge, dass Menschen eine Partnerschaft lösen werden, weil es später rational
in ihrem Interesse sein kann, das zu tun, ist eigentlich unangebracht, wenn die
Partnerschaft ursprünglich nicht aufgrund einer rationalen Bewertung zustande
kam.«551 Er erklärt:
»Es stimmt, dass wir bei unseren Partnern nach objektiven Merkmalen
suchen, die uns wichtig sind. Jeder Mensch möchte einen Partner, der freund-
lich, intelligent, interessant, gesund und vielleicht auch sportlich ist, jemanden
mit ausreichendem Einkommen und allen möglichen Eigenschaften, aber das ist
nur der erste Test. […] Nachdem wir genug Zeit miteinander verbracht haben,
sind diese Dinge nicht mehr der Grund dafür, dass wir zusammenbleiben wollen.
Wichtig ist nur, dass es diese Person ist – das ist uns wichtig, und deshalb brauchen
wir den Vertrag weniger als das Gefühl, das uns wünschen lässt, uns nicht von-
einander zu trennen, obwohl es objektiv eine bessere Option geben könnte.«552
Anders ausgedrückt: Die Liebe ist wie das organisierte Verbrechen. Sie ändert
die Struktur des Ehespiels, so dass das beste Ergebnis für alle Beteiligten zum
Gleichgewicht wird.
Der Dramatiker George Bernard Shaw schrieb einmal über die Ehe: »Wenn
der Gefangene glücklich ist, warum ihn dann einsperren? Wenn er es nicht ist,
warum vorgeben, daß er es sei?«553 Die Spieltheorie gibt eine subtile Antwort auf
diese Frage: Das Glück ist der Riegel.

303
Spieltheorie

Eine spieltheoretische Argumentation für die Liebe würde einen weiteren


Punkt hervorheben: Die Ehe ist ein Gefangenendilemma, in dem man sich seinen
Komplizen aussuchen kann. Das wirkt möglicherweise wie eine geringfügige
Veränderung, aber sie hat potenziell erhebliche Auswirkungen auf die Struktur
des Spiels, das man spielt. Wüssten wir, dass es unserem Komplizen aus irgend-
einem Grund schlecht ginge, wenn wir nicht da wären – würde er in einer Trübsal
versinken, die selbst mit 1 Million Dollar nicht zu lindern wäre –, dann hätten
wir sehr viel weniger Angst, dass er abtrünnig werden und uns im Gefängnis
verrotten lassen wird.
Das rationale Argument für die Liebe ist also zweigeteilt: Die Emotionen
der Zuneigung bewahren einen Menschen nicht nur davor, sich rekursiv mit
den Absichten seines Partners zu beschäftigen, sondern die geänderten Er-
träge ermöglichen tatsächlich ein besseres Ergebnis. Obendrein macht die
Fähigkeit, sich unfreiwillig zu verlieben, einen Menschen zu einem sehr viel
attraktiveren Partner. Die Fähigkeit zum Kummer, zum Schlafen bei den
emotionalen Fischen, ist genau die Fähigkeit, die ihn zu einem vertrauens-
würdigen Komplizen macht.

INFORMATIONSKASKADEN: DIE TRAGISCHE


RATIONALITÄT DER SPEKULATIONSBLASEN

Wenn du dich auf der Seite der Mehrheit wiederfindest, ist es an der
Zeit innezuhalten und gründlich nachzudenken.
Mark Twain

Sich am Verhalten anderer zu orientieren, ist nicht zuletzt deshalb eine gute Idee,
weil man auf diese Art ihr Wissen über die Welt dem eigenen hinzufügen kann.
Das Essen in einem beliebten Restaurant ist wahrscheinlich gut, ein halbvoller
Konzertsaal ist wahrscheinlich ein schlechtes Zeichen, und wenn eine Person, mit
der ich mich unterhalte, ihren Blick plötzlich an mir vorbei auf etwas in meinem
Rücken richtet, ist es wahrscheinlich keine schlechte Idee, mich umzudrehen und
ebenfalls in diese Richtung zu schauen.
Auf der anderen Seite ist es nicht immer wirklich vernünftig, sich etwas von
anderen abzuschauen. Modeerscheinungen kommen dadurch zustande, dass

304
Die tragische Rationalität der Spekulationsblasen

Menschen das Verhalten anderer nachahmen, ohne sich auf irgendeine objektiv
wahre Erkenntnis über die Welt zu stützen. Noch schlimmer ist, dass die An-
nahme, die Handlungen anderer Menschen seien eine gute Orientierungshilfe,
zu jener Art von Herdenverhalten führen kann, das wirtschaftliche Katastrophen
heraufbeschwört. Wenn alle anderen in Immobilien investieren, scheint es ratsam,
ebenfalls ein Haus zu kaufen – schließlich steigen die Preise nur immer weiter.
Oder etwa nicht?
Ein interessanter Aspekt der Hypothekenkrise der Jahre 2007–2009 ist, dass
offenbar alle Beteiligten das Gefühl hatten, zu Unrecht dafür bestraft zu werden,
dass sie einfach getan hatten, was von ihnen erwartet wurde. Eine Generation
von Amerikanern, die in dem Glauben aufgewachsen war, dass Immobilien eine
narrensichere Investition waren, und erlebt hatte, dass alle Leute in ihrer Um-
gebung trotz (oder wegen) der rasant steigenden Preise Häuser kauften, musste
schwere Verluste hinnehmen, als die Preise schließlich zu purzeln begannen. Die
Banken ihrerseits hatten das Gefühl, zu Unrecht an den Pranger gestellt zu werden,
weil sie getan hatten, was sie seit jeher taten: Sie boten ihren Kunden Kredite an,
welche die Kunden annehmen oder ablehnen konnten. Nach einem plötzlichen
Zusammenbruch des Markts ist die Versuchung groß, nach Schuldigen zu suchen.
Aber die Spieltheorie liefert hier eine ernüchternde Erkenntnis: Katastrophen wie
diese können sich auch ereignen, ohne dass jemand etwas falsch macht.
Voraussetzung für die richtige Beurteilung der Mechanik von Spekulations-
blasen ist, dass man versteht, wie Auktionen funktionieren. Versteigerungen mögen
wie ein Nischensektor der Volkswirtschaft wirken – wir denken zum Beispiel an
Sammler, die bei Sotheby’s und Christie’s für Millionenbeträge Gemälde erstehen,
oder an Beanie Babies und ähnliche Sammlerstücke, die auf eBay versteigert
werden –, aber in Wahrheit liegt das Auktionsprinzip einem beträchtlichen Teil
des Wirtschaftslebens zugrunde. Google zum Beispiel erzielt mehr als 90 Prozent
seiner Einnahmen mit dem Verkauf von Werbeanzeigen, und diese werden ver-
steigert.554 Staaten teilen die Frequenzbänder des Telekommunikationsspektrums
(zum Beispiel für Mobilfunknetze wie G5) per Auktion zu und nehmen damit
viele Milliarden Dollar ein.555 Tatsächlich funktionieren viele globale Märkte,
auf denen alles Mögliche von Häusern über Bücher bis zu Tulpen gehandelt wird,
mit verschiedenen Formen von Versteigerungen.
In einem der einfachsten Auktionsformate schreibt jeder Teilnehmer sein Ge-
bot auf, ohne dass die anderen Bieter davon erfahren, und der Teilnehmer, der das

305
Spieltheorie

höchste Gebot abgegeben hat, erhält den Zuschlag. Dieses als »Erstpreisauktion«
bezeichnete Verfahren ist unter dem Gesichtspunkt der algorithmischen Spiel-
theorie sehr problematisch: Tatsächlich verursacht es eine Reihe von Problemen:
Zunächst einmal zahlt der erfolgreiche Bieter in gewissem Sinn immer einen
überhöhten Preis. Wenn Sie den Wert eines Objekts bei 25 Dollar ansetzen,
während ich nur 10 Dollar dafür bezahlen würde, dann werden Sie, wenn wir
unserer Bewertung entsprechende Gebote von 25 Dollar bzw. 10 Dollar abgeben,
den Zuschlag für 25 Dollar erhalten, obwohl Sie das Objekt auch für 10,01 Dollar
hätten erstehen können. Dieses Problem führt zu einem weiteren, das darin
besteht, dass Sie, um richtig bieten zu können – das heißt, um nicht zu viel zu
bezahlen – die Bewertung der anderen Bieter vorhersagen müssen, um Ihr Ge-
bot entsprechend zu »verdecken«. Das ist schlimm genug, aber auch die anderen
Akteure werden nicht so viel bieten, wie das Objekt in ihren Augen wirklich wert
ist, denn sie verdecken ihre Angebote ausgehend davon, wie sie Ihres vorhersagen!
Womit wir wieder im Land der Rekursion sind.556
In einem weiteren klassischen Versteigerungsformat, der »Holländischen
Auktion« oder »Rückwärtsauktion«, wird der Preis eines Versteigerungsobjekts
schrittweise gesenkt, bis ein Teilnehmer bereit ist, es für den zuletzt genannten
Preis zu kaufen. Die Bezeichnung bezieht sich auf die tägliche Blumenauktion im
niederländischen Aalsmeer, die größte derartige Versteigerung in der Welt.557 Aber
Rückwärtsauktionen sind häufiger, als man auf den ersten Blick meinen könnte.
Im Verhalten eines Einzelhändlers, der seine unverkauften Artikel herabsetzt, oder
eines Vermieters, der eine Wohnung zum höchsten Preis anbietet, den der Markt
in seinen Augen hergeben wird, ist das zentrale Element einer Rückwärtsauktion
zu erkennen: Der Verkäufer beginnt optimistisch und geht solange mit dem Preis
herunter, bis ein Käufer gefunden ist. Die Rückwärtsauktion ähnelt der Erstpreis-
auktion insofern, als der siegreiche Bieter auch hier in den meisten Fällen einen
Preis bezahlen wird, der nahe bei dem höchsten Wert liegt, den er dem Gegenstand
zuschreibt (das heißt, er wird in diesem Fall die Hand heben, wenn der Preis auf
25 Dollar sinkt). Daher wird er versuchen, sein Gebot durch einen komplexen
strategischen Betrag zu verdecken. Wird er bei 25 Dollar die Hand heben oder sich
bremsen und versuchen, einen besseren Preis zu bekommen? Mit jedem Dollar,
den er spart, riskiert er, das begehrte Versteigerungsobjekt zu verlieren.
Das Gegenstück einer Rückwärtsauktion wird als »Englische Auktion« oder
»Aufwärtsauktion« bezeichnet – dies ist das bekannteste Auktionsformat. Bei

306
Die tragische Rationalität der Spekulationsblasen

einer Aufwärtsauktion geben die Teilnehmer abwechselnd steigende Gebote ab,


bis nur noch ein Bieter übrig ist. Dieses Verfahren scheint dem näherzukommen,
was uns vorschwebt: Wenn Sie ein Objekt mit 25 Dollar bewerten und ich es
mit 10 Dollar bewertete, werden Sie es für etwas mehr als 10 Dollar bekommen,
ohne bis zu Ihrem potenziellen Höchstgebot gehen zu müssen oder sich in der
strategischen Ungewissheit zu verlieren.
Sowohl die Rückwärtsauktion als auch die Aufwärtsauktion bringen ver-
glichen mit der Erstgebotsauktion jedoch eine zusätzliche Komplexitätsebene
mit sich. Hier kommt zur privaten Information, die jeder einzelne Bieter hat, die
öffentliche Information, die aus dem Verhalten der Bieter gewonnen werden kann.
(In einer Rückwärtsauktion liefert das Ausbleiben von Geboten Information: Es
zeigt, dass keiner der anderen Bieter dem Versteigerungsobjekt den Wert beimisst,
der zuletzt genannt wurde.) Und diese Mischung von privater und öffentlicher
Information kann unter Umständen sehr schädlich werden.
Nehmen wir an, die Bieter sind sich nicht darüber im Klaren, wie sie ein
Versteigerungsobjekt bewerten sollen – sagen wir, es handelt sich um die
Ölförderrechte vor der Küste eines Landes. Der Spieltheoretiker Ken Binmore
vom University College London erklärt: »Die Menge an Erdöl in einem Öl-
feld ist dieselbe für alle Beteiligten, aber die Schätzungen der Unternehmen
bezüglich der Ölmenge in einem Feld hängt von ihren geologischen Studien ab.
Und diese Studien sind nicht nur teuer, sondern auch für ihre Unzuverlässigkeit
berüchtigt.« In einer solchen Situation scheint es angebracht, sich die Gebote
der Konkurrenten genau anzusehen und die dürftige private Information durch
öffentliche Information zu ergänzen.
Doch diese öffentliche Information ist möglicherweise nicht annähernd so
nützlich, wie sie scheinen mag. Denn wir erfahren eigentlich nichts darüber, was
die anderen Bieter denken, sondern sehen nur, was sie tun. Und es ist durchaus
möglich, dass ihr Verhalten auf unserem beruht, so wie unser Verhalten umgekehrt
von ihrem beeinflusst wird. Man kann sich leicht vorstellen, dass eine Gruppe
von Personen gemeinsam über eine Klippe geht, weil sich »alle anderen« so ver-
halten, als sei alles in Ordnung – obwohl in Wahrheit jedes Mitglied der Gruppe
Bedenken hat, die es jedoch unterdrückt, weil sich alle anderen Mitglieder ihrer
Sache anscheinend sicher sind.558
Wie bei der Allmendeklemme sind nicht unbedingt die Akteure schuld
an diesem kollektiven Versagen. Die Ökonomen Sushil Bikhchandani, David

307
Spieltheorie

Hirshleifer und Ivo Welch haben in einer vielbeachteten Arbeit gezeigt, dass
eine Gruppe von Akteuren, die sich alle vollkommen rational und angemessen
verhalten, unter geeigneten Umständen Opfer einer de facto unendlichen Fehl-
information werden kann. Dieses Phänomen wird als »Informationskaskade«
bezeichnet.559
Kehren wir zum Beispiel der Ölförderrechte zurück. Nehmen wir an, es
gibt zehn Unternehmen, die für die Rechte zur Erschließung eines gegebenen
Gebiets bieten können. Eines dieser Unternehmen hat eine geologische Studie
durchgeführt, und die Ergebnisse deuten darauf hin, dass es in diesem Gebiet ein
ergiebiges Ölfeld gibt. Die Studie eines zweiten Unternehmens hat keine klaren
Ergebnisse gebracht, und die anderen acht Unternehmen sind zu dem Ergeb-
nis gelangt, dass es in diesem Gebiet kein Öl gibt. Aber da die Unternehmen
Konkurrenten sind, teilen sie ihre Forschungsergebnisse natürlich nicht mit-
einander, weshalb sie nur das Verhalten der anderen Bieter beobachten können.
Zu Beginn der Auktion legt Unternehmen 1, dessen Geologen die optimistische
Studie vorgelegt haben, ein hohes Anfangsgebot vor. Unternehmen 2 wird durch
dieses Gebot ermutigt, seine eigene widersprüchliche Studie zuversichtlicher zu
beurteilen, und bietet noch mehr. Unternehmen 3 hat eine negative geologische
Bewertung vorliegen, beginnt angesichts von zwei hohen Geboten, die offenbar
auf vorteilhaften unabhängigen Studien beruhen, jedoch zu glauben, dass sich
unter dem Meeresboden in diesem Gebiet eine Goldmine verbirgt, und gibt eben-
falls ein hohes Gebot ab. Unternehmen 4, dessen Geologen ebenfalls kein vor-
teilhaftes Bild von dem vermeintlichen Ölvorkommen gezeichnet haben, hat nun
einen noch stärkeren Anreiz, sein Urteil zu revidieren, da drei seiner Konkurrenten
in diesem Gebiet ein ergiebiges Ölfeld vermuten. Also bietet es ebenfalls. Der
»Konsens« entfernt sich von der Realität. Es ist eine Kaskade entstanden.
Keiner der Bieter hat sich irrational verhalten, und doch ist das Ergebnis
eine finanzielle Katastrophe. Wie es Hirshleifer ausdrückt: »Sobald sich jemand
entschließt, seinen Vorgängern unabhängig von seiner eigenen Information
blind zu folgen, geschieht etwas sehr Bedeutsames: Sein Verhalten verliert für
alle folgenden Entscheidungsträger jeglichen Informationswert. Jetzt wächst
die Menge öffentlicher Information nicht mehr. Der Nutzen der öffentlichen
Information für die Gemeinschaft […] ist verloren.«560
Um zu verstehen, was in der Realität geschieht, wenn eine Informations-
kaskade beginnt und das Verhalten der Konkurrenten fast das Einzige ist, woran

308
Die tragische Rationalität der Spekulationsblasen

sich die Bieter orientieren können, können wir uns den Preis der entwicklungs-
biologischen Abhandlung The Making of a Fly von Peter A. Lawrence ansehen, die
im April 2011 für 23 698 655,93 Dollar (zuzüglich 3,99 Dollar Versandkosten) auf
Amazon Marketplace angeboten wurde. Der Autor ist ein angesehener Wissen-
schaftler, aber wie konnte es dazu kommen, dass der Preis dieses Buches auf mehr
als 23 Millionen Dollar stieg? Wie sich herausstellt, setzten zwei der Anbieter ihre
Preise algorithmisch als konstante Fraktionen voneinander fest: Der eine setzte
ihn immer beim 0,99830-Fachen des Preises seines Konkurrenten an, während
der Konkurrent seinen eigenen Preis automatisch beim 1,27059-fachen Wert
des anderen Anbieters ansetzte. Anscheinend dachte keiner der beiden Anbieter
daran, ein Limit für den Preis festzulegen, und irgendwann geriet der Prozess
vollkommen außer Kontrolle.561
Es ist möglich, dass ein ähnlicher Mechanismus während des rätselhaften
»Flashcrashs« der New Yorker Börse am 6. Mai 2010 am Werk war, als der
Kurs der Aktien mehrerer Unternehmen, zwischen denen scheinbar kein Zu-
sammenhang bestand, innerhalb weniger Minuten auf mehr als 100 000 Dollar
stieg, während andere Aktien rasant an Wert verloren und teilweise auf 0,01
Dollar abstürzten. Im Handumdrehen lösten sich fast 1 Billion Dollar an Markt-
kapitalisierung in Rauch auf. Der Börsenberichterstatter Jim Cramer von CNBC
war fassungslos. »Das kann nicht sein«, sagte er in der Live-Übertragung. »Das ist
kein realer Kurs. Also gut, kaufen Sie Procter! Kaufen Sie Procter & Gamble, die
haben ein ordentliches Quartalsergebnis gemeldet, kaufen Sie die Aktie ruhig….
Das ist wirklich lächerlich – das ist eine echte Kaufgelegenheit.« Cramers Un-
gläubigkeit zeigt, dass er im Widerspruch zur öffentlichen Information an seiner
privaten Information festhielt. Er war scheinbar der einzige Mensch auf der
Welt, der bereit war, 49 Dollar für eine Aktie zu bezahlen, deren Wert der Markt
offenbar bei unter 40 Dollar sah. Ihm war das egal; er hatte den Quartalsbericht
gesehen und war überzeugt von dem, was er wusste.
Es heißt, alle Investoren könnten im Grunde einer von zwei großen Gruppen
zugerechnet werden: Es gibt »fundamentale« Investoren, die sich am grund-
legenden Wert orientieren, den ein Unternehmen in ihren Augen hat, und
»technische« Investoren, die sich an den Schwankungen des Marktes orientieren.
Der Siegeszug des algorithmischen Hochgeschwindigkeitstradings hat das
Gleichgewicht zwischen diesen beiden Strategien durcheinandergebracht, und
man hört häufig Klagen, dass die Computer, die keine Beziehung zum realen Wert

309
Spieltheorie

der Güter haben – sie schrecken nicht davor zurück, den Preis eines Lehrbuchs
mit mehreren Millionen Dollar anzusetzen und Blue-Chip-Aktien mit wenigen
Cent zu bewerten –, die Irrationalität des Marktes verschlimmern.562 Diese Kritik
richtet sich normalerweise gegen die Computer, aber Menschen tun dasselbe, wie
zahlreiche Spekulationsblasen belegen. Einmal mehr liegt der Fehler nicht bei
den Spielern, sondern beim Spiel selbst.
Informationskaskaden sind eine rationale Erklärung nicht nur für
Spekulationsblasen, sondern allgemein für Moden und Herdenverhalten. Sie
erklären, wie ein Markt selbst ohne Irrationalität, bösen Willen oder Regelver-
stöße leicht einen Gipfel erreichen und zusammenbrechen kann. Daraus können
wir mehrere Dinge lernen. Zum einen sollten wir auf der Hut sein, wenn die
öffentliche Information umfassender zu sein scheint als die private, wenn wir
mehr über das Verhalten anderer Personen wissen als über die Gründe für ihr
Verhalten, wenn uns die Übereinstimmung unseres eigenen Urteils mit der
Konsensmeinung wichtiger ist als die Übereinstimmung unseres Wissens mit
den Fakten. Wenn wir uns im Wesentlichen an anderen orientieren, richten diese
sich möglicherweise umgekehrt nach uns. Zweitens dürfen wir das Handeln von
Menschen nicht mit ihren Überzeugungen verwechseln. Informationskaskaden
entstehen teilweise dadurch, dass wir aus dem, was andere tun, falsche Schlüsse
darüber ziehen, was sie denken. Wir sollten uns insbesondere davor hüten, unsere
Zweifel hintanzustellen – und wenn wir es doch tun, sollten wir, selbst wenn
wir uns der Herde anschließen, vielleicht einen Weg finden, um den anderen
Akteuren diese Zweifel zu vermitteln, da sie sonst nicht erkennen können, dass
sich hinter unserem auf Zustimmung hindeutenden Verhalten widerstrebende
Gedanken verbergen. Schließlich sollten wir uns an das Gefangenendilemma
erinnern und uns vor Augen halten, dass die Regeln eines Spiels manchmal
furchtbar schlecht sind. Möglicherweise gibt es keinen Ausweg mehr, wenn wir
uns einmal zur Teilnahme am Spiel entschlossen haben, aber die Theorie der
Informationskaskaden kann uns helfen, uns gar nicht erst auf ein solches Spiel
einzulassen.
Wenn Sie zu den Personen gehören, die immer tun, was Sie für das Beste
halten, egal wie verrückt das in den Augen anderer ist, müssen Sie nicht verzagen.
Die schlechte Nachricht ist, dass Sie tatsächlich häufiger als die Herdentiere im
Unrecht sein werden. Die gute Nachricht ist, dass Sie mit dem Festhalten an Ihren
Überzeugungen eine positive Externalität erzeugen, die es anderen ermöglicht,

310
Bleib dir rechnerisch treu

die richtigen Schlüsse aus Ihrem Verhalten zu ziehen. Vielleicht werden Sie eines
Tages die ganze Herde vor der Katastrophe bewahren.563

BLEIB DIR RECHNERISCH TREU

Die Anwendung der Informatik auf die Spieltheorie hat gezeigt, dass der Zwang
zur Entwicklung von Strategien selbst ein – oft beträchtlicher – Teil des Preises
ist, den wir für den Wettbewerb mit anderen bezahlen müssen. Und wie das
Problem der Rekursion zeigt, ist dieser Preis nie so hoch wie dann, wenn wir uns
in andere hineinversetzen müssen. Hier gibt uns die algorithmische Spieltheorie
eine Möglichkeit, den Mechanismus-Design zu überdenken: Wir müssen nicht
nur das Ergebnis der Spiele, sondern auch den Berechnungsaufwand der Spieler
berücksichtigen.564
Wir haben gesehen, dass zum Beispiel scheinbar harmlose Versteigerungs-
mechanismen alle möglichen Probleme heraufbeschwören können: Wir denken
zu viel, wir bezahlen zu viel, wir verlieren die Kontrolle über Informations-
kaskaden. Aber die Lage ist nicht vollkommen aussichtslos. Tatsächlich gibt es
insbesondere eine Auktionsform, welche die geistige Rekursion durchschneidet
wie ein heißes Messer ein Stück Butter. Sie wird als »Zweitpreisauktion« oder
»Vickrey-Auktion« bezeichnet.
Die Bezeichnung »Vickrey-Auktion« trägt sie zu Ehren des Wirtschafts-
nobelpreisträgers William Vickrey.565 So wie bei der Erstpreisauktion beruht das
Verfahren auch hier auf »versiegelten Geboten«: Jeder Bieter schreibt insgeheim
eine Zahl auf, und der Teilnehmer, der das höchste Gebot vorlegt, erhält den
Zuschlag. Aber bei einer Vickrey-Auktion bezahlt der siegreiche Bieter nicht
den Preis, den er selbst geboten hat, sondern den Betrag, den der zweitplatzierte
Bieter geboten hat. Das bedeutet, dass Sie, wenn Sie 25 Dollar bieten und ich
10 Dollar biete, das Objekt der Begierde zu meinem Preis erstehen werden: Sie
müssen nur 10 Dollar dafür bezahlen.
In den Augen eines Spieltheoretikers besitzt die Zweitpreisauktion eine
Reihe von Vorzügen. Und in den Augen eines algorithmischen Spieltheoretikers
sticht insbesondere eine Eigenschaft heraus: Die Teilnehmer haben einen An-
reiz, ehrlich zu sein. Denn es gibt keine bessere Strategie, als so viel zu bieten,
wie das Versteigerungsobjekt in ihren Augen tatsächlich wert ist. Mehr als den
wirklichen Wert zu bieten, wäre offenkundig dumm, denn so könnte es passieren,

311
Spieltheorie

dass der siegreiche Bieter mehr für das Objekt bezahlen muss, als es in seinen
Augen wert ist. Und indem er weniger bietet, als das Objekt wirklich wert ist,
riskiert er, die Auktion ohne guten Grund zu verlieren, denn dadurch wird er
kein Geld sparen – denn wenn er gewinnt, wird er nur den Wert des zweit-
höchsten Gebots bezahlen, egal wie viel er selbst geboten hat. Das macht die
Vickrey-Auktion zu dem, was die Mechanismus-Designer als »strategiesicher«
oder auch »wahrhaftig« bezeichnen.566 In einer Zweitpreisauktion währt ehrlich
tatsächlich am längsten.
Und es kommt noch besser: Ehrlichkeit macht sich unabhängig davon be-
zahlt, ob die anderen Bieter ehrlich sind. Im Gefangenendilemma haben wir
gesehen, dass sich die Abtrünnigkeit als »dominante« Strategie erweist – sie ist
unabhängig davon, ob der Komplize ebenfalls abtrünnig wird oder kooperiert, die
beste Lösung. In einer Vickrey-Auktion hingegen ist Ehrlichkeit die dominante
Strategie. Dies ist der Heilige Gral des Mechanismus-Designers. Man kann auf
Strategien und Rekursion verzichten.567
Es hat allerdings den Anschein, als würde der Verkäufer bei der Zweitpreis-
auktion schlechter abschneiden als bei der Erstpreisauktion, aber das ist nicht
zwangsläufig richtig. In einer Erstpreisauktion verdeckt jeder Bieter sein Ge-
bot, um nicht zu viel zu bezahlen. In einer Zweitpreisauktion ist das nicht not-
wendig, denn in gewissem Sinn verdeckt die Auktion selbst die Gebote optimal
für die Bieter. Tatsächlich besagt ein als »Erlös-Äquivalenz« bezeichnetes spiel-
theoretisches Prinzip, dass sich der durchschnittliche erwartete Verkaufspreis in
einer Erstpreisauktion im Lauf der Zeit dem Verkaufspreis in einer Zweitpreis-
auktion annähern wird.568 Im Vickrey-Gleichgewicht erhält derselbe Bieter den
Zuschlag also für denselben Preis – ohne jegliche strategische Manöver der Bieter.
Wie Tim Roughgarden seinen Studenten in Stanford einschärft: Die Vickrey-
Auktion ist »Ehrfurcht gebietend«.569
Nach Ansicht des algorithmischen Spieltheoretikers Noam Nisan von der
Hebräischen Universität hat diese Ehrfurcht gebietende Eigenschaft etwas bei-
nahe Utopisches an sich. »Wir hätten gern gesellschaftliche Regeln, die dafür
sorgen, dass es sich nicht lohnt zu lügen, denn dann würden die Leute nicht
so viel lügen, nicht wahr? Das ist der Grundgedanke. In meinen Augen ist die
Vickrey-Auktion so verblüffend, weil man nicht erwarten würde, dass das im
Allgemeinen möglich ist. Vor allem in Situationen wie einer Auktion, wo alle
Beteiligten natürlich möglichst wenig bezahlen möchten, scheint das völlig un-

312
Bleib dir rechnerisch treu

möglich – und doch hat Vickrey einen Weg gefunden, es zu tun. Ich finde, das
ist wirklich fantastisch.«570
Tatsächlich sind die Lehren, die wir daraus ziehen können, keineswegs auf
Auktionen beschränkt. Der Nobelpreisträger Robert Myerson hat anhand des
bahnbrechenden »Offenbarungsprinzips« gezeigt, dass jedes Spiel, das eine
strategische Verdeckung der Wahrheit erforderlich macht, in ein Spiel verwandelt
werden kann, das einfach nur Ehrlichkeit erfordert. Paul Milgram, Mayersons
Kollege zu jener Zeit, erklärt: »Es ist eines jener Resultate, die, wenn man sie von
einer Seite betrachtet, schockierend und faszinierend wirken, während sie von der
anderen Seite betrachtet trivial scheinen. Und das ist tatsächlich wunderbar, es
ist fantastisch: Man weiß, dass man eines der vollkommensten Dinge betrachtet,
die es gibt.«571
Auf den ersten Blick mag das Offenbarungsprinzip unglaublich scheinen, aber
sein Beweis ist tatsächlich sehr einleuchtend. Nehmen wir an, Sie haben einen
Agenten oder einen Rechtsanwalt, der das Spiel für Sie spielt. Wenn Sie darauf
vertrauen, dass diese Person Ihre Interessen vertreten wird, werden Sie ihr einfach
sagen, was genau Sie wollen, und ihr die strategische Verdeckung und Rekursion
überlassen. In der Zweitpreisauktion erfüllt das Spiel selbst diese Funktion. Und
das Offenbarungsprinzip weitet dieses Konzept einfach aus: Es besagt, dass sich
jedes Spiel, das ein Agent, dem Sie die Wahrheit sagen werden, für Sie spielen
kann, in ein Spiel verwandeln kann, in dem Ehrlichkeit die beste Strategie ist,
wenn die Vorgehensweise, die Sie sich von ihrem Agenten wünschen, in die Spiel-
regeln eingebaut wird. Nisan erklärt: »Grundlegend ist, dass Sie, wenn Sie nicht
wollen, dass Ihre Klienten gegen Sie optimieren, für ihre Klienten optimieren
müssen. Das ist der ganze Beweis. […] Wenn ich einen Algorithmus entwickle,
der von vornherein für Sie optimiert, können Sie nichts mehr tun.«
Die algorithmische Spieltheorie hat in den vergangenen zwanzig Jahren
wichtige Beiträge zu zahlreichen praktischen Anwendungen geleistet: Sie hilft
uns, die Paketvermittlung im Internet zu verstehen, sie verbessert die Frequenz-
auktionen für die Mobiltelefonie, in denen kostbare, wenn auch unsichtbare
öffentliche Güter verkauft werden, und sie verfeinert die Matching-Algorithmen,
die zum Beispiel Medizinstudenten Krankenhäusern zuordnen. Und das dürfte
nur der Anfang einer sehr viel umfassenderen Transformation sein. »Wir kratzen
nur an der Oberfläche«, sagt Nisan. »Selbst in der Theorie beginnen wir gerade
erst, es zu verstehen. Und es wird vermutlich eine weitere Generation dauern,

313
Spieltheorie

bevor das, was wir heute theoretisch vollkommen verstehen, erfolgreich auf das
menschliche Leben angewandt werden kann. Ich denke, es wird nicht länger als
eine Generation dauern.«
Der französische Philosoph Jean-Paul Sartre erklärte: »Die Hölle sind die
anderen.«572 Damit wollte er nicht sagen, dass die anderen an sich bösartig und
unangenehm sind, sondern dass sie unsere Gedanken und Überzeugungen durch-
einanderbringen:
»Wenn wir über uns selbst nachdenken, wenn wir versuchen, uns selbst zu
erkennen, […] verwenden wir das, was andere Menschen bereits über uns wissen.
Wir beurteilen uns mit den Mitteln, die andere Menschen haben und uns geben,
um uns selbst zu beurteilen. In alles, was ich über mich sage, fließt das Urteil
anderer über mich ein. In alles, was ich fühle, fließt das Urteil anderer über
mich ein. […] Aber das bedeutet keineswegs, dass man keine Beziehungen zu
anderen Menschen haben kann. Es verdeutlicht einfach, wie ungeheuer wichtig
alle anderen Menschen für jeden Einzelnen von uns sind.«
Auf der Grundlage dessen, was wir in diesem Kapitel gelernt haben, können
wir Sartres Behauptung möglicherweise korrigieren. Die Interaktion mit anderen
Menschen muss kein Albtraum sein – obwohl sie es im falschen Spiel zweifel-
los werden kann. Wie Keynes erkannte, ist die Beliebtheit kompliziert, nicht
handhabbar, ein rekursives Spiegelkabinett, aber für die Schönheit im Auge
des Betrachters gilt das nicht. Eine Strategie, die keine Vorwegnahme, Vorher-
sage, Interpretation oder Änderung des Kurses aufgrund der Taktiken anderer
erforderlich macht, ist eine Möglichkeit, den gordischen Knoten der Rekursion
zu durchtrennen. Und manchmal ist diese Strategie nicht nur einfach, sondern
auch optimal.
Wenn eine Änderung der Strategie nicht hilft, können wir versuchen, das Spiel
zu ändern. Und wenn das nicht möglich ist, können wir zumindest bis zu einem
gewissen Punkt wählen, an welchen Spielen wir uns beteiligen wollen. Der Weg in
die Hölle ist mit schwer handhabbaren Rekursionen, schlechten Gleichgewichten
und Informationskaskaden gepflastert. Suchen Sie sich Spiele aus, in denen Auf-
richtigkeit die dominante Strategie ist. Und dann seien Sie einfach Sie selbst.

314
SCHLUSS
RECHNERISCHE FREUNDLICHKEIT

Es ist meine feste Überzeugung, dass die wichtigsten Merkmale


des menschlichen Lebens sozialer Natur sind und dass uns die
Maschinen, indem sie uns viele unserer mühsamen intellektuellen
Funktionen abnehmen, endlich Zeit und Anreize geben werden,
herauszufinden, wie wir gut zusammenleben können.
Merrill Flood573

J
edes dynamische System, das räumlichen und zeitlichen Beschränkungen
unterworfen ist, muss einige grundlegende und unvermeidliche Probleme
bewältigen. Dabei handelt es sich um Berechnungsprobleme – weshalb die
Computer nicht nur unsere Werkzeuge, sondern auch unsere Gefährten sind.
Daraus lassen sich drei einfache Erkenntnisse ableiten.
Erstens gibt es Fälle, für die Informatiker und Mathematiker gute algo­rith­
mische Lösungen gefunden haben, die leicht auf menschliche Probleme übertragen
werden können. Die 37-Prozent-Regel, die Least-Recently-Used-Strategie für die
Entlastung überlaufender Cache-Speicher und die Obere Konfidenzschranke als
Hilfsmittel der Erkundung sind Beispiele dafür.
Zweitens sollte die Gewissheit, einen optimalen Algorithmus zu verwenden,
eine Erleichterung sein, selbst wenn wir nicht das ideale Resultat erzielen. Die
37-Prozent-Regel führt in 63 Prozent der Fälle nicht zum Erfolg. Einen Cache-
Speicher mithilfe des LRU-Algorithmus zu entlasten, ist keine Gewähr dafür,
dass wir immer finden werden, wonach wir suchen (das würde tatsächlich nicht
einmal Hellsicht garantieren). Die Anwendung der Oberen Konfidenzschranke
auf den Explore/Exploit-Tradeoff bedeutet nicht, dass wir nie etwas bedauern

315
Schluss

werden, sondern nur, dass wir im Lauf unseres Lebens immer langsamer Reue
anhäufen werden. Selbst die beste Strategie führt manchmal zu schlechten Er-
gebnissen – was der Grund dafür ist, dass es den Informatikern sehr wichtig ist,
zwischen »Prozess« und »Resultat« zu unterscheiden. Wenn wir das beste mög-
liche Verfahren anwenden, haben wir alles getan, was in unserer Macht stand,
und müssen uns keine Vorwürfe machen, wenn die Dinge nicht so funktionieren
wie gewünscht.
Ergebnisse machen Schlagzeilen – tatsächlich erzeugen sie die Welt, in der
wir leben –, weshalb es leicht ist, sich darauf zu fixieren. Aber die Verfahren sind
das, was wir steuern können. Wie es Bertrand Russell ausdrückte: »Es scheint,
dass wir beim Urteil darüber, was objektiv richtig ist, die Wahrscheinlichkeit
berücksichtigen müssen. […] Die objektiv richtige Handlung ist jene, die wahr­
scheinlich zum günstigsten Ergebnis führen wird. Wir können sie als die weiseste
Handlung definieren.«574 Wir dürfen auf das günstigste Ergebnis hoffen, aber
wir sollten nach Weisheit streben. Man könnte es als eine Art von rechnerischem
Stoizismus bezeichnen.575
Schließlich können wir zwischen Problemen, für die es klare Lösungen gibt,
und solchen unterscheiden, für die es keine solchen Lösungen gibt. Wenn Sie
sich in einer schwer handhabbaren Situation wiederfinden, sollten Sie sich in
Erinnerung rufen, dass Heuristik, Approximation und der strategische Einsatz
der Zufälligkeit die Suche nach einer Lösung erleichtern können. Eine Erkennt-
nis, die in unseren Interviews mit Informatikern immer wieder auftauchte, war
diese: Manchmal ist »gut genug« tatsächlich gut genug. Obendrein kann uns
das Bewusstsein der Komplexität dabei helfen, uns selbst auszusuchen, welche
Probleme wir in Angriff nehmen wollen: Wenn wir steuern können, welchen
Situationen wir uns aussetzen wollen, sollten wir jene auswählen, die handhab-
bar sind.
Aber wir suchen uns nicht nur aus, welche Probleme wir in Angriff nehmen
wollen. Wir suchen auch die Probleme aus, mit denen wir einander konfrontieren
wollen, sei es durch die Art, wie wir eine Stadt planen oder wie wir eine Frage
stellen. Das stellt einen überraschenden Zusammenhang zwischen Informatik
und Ethik her – in Form eines Prinzips, das wir als rechnerische Freundlichkeit
bezeichnen.

316
Rechnerische Freundlichkeit

Bei der Planung der Interviews für dieses Buch beobachteten wir ein paradoxes
Phänomen. Wenn wir einem Gesprächspartner einen Termin zum Beispiel »am
nächsten Dienstag zwischen ein und zwei Uhr nachmittags« vorschlugen, so
stimmte er einem Treffen eher zu, als wenn wir ihm vorschlugen, uns »einen
passenden Zeitpunkt in der kommenden Woche« zu nennen. Auf den ersten
Blick wirkt das absurd; es ist wie in den Studien, die zeigen, dass die Leute im
Durchschnitt mehr Geld für die Rettung des Lebens eines Pinguins als für die
Rettung von 8000 Pinguinen spenden, oder dass die Befragten größere Angst
vor dem Tod bei einem Terroranschlag haben als davor, durch irgendein Unglück
einschließlich eines Terroranschlags zu sterben. Im Fall unserer Interviewtermine
zogen unsere Gesprächspartner anscheinend ein eingegrenztes Problem einem
offenen vor, selbst wenn die Eingrenzung sehr unbestimmt war. Anscheinend
fiel es ihnen leichter, sich unseren Präferenzen und Beschränkungen anzupassen,
als ausgehend von ihren eigenen Präferenzen und Beschränkungen eine bessere
Option zu suchen. Ein Informatiker wird an dieser Stelle wissend nicken und
auf die Komplexitätslücke zwischen »Verifizierung« und »Suche« verweisen – die
etwa so groß ist wie die Lücke zwischen der Fähigkeit, einen guten Song zu er-
kennen, wenn man ihn hört, und der Fähigkeit, auf der Stelle selbst einen guten
Song zu schreiben.576
So sonderbar es scheinen mag: Eines der impliziten Prinzipien der Informatik
lautet, dass die Berechnung schlecht ist: Der Zweck jedes guten Algorithmus besteht
darin, die Denkarbeit auf ein Mindestmaß zu reduzieren. Wenn wir mit anderen
Menschen interagieren, konfrontieren wir sie mit Berechnungsproblemen – nicht
nur mit expliziten Wünschen und Forderungen, sondern auch mit impliziten
Herausforderungen wie der, unsere Absichten, Überzeugungen und Vorlieben
zu deuten. Daher können wir annehmen, dass ein berechnetes Verständnis der-
artiger Probleme ein Licht auf die Natur der menschlichen Interaktion wirft. Wir
können »rechnerisch freundlich« zu anderen Menschen sein, indem wir Probleme
so formulieren, dass die Lösung des zugrunde liegenden Berechnungsproblems
erleichtert wird. Das ist wichtig, weil viele Probleme – insbesondere soziale, wie
wir gesehen haben – intrinsisch und unausweichlich schwer sind.
Nehmen wir das folgende vertraute Szenario: Mehrere Freunde stehen auf
der Straße und versuchen zu klären, in welches Restaurant sie gehen sollen. Jede
dieser Personen hat Präferenzen, selbst wenn diese potenziell nicht überzeugend
sind. Aber keiner der Freunde möchte seine Vorlieben offenlegen. Also versuchen

317
Schluss

sie alle, die sozialen Hürden mit Vermutungen und verdeckten Hinweisen zu
überwinden.
Es ist durchaus möglich, dass sie zu einer für alle Beteiligten befriedigenden
Lösung gelangen. Aber dieses Verfahren kann leicht in eine Sackgasse führen.
Ein Beispiel: Im Sommer nach dem Abschluss seines Studiums unternahm Brian
gemeinsam mit zwei Freunden eine Reise nach Spanien. Die Reiseroute gestalteten
sie unterwegs, und irgendwann wurde klar, dass sie keine Zeit haben würden,
sich einen Stierkampf anzusehen, obwohl dieses Spektakel auf ihrem Programm
stand. Erst als sie einander wegen der entgangenen Gelegenheit gegenseitig
trösten mussten, entdeckten sie, dass in Wahrheit keiner von ihnen einen Stier-
kampf hatte sehen wollen. Jeder von ihnen hatte sich die scheinbare Begeisterung
seiner Freunde zueigen gemacht und dadurch die Begeisterung erzeugt, die seine
Freunde im Gegenzug übernahmen.577
Hinter scheinbar harmlosen Äußerungen wie »Mir ist alles recht« oder »Was
wollt ihr heute Abend machen?« verbergen sich Berechnungsfragen, über die wir
genauer nachdenken sollten. Hinter der Fassade der Freundlichkeit finden wir zwei
sehr alarmierende Verhaltensweisen. Erstens wird der kognitive Schwarze Peter
weitergereicht: »Hier ist ein Problem, kümmere du dich darum.« Zweitens laden
wir, indem wir unsere Präferenzen nicht artikulieren, andere ein, sie zu simulieren
oder sie sich vorzustellen. Und wie wir gesehen haben, ist die Simulation der
Gedanken anderer eine der größten Berechnungsherausforderungen, mit der ein
Verstand (oder eine Maschine) konfrontiert werden kann.
In solchen Situationen sind rechnerische Freundlichkeit und her­kömmliche
Etikette unvereinbar. Indem wir unsere eigenen Präferenzen aus Freundlichkeit
zurückhalten, bürden wir der übrigen Gruppe das Berechnungsproblem auf, sich
ein Bild von unseren Vorlieben zu machen. Indem wir hingegen höflich unsere
eigenen Präferenzen geltend machen (»Ich persönlich neige zu x. Was meinst du?«),
übernehmen wir einen Teil der kognitiven Last, die damit einhergeht, die Gruppe
zu einer Entscheidung zu leiten.578
Alternativ dazu können wir versuchen, die Zahl der Optionen, die wir anderen
Personen geben, nicht zu maximieren, sondern zu verringern. Beispielsweise
können wir nicht zehn, sondern zwei oder drei Restaurants zur Wahl stellen.
Wenn jedes Mitglied der Gruppe die Option ausschließt, die ihm am wenigsten
zusagt, wird die Aufgabe für alle Beteiligten einfacher. Und wenn wir jemandem
zum Essen einladen oder einen Gesprächstermin vereinbaren wollen, besteht ein

318
Rechnerische Freundlichkeit

guter Ausgangspunkt darin, ein oder zwei konkrete Vorschläge zu machen, die
diese Person akzeptieren oder ablehnen kann.579
Diese Vorgehensweisen sind nicht zwangsläufig »höflich«, aber sie können
die Berechnungskosten der Interaktion deutlich verringern.

Rechnerische Freundlichkeit ist nicht nur ein Grundsatz für das Verhalten,
sondern auch ein Gestaltungsprinzip.
Im Jahr 2003 untersuchte der Informatiker Jeffrey Shallit von der Universität
Waterloo die Frage, welche Münze man in den Vereinigten Staaten in Umlauf
bringen müsste, um die Zahl der Münzen, die beim durchschnittlichen Wechsel-
vorgang benötigt werden, am deutlichsten zu verringern.580 Das amüsante Ergeb-
nis war, dass es eine 18-Cent-Münze wäre, aber Shallit schreckte davor zurück,
gestützt auf seine Berechnungsüberlegungen eine geldpolitische Empfehlung
abzugeben.
Gegenwärtig ist es kinderleicht, Wechselgeld herauszugeben: Bei jedem be-
liebigen Betrag werden zunächst so viele Vierteldollar-Münzen zurückgegeben,
wie möglich sind, ohne den Rückgabebetrag zu überschreiten; anschließend
werden so viele 10-Cent-Münzen wie möglich zurückgeben usw.. Beispielsweise
braucht man 2 Vierteldollar und 4 Cent, um 54 Cent zurückzugeben. Mit einer
18-Cent-Münze wäre dieser einfache Algorithmus nicht mehr optimal: Auf 54
Cent kommt man in diesem Fall am einfachsten mit drei 18-Cent-Münzen,
während man auf Vierteldollar vollkommen verzichtet. Shallit stellte fest, dass
sperrige Beträge die Berechnung des Wechselgelds »fast so schwierig wie das
Problem des Handelsreisenden« machen.581 Das dürfte einen Kassierer rasch
überfordern. Mit Blick auf eine einfache Berechnung, stellte Shallit fest, wäre es
in den Vereinigten Staaten am vorteilhaftesten, 2-Cent- oder 3-Cent-Münzen
zu verwenden. Das wäre nicht so spannend wie eine 18-Cent-Müze, aber fast
ebenso vorteilhaft – und rechnerisch sehr viel freundlicher.
Die tiefere Erkenntnis besteht darin, dass sich geringfügige Änderungen
am Design erheblich darauf auswirken können, mit welcher Art von kognitiven
Problemen Menschen konfrontiert werden. Beispielsweise stehen Architekten
und Stadtplaner vor der Wahl, wie sie unsere Umwelt gestalten wollen, und
das bedeutet, dass sie entscheiden können, wie sie die Berechnungsprobleme
strukturieren wollen, die wir lösen müssen.

319
Schluss

Nehmen wir beispielsweise einen großen Parkplatz mit zahlreichen Reihen,


wie man ihn bei Stadien und Einkaufszentren findet.582 Wir rollen durch eine
der Fahrgassen auf unser Ziel zu, sehen eine freie Parklücke, entscheiden uns
jedoch, nach einem besseren Platz zu suchen, der dem Ziel ein wenig näher ist.
Aber wir finden keinen freien Stellplatz, erreichen das Ziel und müssen uns in
einer parallelen Gasse wieder von unserem Bestimmungsort entfernen. Nach-
dem wir ein Stück gefahren sind, müssen wir entscheiden, ob ein freier Platz
gut genug oder so weit entfernt ist, dass wir besser versuchen sollten, eine dritte
Fahrgasse abzusuchen.
Es ist nicht nur für den Parkplatzsuchenden, sondern auch für den Architekten
hilfreich, dieses Problem unter algorithmischen Gesichtspunkten zu betrachten.
Stellen wir die schwierige, verwirrende Entscheidung für eine dieser Parklücken
mit der einzigen linearen Bewegung weg vom Bestimmungsort: In diesem Fall
nimmt man einfach den ersten freien Platz, den man findet – man braucht keine
Spieltheorie, keine Analyse, keine Regel »Erst schauen, dann die Entscheidung
wagen«. Manche Garagen sind so strukturiert, wobei sich eine einzige Helix
vom Erdgeschoss mehrere Parkdecks hinaufschraubt. Der Berechnungsaufwand
ist null: Man fährt einfach solange, bis man den ersten freien Platz findet, und
nimmt ihn. Welches auch immer die anderen möglichen Faktoren sein mögen, die
für und gegen eine solche Struktur sprechen, wir können zweifelsfrei feststellen,
dass sie den Autofahrern kognitiv entgegenkommt: Sie ist rechnerisch freundlich.
Eines der wichtigsten Designziele sollte stets darin bestehen, den Menschen
unnötigen Stress, Ärger und geistige Arbeit zu ersparen. (Das ist nicht bloß eine
abstrakte Überlegung: Wenn die Parkplatzsuche im Einkaufszentrum nerven-
aufreibend wird, werden die Besucher unter Umständen weniger Geld ausgeben
und weniger häufig zurückkommen.) Stadtplaner und Architekten beschäftigen
sich normalerweise mit der Frage, wie sich verschiedene Anlagendesigns auf den
Verbrauch von Ressourcen wie Platz, Material und Geld auswirken. Aber sie
denken nur selten über die Frage nach, in welchem Maß ihre Designs die Be-
rechnungsressourcen der Menschen belasten, die die Anlagen nutzen. Würden die
algorithmischen Erfordernisse des Alltagslebens – in diesem Fall das Problem des
optimalen Stoppens – in Betracht gezogen, so würden nicht nur die Autofahrer in
die Lage versetzt, in einer bestimmten Situation die beste Entscheidung zu fällen,
sondern die Planer hätten einen Anreiz, gründlicher darüber nachzudenken,
welche Probleme sie den Autofahrern aufzwingen.

320
Rechnerische Freundlichkeit

Es gibt zahlreiche andere Fälle, in denen sich rechnerisch freundlichere


Lösungen anbieten. Nehmen wir beispielsweise die Tischzuteilung in Restaurants.
In manchen Restaurants gibt es eine »freie Tischwahl«: Wartende Gäste halten
einfach nach einem frei werdenden Tisch aus, und der Erste, der sich niederlässt,
bekommt den Tisch. In anderen Lokalen werden die Namen der eintreffenden
Gäste in eine Liste eingetragen. Die wartenden Gäste können an der Bar etwas
trinken und werden aufgerufen, wenn ein Tisch frei wird. Diese unterschied-
lichen Zugänge zum Management von knappen Ressourcen entsprechen der
Unterscheidung zwischen »Spinning« und »Blocking« in der Informatik.583 Wenn
ein Ausführungsstrang eine Ressource benötigt und nicht bekommt, kann der
Computer diesem Thread entweder erlauben zu »drehen« (spin) – in einer un-
ablässigen »Ist sie schon frei?«-Schleife weiter auf die Ressource zu warten –, oder
er kann »blocken«, das heißt, den Thread anhalten, sich einer anderen Aufgabe
zuwenden und wieder auf ihn zurückkommen, wenn die Ressource frei wird.
Für einen Informatiker ist das eine praktische Abwägung zwischen dem durch
das »Spinning« verursachten Zeitverlust und dem durch den Kontextwechsel
verursachten Zeitverlust. Aber ein Restaurant hat das Problem, dass nicht alle
Ressourcen, zwischen denen abgewogen werden muss, seine eigenen sind. Durch
das »Spinning« können die frei werdenden Tische schneller gefüllt werden, aber
die Prozessorressourcen, die durch die Suche belastet werden, sind die Köpfe der
Gäste, die zu einer langweiligen, aber nervenaufreibenden Wache gezwungen
werden.
Ein paralleles Beispiel ist das Berechnungsproblem, das an einer Bushaltestelle
auftritt. Wenn eine Anzeigetafel den wartenden Fahrgästen sagt, dass der nächste
Bus in zehn Minuten kommen wird, müssen die Fahrgäste einmal entscheiden,
ob sie so lange warten wollen, anstatt dass das andauernde Ausbleiben des Busses
ein Strom von Inferenzdaten ist, der die Wartenden zwingt, in jedem Augenblick
neu zu entscheiden, ob sie warten sollen oder nicht. Außerdem müssen sich die
Fahrgäste dank der Anzeigetafel nicht zehn Minuten lang mit dem Gedanken
beschäftigen, ob sie sich besser zu Fuß auf den Weg machen sollen (Spinning).
(Jenen öffentlichen Verkehrsbetrieben, die nicht bereit sind, die für die Vorhersage
der Ankunftszeiten erforderliche Implementierungsarbeit auf sich zu nehmen,
sei gesagt, dass eine bayessche Inferenz sogar das Wissen, wann der letzte Bus
abgefahren ist, zu einem nützlichen Proxy machen kann.) Solche kleinen Akte
der rechnerischen Freundlichkeit könnten für die Fahrgäste ebenso viel, wenn

321
Schluss

nicht sogar mehr tun als eine Subvention der Fahrpreise: Wir können sie uns als
kognitive Subventionen vorstellen.

Wenn wir freundlicher zu anderen sein können, können wir auch freundlicher
zu uns selbst sein. Und zwar nicht nur rechnerisch freundlicher – alle hier be-
handelten Algorithmen und Methoden werden dazu beitragen –, sondern auch
nachsichtiger.
Der naheliegende Standard für die rationale Entscheidungsfindung besteht
darin, sich alle verfügbaren Optionen genau anzusehen und die beste zu wählen.
Der Computer wirkt auf den ersten Blick wie der Inbegriff dieses Zugangs,
denn er müht sich solange mit komplexen Berechnungen ab, bis er die perfekte
Antwort gefunden hat. Aber wie wir gesehen haben, ist diese Vorstellung von
der Arbeitsweise des Computers veraltet: Es ist ein Luxus, den sich der Computer
nur bei einem einfachen Problem leisten kann. In schwierigen Fällen dienen die
besten Algorithmen dazu, im geringsten möglichen Zeitraum das zu tun, was am
ehesten sinnvoll ist, was keineswegs bedeutet, dass sämtliche Faktoren sorgfältig
erwogen und alle Berechnungen bis zum Ende durchgeführt werden. Dafür ist
das Leben einfach zu kompliziert.
Wir haben es in fast allen hier untersuchten Bereichen gesehen: Je mehr
Faktoren aus der realen Welt wir berücksichtigen – ob wir es nun bei der Be-
urteilung von Stellenbewerbern mit unvollständiger Information zu tun haben,
in dem Bemühen, zwischen Erkundung und Verwertung abzuwägen, mit einer
sich wandelnden Welt konfrontiert werden oder bei dem Versuch, eine Aufgabe
zu bewältigen, von anderen abhängen –, desto wahrscheinlicher werden wir in
eine Situation geraten, in der die Suche nach der perfekten Lösung unverhältnis-
mäßig lange dauern würde. Tatsächlich sind die Menschen im Alltag fast immer
mit Situationen konfrontiert, die in der Informatik als schwierige Fälle eingestuft
werden. Angesichts dieser schwierigen Fälle stellen effektive Algorithmen An-
nahmen an, geben den einfacheren Lösungen Vorrang, wägen die Kosten eines
Fehlers gegen die Kosten einer Verspätung ab und gehen ein Wagnis ein.
Dies sind nicht die Zugeständnisse, die wir machen müssen, wenn wir nicht
rational sein können. Diese Zugeständnisse zu machen bedeutet, rational zu sein.

322
BIBLIOGRAFIE
Aaronson, Scott. »Reasons to Believe«. Shtetl-Optimized (Blog), 4. September 2006. http://www.
scottaaronson.com/blog/?p=122/.
Aaronson, Scott. »Why Philosophers Should Care About Computational Complexity«. arX­
iv:1108.1791, 2011. https://arxiv.org/abs/1108.1791.
Abramson, Norman. »The ALOHA System: Another Alternative for Computer Communica-
tions«. Proceedings of the November 17–19, 1970, Fall Joint Computer Conference, 1970, 281–285.
Ackley, David. »Beyond Efficiency«. Communications of the ACM 56, Nr. 10 (2013): 38–40.
Agrawal, Manindra, Neeraj Kayal und Nitin Saxena. »PRIMES Is in P«. Annals of Mathematics
160 (2004): 781–793.
Agrawal, Rajeev. »Sample Mean Based Index Policies with O(log n) Regret for the Multi-Armed
Bandit Problem«. Advances in Applied Probability 27 (1995): 1054–1078.
Agrawal, Shipra, und Navin Goyal. »Analysis of Thompson Sampling for the Multi-armed Ban-
dit Problem«. Proceedings of the 25th Annual Conference on Learning Theory, 2012.
Akerlof, George A. »Loyalty Filters«. American Economic Review 1983, 54–63.
Allen, David. Wie ich die Dinge geregelt kriege: Selbstmanagement für den Alltag. München: Piper,
2002.
Aloupis, Greg, Erik D. Demaine und Alan Guo. »Classic Nintendo Games Are (NP-) Hard«.
arXiv preprint arXiv:1203.1895, 2012.
An, Yonghong, Yingyao Hu und Matthew Shum. »Estimating First-Price Auctions with an Un-
known Number of Bidders: A Misclassification Approach«. Journal of Econometrics 157, Nr.
2 (2010): 328–341.
Anderson, John R. The Adaptive Character of Thought. Hillsdale: Erlbaum, 1990.
Anderson, John R., und Robert Milson. »Human Memory: An Adaptive Perspective«. Psycholog­
ical Review 96, Nr. 4 (1989): 703–719.
Anderson, John R., und Lael J. Schooler. »Reflections of the Environment in Memory«. Psycho­
logical Science 2, Nr. 6 (1991): 396–408.
Ariely, Dan. Denken hilft zwar, nützt aber nichts: Warum wir immer wieder unvernünftige Entschei­
dungen treffen. München: Droemer, 2008.
Arrhenius, Gustaf. »An Impossibility Theorem in Population Axiology with Weak Ordering
Assumptions«. Philosophical Studies 49 (1999): 11–21.

323
Bibliografie

Auer, Peter, Nicolò Cesa-Bianchi und Paul Fischer. »Finite- Time Analysis of the Multiarmed
Bandit Problem«. Machine Learning 47 (2002): 235–256.
Austen, Jane. Emma. München: Deutscher Taschenbuch Verlag, 2012.
Austrian, Geoffrey D. Herman Hollerith: Forgotten Giant of Information Processing. New York:
Columbia University Press, 1982.
Bachmann, Paul. Die analytische Zahlentheorie. Leipzig: Teubner, 1894.
Badger, Lee. »Lazzarini’s Lucky Approximation of π«. Mathematics Magazine 67 (1994): 83–91.
Bailey, Arthur L. Credibility Procedures: Laplace’s Generalization of Bayes’ Rule and the Combination
of Collateral Knowledge with Observed Data. New York: New York State Insurance Depart-
ment, 1950.
Baker, Kenneth R. Introduction to Sequencing and Scheduling. New York: Wiley, 1974.
Baker, Kenneth R., Eugene L. Lawler, Jan Karel Lenstra und Alexander H. G. Rinnooy Kan.
»Preemptive Scheduling of a Single Machine to Minimize Maximum Cost Subject to Release
Dates and Precedence Constraints«. Operations Research 31, Nr. 2 (1983): 381–386.
Baltzly, Dirk. »Stoicism«. In: Edward N. Zalta. The Stanford Encyclopedia of Philosophy (2014).
http://plato.stanford.edu/archives/spr2014/entries/stoicism/.
Banks, Jeffrey S., und Rangarajan K. Sundaram. »Switching Costs and the Gittins Index«. Econo­
metrica 62 (1994): 687–694.
Barabási, Albert-László. Linked: How Every thing Is Connected to Every thing Else and What It
Means for Business, Science, and Everyday Life. New York: Penguin, 2002.
Baran, Paul. »On Distributed Communications«. RAND Corporation Research Documents I–XI,
August 1964, 637–648.
Barnard, Chester I. The Functions of the Executive. Cambridge: Harvard University Press, 1938.
Bartlett, Robert H., Dietrich W. Roloff, Richard G. Cornell, Alice French Andrews, Peter W.
Dillon und Joseph B. Zwischenberger. »Extracorporeal Circulation in Neonatal Respiratory
Failure: A Prospective Randomized Study«. Pediatrics 76, Nr. 4 (1985): 479–487.
Baumgardt, Carola. Johannes Kepler: Leben und Briefe. Wiesbaden: Limes, 1953.
Bavelas, Janet B., Linda Coates und Trudy Johnson. »Listeners as Co-Narrators«. Journal of Per­
sonality and Social Psychology 79, Nr. 6 (2000): 941–952.
Bayes, Thomas. »An Essay Towards Solving a Problem in the Doctrine of Chances«. Philosophical
Transactions 53 (1763): 370–418.
Bearden, Neil. »A New Secretary Problem with Rank-Based Selection and Cardinal Payoffs«.
Journal of Mathematical Psychology 50 (2006): 58–59.
Bélády, Laszlo A. »A Study of Replacement Algorithms for a Virtual-Storage Computer«. IBM
Systems Journal 5 (1966): 78–101.
Bélády, Laszlo A., Robert A Nelson und Gerald S. Shedler. »An Anomaly in Space-Time Char-
acteristics of Certain Programs Running in a Paging Machine«. Communications of the ACM
12, Nr. 6 (1969): 349–353.
Belew, Richard K. Finding Out About: A Cognitive Perspective on Search Engine Technology and the
WWW. Cambridge: Cambridge University Press, 2000.
Bell, Aubrey F. G. In Portugal. New York: John Lane, 1912.

324
Bibliografie

Bellhouse, David R. »The Reverend Thomas Bayes, FRS: A Biography to Celebrate the Tercen-
tenary of His Birth«. Statistical Science 19 (2004): 3–43.
Bellman, Richard. Dynamic Programming. Princeton: Princeton University Press, 1957.
Bellman, Richard. »A Problem in the Sequential Design of Experiments«. Sankhyā: The Indian
Journal of Statistics 16 (1956): 221–229.
Bellows, Meghan L., und J. D. Luc Peterson. »Finding an Optimal Seating Chart«. Annals of
Improbable Research (2012).
Benenson, Itzhak, Karel Martens und Slava Birfir. »PARKAGENT: An Agent-Based Model of
Parking in the City«. Computers, Environment and Urban Systems 32, Nr. 6 (2008): 431–439.
Beresowsko, Boris, und Alexander V. Gnedin. Problems of Best Choice. Moskau: Akademia Nauk,
1984.
Berg-Kirkpatrick, Taylor, und Dan Klein. »Decipherment with a Million Random Restarts«. Pro­
ceedings of the Conference on Empirical Methods in Natural Language Processing (2013): 874–878.
Bernardo, Antonio E., und Ivo Welch. »On the Evolution of Overconfi dence and Entrepre-
neurs«. Journal of Economics & Management Strategy 10, Nr. 3 (2001): 301–330.
Berry, Donald A. »A Bernoulli Two-Armed Bandit«. Annals of Mathematical Statistics 43 (1972):
871–897.
Berry, Donald A. »Comment: Ethics and ECMO«. Statistical Science 4 (1989): 306–310.
Berry, Donald A., und Bert Fristed. Bandit Problems: Sequential Allocation of Experiments. New
York: Chapman and Hall, 1985.
Bettencourt, Luís M. A., José Lobo, Dirk Helbing, Christian Kühnert und Geoffrey B. West.
»Growth, Innovation, Scaling, and the Pace of Life in Cities«. Proceedings of the National
Academy of Sciences 104, Nr. 17 (2007): 7301–7306.
Bikhchandani, Sushil, David Hirshleifer und Ivo Welch. »A Theory of Fads, Fashion, Custom,
and Cultural Change as Informational Cascades«. Journal of Political Economy 100, Nr. 5
(1992): 992–1026.
Bikhchandani, Sushil, David Hirshleifer und Ivo Welch. »Learning from the Behavior of Oth-
ers: Conformity, Fads, and Informational Cascades«. Journal of Economic Perspectives 12, Nr. 3
(1998): 151–170.
Binmore, Ken. Game Theory: A Very Short Introduction. New York: Oxford University Press, 2007.
Binmore, Ken. Natural Justice. New York: Oxford University Press, 2005.
Bjarnason, Ronald, Alan Fern und Prasad Tadepalli. »Lower Bounding Klondike Solitaire with
Monte-Carlo Planning«. Proceedings of the 19th International Conference on Automated Plan­
ning and Scheduling, ICAPS 2009.
Blau, Peter Michael. The Dynamics of Bureaucracy: A Study of Interpersonal Relations in Two Gov­
ernment Agencies. Chicago: University of Chicago Press, 1955.
Bloom, Burton H. »Space/Time Trade-offs in Hash Coding with Allowable Errors«. Communi­
cations of the ACM 13, Nr. 7 (1970): 422–426.
Boguslavsky, Leonid, Karim Harzallah, A. Kreinen, K. Sevcik und Alexander Vainshtein. »Opti-
mal Strategies for Spinning and Blocking«. Journal of Parallel and Distributed Computing 21,
Nr. 2 (1994): 246–254.

325
Bibliografie

Boorstin, Daniel. The Discoverers: A History of Man’s Search to Know His World and Himself. New
York: Random House, 1983.
Bradt, Russell N., S. M. Johnson und Samuel Karlin. »On Sequential Designs for Maximizing the
Sum of N Observations«. Annals of Mathematical Statistics 27 (1956): 1060–1074.
Branch, John. »Snow Fall: The Avalanche at Tunnel Creek«. New York Times, 20. Dezember 2012.
Brown, Alexander L., und Joanna N. Lahey. Small Victories: Creating Intrinsic Motivation in Sav­
ings and Debt Reduction. Technischer Bericht. Cambridge: National Bureau of Economic Re-
search, 2014.
Brush, Eleanor R., David C. Krakauer und Jessica C. Flack. »A Family of Algorithms for Com-
puting Consensus About Node State from Network Data«. PLoS Computational Biology 9,
Nr. 7 (2013).
Bruss, F. Thomas. »A Unified Approach to a Class of Best Choice Problems with an Unknown
Number of Options«. Annals of Probability 12 (1984): 882–889.
Bruss, F. Thomas. »What Is Known About Robbins’ Problem?«. Journal of Applied Probability 42,
Nr. 1 (2005): 108–120.
Bruss, F. Thomas, und Thomas S. Ferguson. »Half-Prophets and Robbins’ Problem of Minimiz-
ing the Expected Rank«. Athens Conference on Applied Probability and Time Series Analysis,
1–17. New York: Springer, 1996.
Buch, P. »Future Prospects Discussed«. Nature 368 (1994): 107–108.
Buffon, Georges-Louis Leclerc, Comte de. »Essai d’arithmétique morale«. Supplément a l’Histoire
naturelle, générale et particuliére 4 (1777): 46–148.
Burks, Arthur W., Herman H. Goldstine und John von Neumann. Preliminary Discussion of the
Logical Design of an Electronic Computing Instrument. Princeton: Institute for Advanced Study,
1946.
Burrell, Quentin. »A Simple Stochastic Model for Library Loans«. Journal of Documentation 36,
Nr. 2 (1980): 115–132.
Burthe Jr., Ronald. »Further Investigations with the Strong Probable Prime Test«. Mathematics of
Computation of the American Mathematical Society 65, Nr. 213 (1996): 373–381.
Cabell, James Branch. The Silver Stallion. New York: Robert M. McBride, 1926.
Campbell, Donald T. »Blind Variation and Selective Retention in Creative Thought as in Other
Knowledge Processes«. Psychological Review 67 (1960): 380–400.
Carpenter, Brian, und Robert Hinden. Adaptation of RFC 1149 for IPv6. Technischer Bericht.
RFC 6214, April 2011.
Carroll, Lewis. Sylvie und Bruno. München: Deutscher Taschenbuch Verlag, 2006.
Carstensen, Laura L. »Social and Emotional Patterns in Adulthood: Support for Socioemotional
Selectivity Theory«. Psychology and Aging 7 (1992): 331–338.
Cassady, C. Richard, und John E. Kobza. »A Probabilistic Approach to Evaluate Strategies for
Selecting a Parking Space«. Transportation Science 32, Nr. 1 (1998): 30–42.
Cawdrey, Robert. A Table Alphabeticall, conteyning and teaching the true writing, and vnderstanding
of hard vsuall English wordes, borrowed from the Hebrew, Greeke, Latine, or French, &c. With the
interpretation thereof by plaine En glish words, gathered for the benefit & helpe of ladies, gentle­

326
Bibliografie

women, or any other vnskilfull persons. Whereby they may the more easilie and better vnderstand
many hard English wordes, which they shall heare or read in Scriptures, Sermons, or elswhere, and
also be made able to vse the same aptly themselues. London: Edmund Weaver, 1604.
Cayley, Arthur. »Mathematical Questions with Their Solutions«. Educational Times 23 (1875):
18–19.
Cayley, Arthur. The Collected Mathematical Papers of Arthur Cayley 10: 587–588. Cambridge:
Cambridge University Press, 1896.
Cerf, Vinton G., und Robert E. Kahn. »A Protocol for Packet Network Intercommunication«.
IEEE Transactions on Communications 22, Nr. 5 (1974): 637–648.
Chabert, Jean-Luc, Evelyne Barbin und Christopher John Weeks. A History of Algorithms: From
the Pebble to the Microchip. Berlin: Springer, 1999.
Charles, Susan T., und Laura L. Carstensen. »Social and Emotional Aging«. Annual Review of
Psychology 61 (2010): 383–409.
Chen, Stanley F., und Joshua Goodman. »An Empirical Study of Smoothing Techniques for
Language Modeling«. Proceedings of the 34th Annual Meeting of the Association for Computa­
tional Linguistics, 1996, 310–318.
Chen, Xi, und Xiaotie Deng. »Settling the Complexity of Two- Player Nash Equilibrium«. Foun­
dations of Computer Science, 2006, 261–272.
Chow, Y. S., und Herbert Robbins. »A Martingale System Theorem and Applications«. Pro­
ceedings of the Fourth Berkeley Symposium on Mathematical Statistics and Probability. Berkeley:
University of California Press, 1961.
Chow, Y. S., und Herbert Robbins. »On Optimal Stopping Rules«. Probability Theory and Related
Fields 2 (1963): 33–49.
Chow, Y. S., Sigaiti Moriguti, Herbert Robbins und S. M. Samuels. »Optimal Selection Based
on Relative Rank (the ›Secretary Problem‹)«. Israel Journal of Mathematics 2 (1964): 81–90.
Christian, Brian. »The A/B Test: Inside the Technology That’s Changing the Rules of Business«.
Wired Magazine 20, Nr. 5 (2012).
Christofides, Nicos. Worst-Case Analysis of a New Heuristic for the Travelling Salesman Problem.
Technischer Bericht 388. Pittsburgh: Graduate School of Industrial Administration, Carne-
gie Mellon University, 1976.
Churchill, Winston. Winston S. Churchill: His Complete Speeches, 1897–1963. London: Chelsea
House, 1974.
Cirillo, Francesco. The Pomodoro Technique. Raleigh: Lulu, 2009.
Clarke, Donald D., und Louis Sokoloff. »Circulation and Energy Metabolism of the Brain«. in:
George J. Siegel, Bernard W. Agranoff , R. Wayne Albers, Stephen K. Fisher und Michael D.
Uhler (Hg.). Basic Neurochemistry: Molecular, Cellular and Medical Aspects, 6. Aufl. Philadel-
phia: Lippincott-Raven, 1999, 637–669.
Clauset, Aaron, Cosma Rohilla Shalizi und Mark E. J. Newman. »Power-Law Distributions in
Empirical Data«. SIAM Review 51, Nr. 4 (2009): 661–703.
Cobham, Alan. »The Intrinsic Computational Difficulty of Functions«. Proceedings of the 1964
Congress on Logic, Methodology and Philosophy of Science. Amsterdam: North Holland, 1964.

327
Bibliografie

Conan Doyle, Arthur. »A Study in Scarlet: The Reminiscences of John H. Watson«. Beeton’s
Christmas Annual, Bd. 29. London: Ward, Lock, 1887.
Connor, James A. Kepler’s Witch: An Astronomer’s Discovery of Cosmic Order Amid Religious War,
Political Intrigue, and the Heresy Trial of His Mother. New York: HarperCollins, 2004.
Conti, Carl J., Donald H. Gibson und Stanley H. Pitkowsky. »Structural Aspects of the Sys-
tem/360 Model 85, I: General Organization«. IBM Systems Journal 7 (1968): 2–14.
Cook, Stephen A. »The Complexity of Theorem-Proving Procedures«. Proceedings of the Third
Annual ACM Symposium on Theory of Computing, 1971, 151–158.
Cook, William. In Pursuit of the Traveling Salesman: Mathematics at the Limits of Computation.
Princeton: Princeton University Press, 2012.
Covey, Stephen R. How to Succeed with People. Salt Lake City: Shadow Mountain, 1971.
Craig, J. V. Aggressive Behavior of Chickens: Some Effects of Social and Physical Environments. Vorge-
legt beim 27. Annual National Breeder’s Roundtable, Kansas City, 11. Mai 1978.
Dale, Andrew I. A History of Inverse Probability: From Thomas Bayes to Karl Pearson. New York:
Springer, 1999.
Daly, Lloyd W. Contributions to a History of Alphabetization in Antiquity and the Middle Ages.
Brüssel: Latomus, 1967.
Damgård, Ivan, Peter Landrock und Carl Pomerance. »Average Case Error Estimates for the
Strong Probable Prime Test«. Mathematics of Computation 61, Nr. 203 (1993): 177–194.
Daniels, Bryan C., David C. Krakauer und Jessica C. Flack. »Sparse Code of Conflict in a Pri-
mate Society«. Proceedings of the National Academy of Sciences 109, Nr. 35 (2012): 14259–14264.
Darwin, Charles. The Correspondence of Charles Darwin, Volume 2: 1837–1843. Frederick Bur-
khardt und Sydney Smith (Hg.). Cambridge: Cambridge University Press, 1987.
Daskalakis, Constantinos, Paul W. Goldberg und Christos H. Papadimitriou. »The Complexity
of Computing a Nash Equilibrium«. ACM Symposium on Theory of Computing, 2006, 71–78.
Daskalakis, Constantinos, Paul W. Goldberg und Christos H. Papadimitriou. »The Complexity
of Computing a Nash Equilibrium«. SIAM Journal on Computing 39, Nr. 1 (2009): 195–259.
Davis, Lydia. Almost No Memory: Stories. New York: Farrar, Straus & Giroux, 1997.
Davis, Lydia. Fast keine Erinnerung: Stories. Graz: Droschl, 2008.
Davis, Lydia, Kanns nicht und wills nicht: Stories. Graz: Droschl, 2014.
Dawkins, Richard. Die Schöpfungslüge: Warum Darwin recht hat. 2. Aufl. Berlin: Ullstein, 2010.
DeDeo, Simon, David C. Krakauer und Jessica C. Flack. »Evidence of Strategic Periodicities in
Collective Conflict Dynamics«. Journal of The Royal Society Interface, 2011.
DeGroot, Morris. Optimal Statistical Decisions. New York: McGraw-Hill, 1970.
DeGroot, Morris. »Some Problems of Optimal Stopping«. Journal of the Royal Statistical Society,
Series B (Methodological) 30 (1968): 108–122.
Demaine, Erik D., Susan Hohenberger und David Liben- Nowell. »Tetris Is Hard, Even to Ap-
proximate«. Computing and Combinatorics, 351–363. New York: Springer, 2003.
DeMillo, Richard A., und Richard J. Lipton. »A Probabilistic Remark on Algebraic Program
Testing«. Information Processing Letters 7, Nr. 4 (1978): 193–195.

328
Bibliografie

Denning, Peter J. »Thrashing: Its Causes and Prevention«. Proceedings of the December 9–11, 1968,
Fall Joint Computer Conference, Part I, 1968, 915–922.
Diffie, Whitfield, und Martin E. Hellman. »New Directions in Cryptography.« Information The­
ory, IEEE Transactions on 22, Nr. 6 (1976): 644–654.
Dillard, Annie. Ich schreibe. Wien/Salzburg: Residenz, 1998.
Dillard, Annie. Pilger am Tinker Creek. Berlin: Matthes & Seitz, 2016.
Dillard, Annie. Pilgrim at Tinker Creek. New York: Harper’s Magazine Press, 1974.
Dodgson, Charles Lutwidge. »Lawn Tennis Tournaments: The True Method of Assigning Prizes
with a Proof of the Fallacy of the Present Method«. St. James’s Gazette, 1. August 1883: 5–6.
Durant, Will. The Story of Philosophy: The Lives and Opinions of the Greater Philosophers. New York:
Simon & Schuster, 1924.
Edmonds, Jack. »Optimum Branchings«. Journal of Research of the National Bureau of Standards
71B, Nr. 4 (1967): 233–240.
Edmonds, Jack. »Paths, Trees, and Flowers«. Canadian Journal of Mathematics 17, Nr. 3 (1965):
449–467.
Erlang, Agner Krarup. »Solution of Some Problems in the Theory of Probabilities of Significance
in Automatic Telephone Exchanges«. Elektrotkeknikeren 13 (1917): 5–13.
Erlang, Agner Krarup. »The Theory of Probabilities and Telephone Conversations«. Nyt Tidss­
krift for Matematik B 20, Nr. 33–39 (1909): 16.
Everett III, Hugh. »Generalized Lagrange Multiplier Method for Solving Problems of Optimum
Allocation of Resources«. Operations Research 11, Nr. 3 (1963): 399–417.
Feldman, Dorian. »Contributions to the ›Two-Armed Bandit‹ Problem«. Annals of Mathematical
Statistics 33 (1962): 847–856.
Ferguson, Thomas. Optimal Stopping and Applications. Zugänglich unter: http:www.math.ucla.
edu/~tom/Stopping/2008.
Ferguson, Thomas S. »Stopping a Sum During a Success Run«. Annals of Statistics 4 (1976):
252–264.
Ferguson, Thomas S. »Who Solved the Secretary Problem?«. Statistical Science 4 (1989): 282–289.
Ferguson, Thomas S., Janis P. Hardwick und Mitsushi Tamaki. »Maximizing the Duration of
Owning a Relatively Best Object«. Strategies for Sequential Search and Se lection in Real Time,
37–57. Providence: American Mathematical Society, 1992.
Ferriss, Timothy. Die 4-Stunden-Woche. 9. Aufl., Berlin: Ullstein, 2015.
Fiore, Neil A. Vorbei mit der Aufschieberei!: Wie Sie die Dinge geregelt kriegen und Ihr Leben zurück­
gewinnen. Kirchzarten: VAK, 2012.
Fisher, Marshall. »The Lagrangian Relaxation Method for Solving Integer Programming Prob-
lems«. Management Science 27, Nr. 1 (1981): 1–18.
Fitzgerald, F. Scott. Der Knacks. Berlin: Merve, 1984.
Flood, Merrill. »Soft News«. Datamation 30, Nr. 20 (1984): 15–16.
Flood, Merrill. »Some Experimental Games«. Research Memorandum RM-789. Santa Monica:
RAND, 1952.

329
Bibliografie

Flood, Merrill. »The Traveling-Salesman Problem«. Operations Research 4, Nr. 1 (1956): 61–75.
Flood, Merrill. »What Future Is There for Intelligent Machines?« Audio Visual Communication
Review 11, Nr. 6 (1963): 260–270.
Forster, Edward. Howards End. London: Edward Arnold, 1910.
Fortnow, Lance. The Golden Ticket: P, NP, and the Search for the Impossible. Princeton: Princeton
University Press, 2013.
Fraker, Guy. »The Real Lincoln Highway: The Forgotten Lincoln Circuit Markers«. Journal of the
Abraham Lincoln Association 25 (2004): 76–97.
Frank, Robert. »If Homo Economicus Could Choose His Own Utility Function, Would He
Want One with a Conscience?« American Economic Review 1987, 593–604.
Frank, Robert. Passions within Reason: The Strategic Role of the Emotions. New York: Norton, 1988.
Fredrickson, Barbara L., und Laura L. Carstensen. »Choosing Social Partners: How Old Age and
Anticipated Endings Make People More Selective«. Psychology and Aging 5 (1990): 335–347.
Freeman, P. R. »The Secretary Problem and Its Extensions: A Review«. International Statistical
Review 51 (1983): 189–206.
Fung, Helene H., Laura L. Carstensen und Amy M. Lutz. »Influence of Time on Social Prefer-
ences: Implications for Life-Span Development«. Psychology and Aging 14 (1999): 595–604.
Gal, David, und Blakeley B. McShane. »Can Small Victories Help Win the War? Evidence from
Consumer Debt Management«. Journal of Marketing Research 49 (2012): 487–501.
Gallagher, P., und C. Kerry. Digital Signature Standard. FIPS PUB 186-4, 2013.
Garey, Michael R., und David S. Johnson. Computers and Intractability: A Guide to NP-Complete­
ness. New York: W. H. Freeman, 1979.
Garfield, Eugene. »Recognizing the Role of Chance«. Scientist 2, Nr. 8 (1988): 10.
Garrett, A. J. M., und P. Coles. »Bayesian Inductive Inference and the Anthropic Cosmological
Principle«. Comments on Astrophysics. 17 (1993): 23–47.
Gasarch, William I. »Th e P =? NP Poll«. SIGACT News 33, Nr. 2 (2002): 34–47.
Gauthier, David P. Morals by Agreement. New York: Oxford University Press, 1985.
Geman, Stuart, Elie Bienenstock und René Doursat. »Neural Networks and the Bias/Variance
Dilemma«. Neural Computation 4, Nr. 1 (1992): 1–58.
Geoffrion, Arthur. »Lagrangean Relaxation for Integer Programming«. Mathematical Program­
ming Study 2 (1974): 82–114.
Geoffrion, Arthur. »Lagrangian Relaxation for Integer Programming«. In: Michael Juenger,
Thomas M. Liebling, Denis Naddef, George L. Nemhauser, William R. Pulleyblank, Gerhard
Reinelt, Giovanni Rinaldi und Laurence A. Wolsey (Hg.), 50 Years of Integer Programming
1958–2008: From Early Years to State of the Art. Berlin: Springer, 2010, 243–281.
Gigerenzer, Gerd, und Henry Brighton. »Homo Heuristicus: Why Biased Minds Make Better
Inferences«. Topics in Cognitive Science 1, Nr. 1 (2009): 107–143.
Gilbert, Daniel. Ins Glück stolpern: Über die Unvorhersehbarkeit dessen, was wir uns am meisten
wünschen. München: Riemann, 2007.

330
Bibliografie

Gilbert, John P., und Frederick Mosteller. »Recognizing the Maximum of a Sequence«. Journal of
the American Statistical Association 61 (1966): 35–75.
Gilboa, Itzhak, und Eitan Zemel. »Nash and Correlated Equilibria: Some Complexity Consider-
ations«. Games and Economic Behavior 1, Nr. 1 (1989): 80–93.
Gillispie, Charles Coulston. Pierre-Simon Laplace, 1749–1827: A Life in Exact Science. Princeton:
Princeton University Press, 2000.
Gilmore, Paul C., und Ralph E. Gomory. »A Linear Programming Approach to the Cutting
Stock Problem, Part II«. Operations Research 11, Nr. 6 (1963): 863–888.
Gilovich, Thomas. How We Know What Isn’t So. New York: Simon & Schuster, 2008.
Ginsberg, Allen. Howl and Other Poems. San Francisco: City Lights Books, 1956.
Gittins, John C. »Bandit Processes and Dynamic Allocation Indices«. Journal of the Royal Statis­
tical Society, Series B (Methodological) 41 (1979): 148–177.
Gittins, John C., Kevin Glazebrook und Richard Weber. Multi-Armed Bandit Allocation Indices.
2. Aufl., Chichester: Wiley, 2011.
Gittins, John C., und D. Jones. »A Dynamic Allocation Index for the Sequential Design of Ex-
periments«. Progress in Statistics. Amsterdam: North Holland, 1974, 241–266.
Glassner, Barry. »Narrative Techniques of Fear Mongering«. Social Research 71 (2004): 819–826.
Goldberg, Paul W., und Christos H. Papadimitriou. »Reducibility Between Equilibrium Prob-
lems«. ACM Symposium on Theory of Computing 2006, 62–70.
Good, Irving John. Good Thinking: The Foundations of Probability and Its Applications. Minneapo-
lis: University of Minnesota Press, 1983.
Gopnik, Alison, Andrew N. Meltzoff und Patricia K. Kuhl, Forschergeist in Windeln: Wie Ihr Kind
die Welt begreift. München: Piper, 2005.
Gordon, Deborah. »Control Without Hierarchy«. Nature 446, Nr. 7132 (2007): 143.
Gott, J. R. »Future Prospects Discussed«. Nature 368 (1994): 108.
Gott, J. R. »Implications of the Copernican Principle for Our Future Prospects«. Nature 363
(1993): 315–319.
Gould, Stephen Jay. »The Median Isn’t the Message«. Discover 6, Nr. 6 (1985): 40–42.
Graham, Ronald L., Eugene L. Lawler, Jan Karel Lenstra und Alexander H. G. Rinnooy Kan.
»Optimization and Approximation in Deterministic Sequencing and Scheduling: A Survey«.
Annals of Discrete Mathematics 5 (1979): 287–326.
Grenander, Ulf. »On Empirical Spectral Analysis of Stochastic Processes«. Arkiv för Matematik
1, Nr. 6 (1952): 503–531.
Gridgeman, T. »Geometric Probability and the Number π«. Scripta Mathematika 25, Nr. 3 (1960):
183–195.
Griffiths, Thomas L., Charles Kemp und Joshua B. Tenenbaum. »Bayesian Models of Cogni-
tion«. In: Ron Sun (Hg.), The Cambridge Handbook of Computational Cognitive Modeling.
Cambridge: Cambridge University Press, 2008.
Griffiths, Thomas L., Falk Lieder und Noah D. Goodman. »Rational Use of Cognitive Resourc-
es: Levels of Analysis Between the Computational and the Algorithmic«. Topics in Cognitive
Science 7 (2015): 217–229.

331
Bibliografie

Griffiths, Thomas L., David M. Sobel, Joshua B. Tenenbaum und Alison Gopnik. »Bayes and
Blickets: Effects of Knowledge on Causal Induction in Children and Adults«. Cognitive Sci­
ence 35 (2011): 1407–1455.
Griffiths, Thomas L., Mark Steyvers und Alana Firl. »Google and the Mind: Predicting Fluency
with PageRank«. Psychological Science 18 (2007): 1069–1076.
Griffiths, Thomas L., und Joshua B. Tenenbaum. »Optimal Predictions in Everyday Cognition«.
Psychological Science 17 (2006): 767–773.
Grossman, Dave, und L. W. Christensen. On Combat. Belleville: PPCT Research Publications,
2004.
Haggstrom, Gus W. »Optimal Sequential Procedures When More Than One Stop Is Required«.
Annals of Mathematical Statistics 38 (1967): 1618–1626.
Hajaj, Chen, Noam Hazon und David Sarne. »Ordering Effects and Belief Adjustment in the
Use of Comparison Shopping Agents«. Proceedings of the Twenty-Eighth AAAI Conference on
Artificial Intelligence (AAAI 2014), 930–936.
Halevy, Alon, Peter Norvig und Fernando Pereira. »The Unreasonable Effectiveness of Data«.
Intelligent Systems, IEEE 24, Nr. 2 (2009): 8–12.
Hardin, Garrett. »The Tragedy of the Commons«. Science 162, Nr. 3859 (1968): 1243–1248.
Hardy, G. H. Collected Works. Bd. II. Oxford: Oxford University Press, 1967.
Hardy, G. H. »Prime Numbers«. British Association Report 10 (1915): 350–354.
Harmenberg, J. Epee 2.0: The Birth of the New Fencing Paradigm. New York: SKA Swordplay
Books, 2007.
Harsanyi, John. »Can the Maximin Principle Serve as a Basis for Morality? A Critique of John
Rawls’s Theory«. The American Political Science Review 69, Nr. 2 (1975): 594–606.
Harvey, Jerry. »The Abilene Paradox: The Management of Agreement«. Organizational Dynamics
3, Nr. 1 (1974): 63–80.
Hastings, W. K. »Monte Carlo Methods Using Markov Chains and Their Applications«. Bio­
metrika 57 (1970): 97–109.
Hawken, Angela, und Mark Kleiman. Managing Drug Involved Probationers with Swift and Cer­
tain Sanctions: Evaluating Hawaii’s HOPE. Bericht an das National Institute of Justice. 2009.
http://www.ncjrs.gov/pdffiles1/nij/grants/229023.pdf.
Held, Michael, und Richard M. Karp. »The Traveling- Salesman Problem and Minimum Span-
ning Trees«. Operations Research 18, Nr. 6 (1970): 1138–1162.
Held, Michael, und Richard M. Karp. »The Traveling- Salesman Problem and Minimum Span-
ning Trees: Part II«. Mathematical Programming 1, Nr. 1 (1971): 6–25.
Henderson, T. Discrete Relaxation Techniques. Oxford: Oxford University Press, 1989.
Hennessy, John L., und David A. Patterson. Computer Architecture: A Quantitative Approach. New
York: Elsevier, 2012.
Herrmann, Jeffrey. »The Perspectives of Taylor, Gantt, and Johnson: How to Improve Production
Scheduling«. International Journal of Operations and Quality Management 16 (2010): 243–254.
Heyde, C. C. »Agner Krarup Erlang«. In: C. C. Heyde, E. Seneta, P. Crepel, S. E. Fienberg und J.
Gani (Hg.), Statisticians of the Centuries. New York: Springer, 2001, 328–330.

332
Bibliografie

Hill, Theodore. »Knowing When to Stop«. American Scientist 97 (2009): 126–131.


Hillis, W. Daniel. Computerlogik – so einfach arbeiten Computer. München: Bertelsmann, 2001.
Hirshleifer, Jack. »On the Emotions as Guarantors of Threats and Promises«. In: John Dupre
(Hg.), The Latest on the Best: Essays in Evolution and Optimality. Cambridge: MIT Press, 1987,
307–326.
Hoffman, David. The Oligarchs: Wealth and Power in the New Russia. New York: Public-Affairs,
2003.
Horvitz, Eric, und Shlomo Zilberstein. »Computational Tradeoffs Under Bounded Resources«.
Artificial Intelligence 126 (2001): 1–4.
Hosken, James. »Evaluation of Sorting Methods«. Papers and Discussions Presented at the No­
vember 7–9, 1955, Eastern Joint AIEE- IRE Computer Conference: Computers in Business and
Industrial Systems, 39–55.
Hurd, Cuthbert. »A Note on Early Monte Carlo Computations and Scientific Meetings«. IEEE
Annals of the History of Computing 7, Nr. 2 (1985): 141–155.
Impagliazzo, Russell, und Avi Wigderson. »P = BPP if E Requires Exponential Circuits: Deran-
domizing the XOR Lemma«. In Proceedings of the Twenty-Ninth Annual ACM Symposium on
Th eory of Computing, 1997, 220–229.
Impagliazzo, Russell, und Avi Wigderson. »Randomness vs. Time: De-Randomization Under a
Uniform Assumption«. Proceedings of the 39th Annual Symposium on Foundations of Computer
Science, 1998, 734–743.
Ingram, Wendy Marie, Leeanne M. Goodrich, Ellen A. Robey und Michael B. Eisen. »Mice In-
fected with Low-Virulence Strains of Toxoplasma Gondii Lose Their Innate Aversion to Cat
Urine, Even After Extensive Parasite Clearance«. PLOS ONE, Nr. 9 (2013): e75246.
Jackson, James. Scheduling a Production Line to Minimize Maximum Tardiness. Technischer Bericht
43. Management Science Research Project, University of California, Los Angeles, 1955.
Jacobson, Van. »Congestion Avoidance and Control«. ACM SIGCOMM Computer Communica­
tion Review 18, Nr. 4 (1988): 314–329.
Jacobson, Van. »A New Way to Look at Networking«. Vortrag bei Google, Mountain View, Au-
gust 2006. https://www.youtube.com/watch?v=oCZMoY3q2uM.
James, William. »Great Men, Great Thoughts, and the Environment«. Atlantic Monthly 46
(1880): 441–459.
James, William. Psychology: Briefer Course. New York: Holt, 1892.
Jay, Francine. The Joy of Less: A Minimalist Living Guide: How to Declutter, Organize, and Simplify
Your Life. Medford: Anja Press, 2010.
Jeffreys, Harold. »An Invariant Form for the Prior Probability in Estimation Problems«. Pro­
ceedings of the Royal Society of London. Series A. Mathematical and Physical Sciences 186 (1946):
453–461.
Jeffreys, Harold. Theory of Probability. 3. Aufl., Oxford: Oxford University Press, 1961.
Johnson, Selmer Martin. »Optimal Two- and Three-Stage Production Schedules with Setup
Times Included«. Naval Research Logistics Quarterly 1, Nr. 1 (1954): 61–68.

333
Bibliografie

Johnson, Theodore, und Dennis Shasha. »2Q: A Low Overhead High Performance Buffer Man-
agement Replacement Algorithm«. VLDB ’94 Proceedings of the 20th International Conference
on Very Large Data Bases, 1994, S. 439–450.
Jones, Thomas B., und David H. Ackley. »Comparison Criticality in Sorting Algorithms«. 2014
44th Annual IEEE/IFIP International Conference on Dependable Systems and Networks (DSN),
Juni 2014, 726–731.
Jones, William. Keeping Found Things Found: The Study and Practice of Personal Information Man­
agement. Burlington: Morgan Kaufmann, 2007.
Kaelbling, Leslie Pack. Learning in Embedded Systems. Cambrige: MIT Press, 1993.
Kaelbling, Leslie Pack, Michael L. Littman und Andrew W. Moore. »Reinforcement Learning:
A Survey«. Journal of Artificial Intelligence Research 4 (1996): 237–285.
Kanigel, Robert. The One Best Way: Frederick Winslow Taylor and the Enigma of Efficiency. New
York: Viking Penguin, 1997.
Kant, Immanuel. Grundlegung zur Metaphysik der Sitten. Riga: Johann Friedrich Hartknoch, 1785.
Kant, Immanuel. Kritik der praktischen Vernunft. Riga: Johann Friedrich Hartknoch, 1788.
Karmarkar, Narendra. »A New Polynomial-Time Algorithm for Linear Programming«. Proceed­
ings of the Sixteenth Annual ACM Symposium on Theory of Computing, 1984, 302–311.
Karp, Richard. »An Introduction to Randomized Algorithms«. Discrete Applied Mathematics 34,
Nr. 1 (1991): 165–201.
Karp, Richard. »Reducibility Among Combinatorial Problems«. Complexity of Computer Compu­
tations, 85–103. New York: Plenum, 1972.
Katajainen, Jyrki, und Jesper Larsson Träff. »A Meticulous Analysis of Mergesort Programs«.
Algorithms and Complexity: Third Italian Conference CIAC ’97. Berlin: Springer, 1997.
Katehakis, Michael N., und Herbert Robbins. »Sequential Choice from Several Populations«.
Proceedings of the National Academy of Sciences 92 (1995): 8584–8585.
Kelly, F. P. »Multi-Armed Bandits with Discount Factor Near One: The Bernoulli Case«. Annals
of Statistics 9 (1981): 987–1001.
Kelly, John. »A New Interpretation of Information Rate«. Information Theory, IRE Transactions
on 2, Nr. 3 (1956): 185–189.
Khachiyan, Leonid. »Polynomial Algorithms in Linear Programming«. USSR Computational
Mathematics and Mathematical Physics 20, Nr. 1 (1980): 53–72.
Khot, Subhash, und Oded Regev. »Vertex Cover Might Be Hard to Approximate to Within 2-ε«.
Journal of Computer and System Sciences 74, Nr. 3 (2008): 335–349.
Kidd, Celeste, Holly Palmeri und Richard N. Aslin. »Rational Snacking: Young Children’s De-
cision-Making on the Marshmallow Task Is Moderated by Beliefs About Environmental
Reliability«. Cognition 126, Nr. 1 (2013): 109–114.
Kilburn, Tom, David B. G. Edwards, M. J. Lanigan und Frank H. Sumner. »One-Level Storage
System«. IRE Transactions on Electronic Computers (1962): 223–235.
Kinsbourne, Marcel. »Somatic Twist: A Model for the Evolution of Decussation«. Neuropsycho­
logy 27, Nr. 5 (2013): 511.

334
Bibliografie

Kirby, Kris. »Bidding on the Future: Evidence Against Normative Discounting of Delayed Re-
wards«. Journal of Experimental Psychology: General 126, Nr. 1 (1997): 54–70.
Kirkpatrick, Scott, C. D. Gelatt und M. P. Vecchi. »Optimization by Simulated Annealing«. Sci­
ence 220, Nr. 4598 (1983): 671–680.
Knuth, Donald E.. »Ancient Babylonian Algorithms«. Communications of the ACM 15, Nr. 7
(1972): 671–677.
Knuth, Donald E. The Art of Computer Programming, Volume 1: Fundamental Algorithms. 3. Aufl.,
Boston: Addison- Wesley, 1997.
Knuth, Donald E.The Art of Computer Programming, Volume 3: Sorting and Searching. 3. Aufl.,
Boston: Addison-Wesley, 1997.
Knuth, Donald E. »A Terminological Proposal«. ACM SIGACT News 6, Nr. 1 (1974): 12–18.
Knuth, Donald E. »The TeX Tuneup of 2014«. TUGboat 35, Nr. 1 (2014).
Knuth, Donald E. Things a Computer Scientist Rarely Talks About. Stanford: Center for the Study
of Language/Information, 2001.
Knuth, Donald E. »Von Neumann’s First Computer Program«. ACM Computing Surveys (CSUR)
2, Nr. 4 (Dezember 1970): 247–260.
Koestler, Arthur, The Watershed: A Biography of Johannes Kepler. Garden City: Doubleday, 1960.
Kozen, Dexter, und Shmuel Zaks, »Optimal Bounds for the Change-Making Problem«. In: An-
drzej Lingas, Rolf Karlsson und Svante Carlsson, Automata, Languages and Programming.
Berlin: Springer, 1993, S. 150–161.
Lai, Tze Leung, und Herbert Robbins, »Asymptotically Efficient Adaptive Allocation Rules«. In:
Advances in Applied Mathematics 6 (1985): 4–22.
Lamport, Leslie, Robert Shostak und Marshall Pease. »The Byzantine Generals Problem«. ACM
Transactions on Programming Languages and Systems (TOPLAS) 4, Nr. 3 (1982): 382–401.
Laplace, Pierre-Simon. A Philosophical Essay on Probabilities. New York: Dover, 1951.
Laplace, Pierre-Simon. »Memoir on the Probability of the Causes of Events«. Statistical Science
1 (1774/1986): 364–378.
Laplace, Pierre-Simon. Théorie analytique des probabilités. Paris: Mme Ve Courcier, 1812.
Lawler, Eugene L. »Old Stories«. History of Mathematical Programming. A Collection of Personal
Reminiscences, 97–106. Amsterdam: CWI/North-Holland, 1991.
Lawler, Eugene L. »Optimal Sequencing of a Single Machine Subject to Precedence Con-
straints«. Management Science 19, Nr. 5 (1973): 544–546.
Lawler, Eugene L. Scheduling a Single Machine to Minimize the Number of Late Jobs. Technischer
Bericht. Berkeley: University of California, 1983.
Lawler, Eugene L. »Scheduling a Single Machine to Minimize the Number of Late Jobs«, Nr.
UCB/CSD-83-139 (1983). http://www.eecs.berkeley.edu/Pubs/TechRpts/1983/6344.html.
Lawler, Eugene L. »Sequencing Jobs to Minimize Total Weighted Completion Time Subject to
Precedence Constraints«. Annals of Discrete Mathematics 2 (1978): 75–90.
Lawler, Eugene L., Jan Karel Lenstra und Alexander H. G. Rinnooy Kan. »A Gift for Alexander!:
At Play in the Fields of Scheduling Theory«. Optima 7 (1982): 1–3.

335
Bibliografie

Lawler, Eugene L., Jan Karel Lenstra, Alexander H. G. Rinnooy Kann und David B. Shmoys.
»Sequencing and Scheduling: Algorithms and Complexity«. In: S. S. Graves, A. H. G. Rin-
nooy Kann und P. Zipkin (Hg.), Handbooks in Operations Research and Management Science,
Volume 4: Logistics of Production and Inventory. Amsterdam: North Holland, 1993, 445–522
Lawler, Eugene L., Jan Karel Lenstra, Alexander H. G. Rinnooy Kann und David B. Shmoys. The
Traveling Salesman Problem: A Guided Tour of Combinatorial Optimization. New York: Wiley,
1985.
Lazzarini, Mario. »Un’applicazione del calcolo della probabilità alla ricerca sperimentale di un
valore approssimato di π«. Periodico di Matematica 4 (1901): 140–143.
Lee, Donghee, S. H. Noh, S. L. Min, J. Choi, J. H. Kim, Yookun Cho und Chong Sang Kim.
»LRFU: A Spectrum of Policies That Subsumes the Least Recently Used and Least Fre-
quently Used Policies«. IEEE Transactions on Computers 50 (2001): 1352–1361.
Le Guin, Ursula, »The Ones Who Walk Away from Omelas«. In: Robert Silverberg (Hg.), New
Dimensions 3. New York: Signet, 1973.
Lenstra, Jan Karel. »The Mystical Power of Twoness: In Memoriam Eugene L. Lawler«. Journal
of Scheduling 1, Nr. 1 (1998): 3–14.
Lenstra, Jan Karel, Alexander H. G. Rinnooy Kann und Peter Brucker. »Complexity of Machine
Scheduling Problems«. Annals of Discrete Mathematics 1 (1977): 343–362.
Lerner, Ben. The Lichtenberg Figures. Port Townsend: Copper Canyon Press, 2004.
Lindley, Denis V. »Dynamic Programming and Decision Theory«. Applied Statistics 10 (1961):
39–51.
Lippman, Steven A., und John J. McCall. »The Economics of Job Search: A Survey«. Economic
Inquiry 14 (1976): 155–189.
Lorie, James H., und Leonard J. Savage. »Three Problems in Rationing Capital«. Journal of Busi­
ness 28, Nr. 4 (1955): 229–239.
Lowe, Christopher J., Mark Terasaki, Michael Wu, Robert M. Freeman Jr., Linda Runft, Kris-
ten Kwan, Saori Haigo, Jochanan Aronowicz, Eric Lander, Chris Gruber u. a. »Dorsoventral
Patterning in Hemichordates: Insights into Early Chordate Evolution«. PLoS Biology 4, Nr.
9 (2006): e291.
Lucas, Richard E., Andrew E. Clark, Yannis Georgellis und Ed Diener. »Reexamining Adapta-
tion and the Set Point Model of Happiness: Reactions to Changes in Marital Status«. Journal
of Personality and Social Psychology 84, Nr. 3 (2003): 527–539.
Lueker, George S. »Two NP-Complete Problems in Nonnegative Integer Programming«. Techni­
cal Report TR-178, Computer Science Laboratory, Princeton University, 1975.
Luria, Salvador E. A Slot Machine, a Broken Test Tube: An Autobiography. New York: Harper &
Row, 1984.
MacQueen, J., und R. G. Miller. »Optimal Persistence Policies«. Operations Research 8 (1960):
362–380.
Malthus, Thomas Robert. Eine Abhandlung über das Bevölkerungsgesetz. Jena: Gustav Fischer,
1905.
Marcus, Gary. Kluge: The Haphazard Evolution of the Human Mind. New York: Houghton Mifflin
Harcourt, 2009.

336
Bibliografie

Markowitz, Harry. »Portfolio Selection«. Journal of Finance 7, Nr. 1 (1952): 77–91.


Markowitz, Harry. Portfolio Selection: Efficient Diversification of Investments. New York: Wiley,
1959.
Martin, Thomas Commerford. »Counting a Nation by Electricity«. Electrical Engineer 12, Nr.
184 (1891): 521–530.
McCall, John. »Economics of Information and Job Search«. Quarterly Journal of Economics 84
(1970): 113–126.
McGrayne, Sharon Bertsch. The Theory That Would Not Die: How Bayes’ Rule Cracked the Enigma
Code, Hunted Down Russian Submarines, & Emerged Triumphant from Two Centuries of Con­
troversy. New Haven: Yale University Press, 2011.
McGuire, Joseph T., und Joseph W. Kable. »Decision Makers Calibrate Behavioral Persistence on
the Basis of Time- Interval Experience«. Cognition 124, Nr. 2 (2012): 216–226.
McGuire, Joseph T., und Joseph W. Kable. »Rational Temporal Predictions Can Underlie Appar-
ent Failures to Delay Gratification«. Psychological Review 120, Nr. 2 (2013): 395.
Megiddo, Nimrod, und Dharmendra S. Modha. »Outperforming LRU with an Adaptive Re-
placement Cache Algorithm«. Computer 37, Nr. 4 (2004): 58–65.
Mellen, Andrew. Unstuff Your Life! Kick the Clutter Habit and Completely Organize Your Life for
Good. New York: Avery, 2010.
Menezes, Alfred J., Paul C. Van Oorschot und Scott A. Vanstone. Handbook of Applied Cryptog­
raphy. Boca Raton: CRC Press, 1996.
Menger, Karl. »Das Botenproblem«. Ergebnisse eines mathematischen Kolloquiums 2 (1932): 11–12.
Metropolis, Nicholas, Arianna W. Rosenbluth, Marshall N. Rosenbluth, Augusta H. Teller und
Edward Teller. »Equation of State Calculations by Fast Computing Machines«. Journal of
Chemical Physics 21, Nr. 6 (1953): 1087–1092.
Meyer, Robert J., und Yong Shi. »Sequential Choice Under Ambiguity: Intuitive Solutions to the
Armed-Bandit Problem«. Management Science 41 (1995): 817–834.
Millard-Ball, Adam, Rachel R. Weinberger und Robert C. Hampshire. »Is the Curb 80 % Full or
20 % Empty? Assessing the Impacts of San Francisco’s Parking Pricing Experiment«. Trans­
portation Research Part A: Policy and Practice 63 (2014): 76–92.
Mischel, Walter, Ebbe B. Ebbesen und Antonette Raskoff Zeiss. »Cognitive and Attentional
Mechanisms in Delay of Gratification«. Journal of Personality and Social Psychology 21, Nr. 2
(1972): 204.
Mischel, Walter, Yuichi Shoda und Monica I. Rodriguez. »Delay of Gratification in Children«.
Science 244, Nr. 4907 (1989): 933–938.
Mitzenmacher, Michael, und Eli Upfal. Probability and Computing: Randomized Algorithms and
Probabilistic Analysis. Cambridge: Cambridge University Press, 2005.
Monsell, Stephen. »Task Switching«. Trends in Cognitive Sciences 7, Nr. 3 (2003): 134–140.
Moore, Gordon E. »Cramming More Components onto Integrated Circuits«. Electronics Maga­
zine 38 (1965): 114–117.
Moore, Gordon E. »Progress in Digital Integrated Electronics«. International Electronic Devices
Meeting 1975 Technical Digest, 1975, 11–13.

337
Bibliografie

Moore, J. Michael. »An N Job, One Machine Sequencing Algorithm for Minimizing the Number
of Late Jobs«. Management Science 15, Nr. 1 (1968): 102–109.
Morgenstern, Julie. Organizing from the Inside Out: The Foolproof System for Organizing Your
Home, Your Office and Your Life. New York: Macmillan, 2004.
Moser, L. »On a Problem of Cayley«. Scripta Mathematica 22 (1956): 289–292.
Motwani, Rajeev, und Prabhakar Raghavan. Randomized Algorithms. Cambridge: Cambridge
University Press, 1995.
Motwani, Rajeev, und Prabhakar Raghavan. »Randomized Algorithms«. ACM Computing Sur­
veys (CSUR) 28, Nr. 1 (1996): 33–37.
Mucci, A. G. »On a Class of Secretary Problems«. Annals of Probability 1 (1973): 417–427.
Murray, David. Chapters in the History of Bookkeeping, Accountancy and Commercial Arithmetic.
Glasgow: Jackson, Wylie, 1930.
Myerson, Roger B. »Nash Equilibrium and the History of Economic Theory«. Journal of Econom­
ic Literature 1999, 1067–1082.
Myerson, Roger B. »Optimal Auction Design«. Mathematics of Operations Research 6, Nr. 1 (1981):
58–73.
Nash, John F. »Equilibrium Points in N-Person Games«. Proceedings of the National Academy of
Sciences 36, Nr. 1 (1950): 48–49.
Nash, John F. »Non-Cooperative Games«. Annals of Mathematics 54, Nr. 2 (1951): 286–295.
Nash, John F. »The Bargaining Problem«. Econometrica 18, Nr. 2 (1950): 155–162.
Navarro, Daniel J., und Ben R. Newell. »Information Versus Reward in a Changing World«. Pro­
ceedings of the 36th Annual Conference of the Cognitive Science Society, 2014, 1054–1059.
Neumann, John von, und Oskar Morgenstern. Theory of Games and Economic Behavior. Princeton:
Princeton University Press, 1944.
Neyman, Jerzy. »Outline of a Theory of Statistical Estimation Based on the Classical Theory of
Probability«. Philosophical Transactions of the Royal Society of London. Series A, Mathematical
and Physical Sciences 236, Nr. 767 (1937): 333–380.
Nichols, Kathleen, und Van Jacobson. »Controlling Queue Delay: A Modern AQM Is Just One
Piece of the Solution to Bufferbloat«. ACM Queue Networks 10, Nr. 5 (2012): 20–34.
Nisan, Noam, und Amir Ronen. »Algorithmic Mechanism Design«. Proceedings of the Thir­
ty-First Annual ACM Symposium on Theory of Computing, 1999, 129–140.
Olshausen, Bruno A., und David J. Field. »Emergence of Simple-Cell Receptive Field Properties
by Learning a Sparse Code for Natural Images«. Nature 381 (1996): 607–609.
O’Neil, Elizabeth J., Patrick E. O’Neil und Gerhard Weikum. »The LRU- K Page Replacement
Algorithm for Database Disk Buffering«, ACM SIGMOD Record 22, Nr. 2 (1993): 297–306.
Papadimitriou, Christos. »Foreword«. In: Noam Nisan, Tim Roughgarden, Éva Tardos und Vijay
V. Vazirani (Hg.), Algorithmic Game Theory. Cambridge, Cambridge University Press, 2007.
Papadimitriou, Christos H., und John N. Tsitsiklis. »The Complexity of Optimal Queuing Net-
work Control«. Mathematics of Operations Research 24 (1999): 293–305.

338
Bibliografie

Papadimitriou, Christos H., und Mihalis Yannakakis. »On Complexity as Bounded Rationali-
ty«. Proceedings of the Twenty-Sixth Annual ACM Symposium on Theory of Computing, 1994,
726–733.
Pardalos, Panos M., und Georg Schnitger. »Checking Local Optimality in Constrained Quadrat-
ic Programming is NP- hard«. Operations Research Letters 7 (1988): 33–35.
Pareto, Vilfredo. Cours d’économie politique. Lausanne: F. Rouge, 1896.
Parfit, Derek. Reasons and Persons. Oxford: Oxford University Press, 1984.
Partnoy, Frank. Wait: The Art and Science of Delay. New York: PublicAffairs, 2012.
Pascal, Blaise. Pensées sur la religion et sur quelques autres sujets. Paris: Guillaume Desprez, 1670.
Peter, Laurence J., und Raymond Hull. Das Peter-Prinzip oder die Hierarchie der Unfähigen.
­Rein­bek: Rowohlt, 2001.
Petruccelli, Joseph D. »Best-Choice Problems Involving Uncertainty of Selection and Recall of
Observations«. Journal of Applied Probability 18 (1981): 415–425.
Pettie, Seth, und Vijaya Ramachandran. »An Optimal Minimum Spanning Tree Algorithm«.
Journal of the ACM 49, Nr. 1 (2002): 16–34.
Pinedo, Michael. Scheduling: Theory, Algorithms, and Systems. New York: Springer, 2012.
Pinedo, Michael. »Stochastic Scheduling with Release Dates and Due Dates«. Operations Re­
search 31, Nr. 3 (1983): 559–572.
Pirsig, Robert. Zen und die Kunst, ein Motorrad zu warten. 37. Aufl., Frankfurt a. M.: Fischer
Taschenbuch, 2017.
Poundstone, William. Fortune’s Formula: The Untold Story of the Scientific Betting System That Beat
the Casinos and Wall Street. New York: Macmillan, 2005.
Poundstone, William. Prisoner’s Dilemma: John von Neumann, Game Th eory, and the Puzzle of the
Bomb. New York: Doubleday, 1992.
Prabhakar, Balaji, Katherine N. Dektar und Deborah M. Gordon. »The Regulation of Ant Col-
ony Foraging Activity Without Spatial Information«. PLoS Computational Biology 8, Nr. 8
(2012): e1002670.
Presman, Ernst L’vovich, und Isaac Mikhailovich Sonin. »The Best Choice Problem for a Ran-
dom Number of Objects«. Teoriya Veroyatnostei i ee Primeneniya 17 (1972): 695–706.
Production and Operations Management Society. »James R. Jackson«. Production and Operations
Management 17, Nr. 6 (2008): i–ii.
Rabin, Michael O. »Probabilistic Algorithm for Testing Primality«. Journal of Number Theory 12,
Nr. 1 (1980): 128–138.
Rabin, Michael O., und Dana Scott. »Finite Automata and Their Decision Problems«. IBM Jour­
nal of Research and Development 3 (1959): 114–125.
Raichle, Marcus E., und Debra A. Gusnard. »Appraising the Brain’s Energy Budget«. Proceedings
of the National Academy of Sciences 99, Nr. 16 (2002): 10237–10239.
Ramakrishnan, Kadangode, und Sally Floyd. A Proposal to Add Explicit Congestion Notification
(ECN) to IP. Technischer Bericht. RFC 2481, Januar 1999.
Ramakrishnan, Kadangode, Sally Floyd und David Black. The Addition of Explicit Congestion
Notification (ECN) to IP. Technischer Bericht. RFC 3168, September 2001.

339
Bibliografie

Ramscar, Michael, Peter Hendrix, Cyrus Shaoul, Petar Milin und Harald Baayen. »The Myth of
Cognitive Decline: Non-Linear Dynamics of Lifelong Learning«. Topics in Cognitive Science
6, Nr. 1 (2014): 5–42.
Rasmussen, Willis T., und Stanley R. Pliska. »Choosing the Maximum from a Sequence with a
Discount Function«. Applied Mathematics and Optimization 2 (1975): 279–289.
Rawls, John. Eine Theorie der Gerechtigkeit. Frankfurt a. M.: Suhrkamp, 1979.
Revusky, Samuel H., und Erwin W. Bedarf. »Association of Illness with Prior Ingestion of Novel
Foods«. Science 155, Nr. 3759 (1967): 219–220.
Reynolds, Andy M. »Signatures of Active and Passive Optimized Lévy Searching in Jellyfish«.
Journal of the Royal Society Interface 11, Nr. 99 (2014): 20140665.
Ridgway, Valentine F. »Dysfunctional Consequences of Performance Measurements«. Adminis­
trative Science Quarterly 1, Nr. 2 (1956): 240–247.
Riley, John G., und William F. Samuelson. »Optimal Auctions«. American Economic Review 71,
Nr. 3 (1981): 381–392.
Rittaud, Benoît, und Albrecht Heeffer. »The Pigeonhole Principle, Two Centuries Before Dir-
ichlet«. Mathematical Intelligencer 36, Nr. 2 (2014): 27–29.
Rivest, Ronald L., Adi Shamir und Leonard Adleman. »A Method for Obtaining Digital Signa-
tures and Public-Key Cryptosystems«. Communications of the ACM 21, Nr. 2 (1978): 120–126.
Robbins, Herbert. »Some Aspects of the Sequential Design of Experiments«. Bulletin of the
American Mathematical Society 58 (1952): 527–535.
Robinson, Julia. On the Hamiltonian Game (A Traveling Salesman Problem). Technischer Bericht
RAND/RM-303. Santa Monica: RAND, 1949.
Rogerson, Richard, Robert Shimer und Randall Wright. Search-Theoretic Models of the Labor
Market: A Survey. Technischer Bericht. Cambridge: National Bureau of Economic Research,
2004.
Rose, John. »A Problem of Optimal Choice and Assignment«. Operations Research 30 (1982):
172–181.
Rosenbaum, David A., Lanyun Gong und Cory Adam Potts. »Pre-Crastination: Hastening
Subgoal Completion at the Expense of Extra Physical Effort«. Psychological Science 25, Nr. 7
(2014): 1487–1496.
Rosenbluth, Marshall. Marshall Rosenbluth, interviewed by Kai-Henrik Barth. 11. August 2003,
College Park.
Rostker, Bernard D., Harry J. Thie, James L. Lacy, Jennifer H. Kawata und Susanna W. Purnell.
The Defense Officer Personnel Management Act of 1980: A Retrospective Assessment. Santa Mon-
ica: RAND, 1993.
Roughgarden, Tim, und Eva Tardos. »How Bad Is Selfish Routing?« Journal of the ACM 49, Nr.
2 (2002): 236–259.
Ruefle, Mary. Madness, Rack and Honey: Collected Lectures. Seattle: Wave Books, 2012.
Russell, Bertrand. »The Elements of Ethics«. In: Philosophical Essays. London: Longmans, Green,
1910, 13–59.

340
Bibliografie

Russell, Stuart, und Peter Norvig. Artificial Intelligence: A Modern Approach, 3. Aufl., Upper Sad-
dle River: Pearson, 2009.
Russell, Stuart, und Eric Wefald. Do the Right Thing. Cambridge: MIT Press, 1991.
Sagan, Carl. Broca’s Brain: Reflections on the Romance of Science. New York: Random House, 1979.
Sakaguchi, Minoru. »Bilateral Sequential Games Related to the No-Information Secretary Prob-
lem«. Mathematica Japonica 29 (1984): 961–974.
Sakaguchi, Minoru. »Dynamic Programming of Some Sequential Sampling Design«. Journal of
Mathematical Analysis and Applications 2 (1961): 446–466.
Sakaguchi, Minoru, und Mitsushi Tamaki. »On the Optimal Parking Problem in Which Spaces
Appear Randomly«. Bulletin of Informatics and Cybernetics 20 (1982): 1–10.
Sartre, Jean-Paul. Geschlossene Gesellschaft: Stück in einem Akt. Reinbek: Rowohlt, 1987.
Schelling, Thomas. »Altruism, Meanness, and Other Potentially Strategic Behaviors«. American
Economic Review 68, Nr. 2 (1978): 229–230.
Schelling, Thomas. The Strategy of Conflict. Cambridge: Harvard University Press, 1960.
Schneier, Bruce. Applied Cryptography. New York: Wiley, 1994.
Schrage, Linus. »A Proof of the Optimality of the Shortest Remaining Processing Time Disci-
pline«. Operations Research 16, Nr. 3 (1968): 687–690.
Schrijver, Alexander. »On the History of Combinatorial Optimization (Till 1960)«. In: Karen
Aardal, George L. Nemhauser und Robert Weismantel (Hg.), Handbooks in Operations Re­
search and Management Science: Discrete Optimization, Amsterdam: Elsevier, 2005, 1–68.
Schwartz, Jacob. »Fast Probabilistic Algorithms for Verification of Polynomial Identities«. Journal
of the ACM 27, Nr. 4 (1980): 701–717.
Seale, Darryl A., und Amnon Rapoport. »Sequential Decision Making with Relative Ranks: An
Experimental Investigation of the ›Secretary Problem‹«. Organizational Behavior and Human
Decision Processes 69 (1997): 221–236.
Sen, Amartya. »Goals, Commitment, and Identity«. Journal of Law, Economics, and Organization
1 (1985): 341–355.
Sethi, Rajiv. »Algorithmic Trading and Price Volatility«. Rajiv Sethi (Blog), 7. Mai 2010, http://
rajivsethi.blogspot.com/2010/05/algorithmic-trading-and-price.html.
Sevcik, Kenneth. »Scheduling for Minimum Total Loss Using Service Time Distributions«. Jour­
nal of the ACM 21, Nr. 1 (1974): 66–75.
Shallit, Jeffrey. »What This Country Needs Is an 18¢ Piece«. Mathematical Intelligencer 25, Nr.
2 (2003): 20–23.
Shasha, Dennis, und Cathy Lazere. Out of Their Minds: The Lives and Discoveries of 15 Great
Computer Scientists. New York: Springer, 1998.
Shasha, Dennis, und Michael Rabin. »An Interview with Michael Rabin«. Communications of the
ACM 53, Nr. 2 (2010): 37–42.
Shaw, Frederick. An Introduction to Relaxation Methods. New York: Dover, 1953.
Shaw, George Bernard. Mensch und Übermensch. Zürich: Artemis, 1946.
Shoup, Donald. The High Cost of Free Parking. Chicago: APA Planners Press, 2005.

341
Bibliografie

Simon, Herbert. »A Behavioral Model of Rational Choice«. Quarterly Journal of Economics 69,
Nr. 1 (1955): 99–118.
Simon, Herbert. Models of Man. New York: Wiley, 1957.
Simon, Herbert. »On a Class of Skew Distribution Functions«. Biometrika, 1955, 425–440.
Siroker, Dan. »How Obama Raised $60 Million by Running a Simple Experiment«. The Opti­
mizely Blog: A/B Testing You’ll Actually Use (Blog), 29. November 2010, https://blog.optimizely.
com/2010/11/29/how-obama-raised-60-million-by-running-a-simple-experiment/.
Siroker, Dan, und Pete Koomen. A/B Testing: The Most Powerful Way to Turn Clicks into Customers.
New York: Wiley, 2013.
Sleator, Daniel D., und Robert E. Tarjan. »Amortized Efficiency of List Update and Paging
Rules«. Communications of the ACM 28 (1985): 202–208.
Smith, Adam. Theorie der ethischen Gefühle. Hamburg: Felix Meiner, 2010.
Smith, M. H.. »A Secretary Problem with Uncertain Employment«. Journal of Applied Probability
12, Nr. 3 (1975): 620–624.
Smith, Wayne. »Various Optimizers for Single-Stage Production«. Naval Research Logistics Quar­
terly 3, Nr. 1–2 (1956): 59–66.
Solovay, Robert, und Volker Strassen. »A Fast Monte-Carlo Test for Primality«. SIAM Journal on
Computing 6 (1977): 84–85.
Starr, Norman. »How to Win a War if You Must: Optimal Stopping Based on Success Runs«.
Annals of Mathematical Statistics 43, Nr. 6 (1972): 1884–1893.
Stephens, David W., und John R. Krebs. Foraging Theory. Princeton: Princeton University Press,
1986.
Stewart, Martha. Martha Stewart’s Homekeeping Handbook: The Essential Guide to Caring for
­Everything in Your Home. New York: Clarkson Potter, 2006.
Stewart, Theodor. »Optimal Selection from a Random Sequence with Learning of the Underly-
ing Distribution«. Journal of the American Statistical Association 73, Nr. 364 (1978): 775–780.
Steyvers, Mark, Michael D. Lee und Eric-Jan Wagenmakers. »A Bayesian Analysis of Human
Decision-Making on Bandit Problems«. Journal of Mathematical Psychology 53 (2009): 168–
179.
Stigler, George. »The Economics of Information«. Journal of Political Economy 69 (1961): 213–
225.
Stigler, George. »Information in the Labor Marketing«. Journal of Political Economy 70 (1962):
94–105.
Stigler, Stephen M. »Stigler’s Law of Eponymy«. Transactions of the New York Academy of Sciences
39 (1980): 147–157.
Tamaki, Mitsushi. »Adaptive Approach to Some Stopping Problems«. Journal of Applied Proba­
bility 22 (1985): 644–652.
Tamaki, Mitsushi. »An Optimal Parking Problem«. Journal of Applied Probability 19 (1982):
803–814.
Tamaki, Mitsushi. »Optimal Stopping in the Parking Problem with U-Turn«. Journal of Applied
Probability 25 (1988): 363–374.

342
Bibliografie

Thomas, Helen. Front Row at the White House: My Life and Times. New York: Simon & Schuster,
2000.
Thompson, William. »On the Likelihood That One Unknown Probability Exceeds Another in
View of the Evidence of Two Samples«. Biometrika 25 (1933): 285–294.
Thoreau, Henry David. Vom Wandern. Stuttgart: Reclam, 2013.
Tibshirani, Robert. »Regression Shrinkage and Selection via the Lasso«. Journal of the Royal Sta­
tistical Society. Series B (Methodological) 58, Nr. 1 (1996): 267–288.
Tikhonov, A. N., und V. Y. Arsenin. Solution of Ill-Posed Problems. Washington, D.C.: Winston,
1977.
Todd, Peter. »Coevolved Cognitive Mechanisms in Mate Search«. Evolution and the Social Mind:
Evolutionary Psychology and Social Cognition (New York) 9 (2007): 145–159.
Todd, Peter M., und G. F. Miller. »From Pride and Prejudice to Persuasion: Satisficing in Machte
Search«. In: G. Gigerenzer und P. M. Todd (Hg.), Simple Heuristics That Make Us Smart. New
York: Oxford University Press, 1999, 287–308.
Tolins, Jackson, und Jean E. Fox Tree. »Addressee Backchannels Steer Narrative Development«.
Journal of Pragmatics 70 (2014): 152–164.
Tracy, Brian. Eat that Frog: 21 Wege, wie Sie in weniger Zeit mehr erreichen. 15. Aufl. Offenbach:
Gabal, 2019.
Turing, Alan. »On Computable Numbers, with an Application to the Entscheidungsproblem«.
12. November 1936. Proceedings of the London Mathematical Society s2-42, Nr. 1 (1937): 230–
265.
Turing, Alan. »On Computable Numbers, with an Application to the Entscheidungsproblem:
A Correction«. Proceedings of the London Mathematical Society s2-43, Nr. 1 (1938): 544–546.
Tversky, Amos, und Ward Edwards. »Information Versus Reward in Binary Choices«. Journal of
Experimental Psychology 71 (1966): 680–683.
Ulam, Stanislaw. Adventures of a Mathematician. New York: Scribner, 1976.
Ullman, Ellen. »Out of Time: Reflections on the Programming Life«. Educom Review 31 (1996):
53–59.
UK Collaborative ECMO Group. »The Collaborative UK ECMO Trial: Follow-up to 1 Year of
Age«. Pediatrics 101, Nr. 4 (1998): e1.
Vazirani, Vijay. Approximation Algorithms. New York: Springer, 2001.
Vickrey, William. »Counterspeculation, Auctions, and Competitive Sealed Tenders«. Journal of
Finance 16, Nr. 1 (1961): 8–37.
Waitzman, David. A Standard for the Transmission of IP Datagrams on Avian Carriers. Technischer
Bericht. RFC 1149, April 1990.
Waitzman, David. IP Over Avian Carriers with Quality of Service. Technischer Bericht. RFC
2549, April 1999.
Ware, James. »Investigating Therapies of Potentially Great Benefit: ECMO«. Statistical Science
4 (1989): 298–306.

343
Bibliografie

Ware, James H., und Michael F. Epstein. »Comments on ›Extracorporeal Circulation in Neonatal
Respiratory Failure: A Prospective Randomized Study‹ by R. H. Bartlett et al«. Pediatrics 76,
Nr. 5 (1985): 849–851.
Warhol, Andy. The Philosophy of Andy Warhol (from A to B and Back Again). New York: Harcourt
Brace Jovanovich, 1975.
Weiss, Yair, Eero P. Simoncelli und Edward H. Adelson. »Motion Illusions as Optimal Percepts«.
Nature Neuroscience 5 (2002): 598–604.
Whittaker, Steve, und Candace Sidner. »Email Overload: Exploring Personal Information Man-
agement of Email«. Proceedings of the SIGCHI Conference on Human Factors in Computing
Systems, 1996, 276–283.
Whittaker, Steve, Tara Matthews, Julian Cerruti, Hernan Badenes und John Tang. »Am I Wast-
ing My Time Organizing Email? A Study of Email Refinding«. Proceedings of the SIGCHI
Conference on Human Factors in Computing Systems, 2011, 3449–3458.
Whittle, Peter. Optimization over Time: Dynamic Programming and Stochastic Control. New York:
Wiley, 1982.
Whittle, Peter. »Restless Bandits: Activity Allocation in a Changing World«. Journal of Applied
Probability 25 (1988): 287–298.
Wigderson, Avi. »Knowledge, Creativity, and P versus NP«. http://www.math.ias.edu/~avi/PUB-
LICATIONS/MYPAPERS/AW09/AW09.pdf, 2009.
Wilkes, Maurice. »Slave Memories and Dynamic Storage Allocation«. IEEE Transactions on
Electronic Computers 14 (1965): 270–271.
Wright, J. W. »The Change-Making Problem«. Journal of the Association of Computing Machinery
22 (1975): 125–128.
Wulf, William Allan, und Sally A. McKee. »Hitting the Memory Wall: Implications of the Ob-
vious«. ACM SIGARCH Computer Architecture News 23, Nr. 1 (1995): 20–24.
Xu, Fei, und Joshua B. Tenenbaum. »Word Learning as Bayesian Inference«. Psychological Review
114 (2007): 245–272.

344
DANKSAGUNGEN
Wir danken zunächst den Forschern, Anwendern und Experten, die sich Zeit
nahmen, um sich mit uns zusammenzusetzen und über ihre Arbeit und ihre Vor-
stellungen zu sprechen: Dave Ackley, Steve Albert, John Anderson, Jeff Atwood,
Neil Bearden, Rik Belew, Donald Berry, Avrim Blum, Laura Carstensen, Nick
Chater, Stuart Cheshire, Paras Chopra, Herbert Clark, Ruth Corbin, Robert X.
Cringely, Peter Denning, Raymond Dong, Elizabeth Dupuis, Joseph Dwyer,
David Estlund, Christina Fang, Thomas Ferguson, Jessica Flack, James Fogarty,
Jean E. Fox Tree, Robert Frank, Stuart Geman, Jim Gettys, John Gittins, Alison
Gopnik, Deborah Gordon, Michael Gottlieb, Steve Hanov, Andrew Harbison,
Isaac Haxton, John Hennessy, Geoff Hinton, David Hirshliefer, Jordan Ho, Tony
Hoare, Kamal Jain, Chris Jones, William Jones, Leslie Kaelbling, David Karger,
Richard Karp, Scott Kirkpatrick, Byron Knoll, Con Kolivas, Michael Lee, Jan
Karel Lenstra, Paul Lynch, Preston McAfee, Jay McClelland, Laura Albert
McLay, Paul Milgrom, Anthony Miranda, Michael Mitzenmacher, Rosemarie
Nagel, Christof Neumann, Noam Nisan, Yukio Noguchi, Peter Norvig, Christos
Papadimitriou, Meghan Peterson, Scott Plagenhoef, Anita Pomerantz, Balaji
Prabhakar, Kirk Pruhs, Amnon Rapoport, Ronald Rivest, Ruth Rosenholtz, Tim
Roughgarden, Stuart Russell, Roma Shah, Donald Shoup, Steven Skiena, Dan
Smith, Paul Smolensky, Mark Steyvers, Chris Stucchio, Milind Tambe, Robert
Tarjan, Geoff Thorpe, Jackson Tolins, Michael Trick, Hal Varian, James Ware,
Longhair Warrior, Steve Whittaker, Avi Wigderson, Jacob Wobbrock, Jason
Wolfe und Peter Zijlstra.
Wir danken der King County Public Library, der Seattle Public Library, der
Northern Regional Library Facility und den Bibliotheken der Universität Berkeley
dafür, dass sie uns hinter die Kulissen ihrer Arbeitsabläufe schauen ließen.
Wir danken denen, mit denen wir einen Gedankenaustausch führten und
die unsere Forschung in die richtige Richtung lenkten, darunter Sharon Goetz,

345
Danksagungen

Mike Jones, Tevye Krynski, Elif Kuş, Falk Lieder, Steven A. Lippman, Philip
Maughan, Sam Mc Kenzie, Harro Ranter, Darryl A. Seale, Stephen Stigler, Kevin
Thomson, Peter Todd, Sara M. Watson und Sheldon Zedeck.
Wir danken den zahlreichen Personen, die uns im Gespräch zu vielen der
in diesem Buch beschriebenen Erkenntnisse führten, obwohl die folgende Liste
unvollständig ist: Elliot Aguilar, Ben Backus, Liat Berdugo, Dave Blei, Ben
Blum, Joe Damato, Eva de Valk, Emily Drury, Peter Eckersley, Jesse Farmer,
Alan Fineberg, Chrix Finne, Lucas Foglia, John Gaunt, Lee Gilman, Martin
Glazier, Adam Goldstein, Sarah Greenleaf, Graff Haley, Ben Hjertmann, Greg
Jensen, Henry Kaplan, Sharmin Karim, Falk Lieder, Paul Linke, Rose Linke,
Tania Lombrozo, Brandon Martin-Anderson, Sam McKenzie, Elon Musk, the
Neuwrite group at Columbia University, Hannah Newman, Abe Othman, Sue
Penney, Dillon Plunkett, Kristin Pollock, Diego Pontoriero, Avi Press, Matt
Richards, Annie Roach, Felicity Rose, Anders Sandberg, Claire Schreiber, Gayle
und Rick Shanley, Max Shron, Charly Simpson, Najeeb Tarazi, Josh Tenenbaum,
Peter Todd, Peter van Wesep, Shawn Wen, Jered Wierzbicki, Maja Wilson und
Kristen Young.
Wir danken den Entwicklern einiger der ausgezeichneten kostenlosen Open-
Source-Programme, die unsere Arbeit ermöglichten, darunter Git, LaTeX,
TeXShop und TextMate 2.
Wir danken denen, die uns in verschiedenen Bereichen ihre Kenntnisse zur
Verfügung stellten: Lindsey Baggette, David Bourgin und Tania Lombrozo
danken wir für die bibliografische Arbeit und die Durchforstung der Archive.
Wir danken der Bibliothek der Universität Cambridge für die Erlaubnis, die
Seite aus Darwins wunderbarem Tagebuch abzudrucken, und wir danken Michael
Langan für die ausgezeichnete Restaurierung.
Wir danken Henry Young für ein ausgezeichnetes Porträt.
Wir danken denen, die unsere Entwürfe lasen und uns unschätzbares Feedback
gaben: Ben Blum, Vint Cerf, Elizabeth Christian, Randy Christian, Peter
Denning, Peter Eckersley, Chrix Finne, Rick Fletcher, Adam Goldstein, Alison
Gopnik, Sarah Greenleaf, Graff Haley, Greg Jensen, Charles Kemp, Raphael
Lee, Rose Linke, Tania Lombrozo, Rebekah Otto, Diego Pontoriero, Daniel
Reichman, Matt Richards, Phil Richerme, Melissa Riess James, Katia Savchuk,
Sameer Shariff , Janet Silver, Najeeb Tarazi und Kevin Thomson. Ihre Einwände
und Anregungen haben das Buch sehr viel besser gemacht.

346
Rechnerische Freundlichkeit

Wir danken unserem Agenten Max Brockman und dem Team von Brockman
Inc. für ihre scharfsinnige und unermüdliche Arbeit.
Wir danken unserem Lektor Grigory Tovbis und dem Team von Henry Holt
für ihre aufmerksamen, unermüdlichen, begeisterten Bemühungen, das Buch so
gut wie möglich zu machen und es zur Welt zu bringen.
Wir danken Tania Lombrozo, Viviana Lombrozo, Enrique Lombrozo, Judy
Griffiths, Rod Griffiths und Julieth Moreno, die bei zahlreichen Gelegenheiten
die Hauptlast der Kinderaufzucht auf sich nahmen. Wir danken der Familie
Lombrozo Griffiths, den Mitgliedern des Computational Cognitive Science
Lab der Universität Berkeley und all jenen, die angesichts der von diesem Buch
auferlegten Scheduling-Beschränkungen Geduld und Nachsicht bewiesen.
Wir danken den zahlreichen Einrichtungen, die uns direkt und indirekt
unterstützten. Zunächst danken wir der University of California at Berkeley,
insbesondere dem Visiting Scholar-Programm des Instituts für Kognitive und
Gehirnforschung für einen produktiven zweijährigen Aufenthalt und der Ab-
teilung für Psychologie für die beharrliche Unterstützung. Wir danken der Free
Library of Philadelphia, der University of California, der Berkeley Library, der
Mechanics’ Institute Library und der San Francisco Public Library dafür, dass
sie uns Platz und Bücher zur Verfügung stellten. Wir danken der University of
Pennsylvania Fisher Fine Arts Library dafür, dass sie einem Nicht-Studenten Tag
für Tag Zugang gaben. Wir danken der Corporation of Yaddo, der MacDowell
Colony und der Port Townsend Writers’ Conference für wunderbare, inspirierende
und fruchtbare Gastaufenthalte. Wir danken der amerikanischen Post für ihren
Media Mail-Service, der es ermöglicht, bei einer rastlosen Wanderschaft ge-
druckte Texte mitzunehmen. Wir danken der Cognitive Science Society und der
Association for the Advancement of Artificial Intelligence für die Einladungen
zu ihren Jahreskonferenzen, bei denen wir zahlreiche Kontakte herstellten: inter-
personale, interdisziplinäre und interhemisphärische. Wir danken dem Border-
lands Cafe dafür, dass es das einzige uns bekannte Lokal in San Francisco ist,
in dem man Kaffee trinken kann, ohne Musik hören zu müssen. Möge euer
Geschäft stets florieren.
Wir danken Rose Linke und Tania Lombrozo – als Partnerinnen, als Unter-
stützerinnen, als Inspiration und vieles mehr.

347
ÜBER DIE AUTOREN
Brian Christian ist der Autor von The Most Human Human, einem Wall Street
Journal-Bestseller und »Favorite book of the Year« des New Yorker. Das Buch wurde
mittlerweile in zehn Sprachen übersetzt. Christian schreibt für den New Yorker,
The Atlantic, Wired, das Wall Street Journal, The Guardian, The Paris Review und
wissenschaftliche Zeitschriften wie Cognitive Science. Er lebt in San Francisco.

Tom Griffiths ist Professor für Psychologie und Kognitionswissenschaft an


der University of California in Berkeley, wo er das Computational Cognitive
Science Lab leitet. Er hat mehr als 150 wissenschaftliche Arbeiten zu zahlreichen
Themen veröffentlicht, darunter Kognitionspsychologie und Kulturevolution,
und hat unter anderem Auszeichnungen der National Science Foundation, der
Sloan Foundation, der American Psychological Association und der Psychonomic
Society erhalten. Er lebt in Berkeley.

348
ANMERKUNGEN
1 Im Hisab Al-dschabr wa’l-muqabala (Kurzgefasstes Buch über die Rechenverfahren mit Ergänzen und Aus-
gleichen) beschrieb al-Chwarizmi eine wahrhaft umwälzende Technologie – das indische Dezimalsys-
tem –, und die Tatsache, dass wir heute nicht ganz zutreffend von »arabischen Zahlen« sprechen, belegt
den Einfluss des Buches. Die Einführung der arabischen Zahlen und der durch das System ermöglich-
ten Algorithmen löste im Mittelalter einen Konflikt zwischen den Befürwortern dieser neuartigen Ma-
thematik (den »Algoristen«) und den traditionelleren Buchhaltern aus, welche die römischen Zahlen
und den Abakus bevorzugten (den »Abakisten«).
Die Auseinandersetzung wurde ziemlich heftig geführt: Die Stadtregierung von Florenz verabschiedete
im Jahr 1399 ein Gesetz, das den Banken die Verwendung der arabischen Zahlen verbot. Komischer-
weise waren die römischen Zahlen ebenfalls umstritten gewesen, als sie seinerzeit eingeführt worden
waren, um die Methode zu ersetzen, die Zahlen einfach als Worte hinzuschreiben; seinerzeit galten sie
vielen als »ungeeignet, eine Summe darzustellen, da die Namen für diesen Zweck erfunden wurden.«
Vgl. Murray, Chapters in the History of Bookkeeping.
2 Für eine detaillierte Beschreibung vgl. Knuth, »Ancient Babylonian Algorithms«. Für eine Darstellung
der Geschichte der Algorithmen unter besonderer Berücksichtigung der mathematischen Algorithmen
vgl. Chabert, Barbin und Weeks, A History of Algorithms.
3 Sagan, Broca’s Brain.
4 Die Grenzen der klassischen Vorstellung von der Rationalität – die auf der Annahme einer unbe-
grenzten Berechnungskapazität und unbegrenzter Zeit für die Problemlösung beruht – beschrieb der
Psychologe, Ökonom und KI-Pionier Herbert Simon in den Fünfzigerjahren (Simon, Models of Man).
Simon, der für seine Erkenntnisse mit dem Nobelpreis ausgezeichnet wurde, erklärte, das Konzept der
»begrenzten Rationalität« sei besser geeignet, das menschliche Verhalten zu beschreiben. Mathematiker
und Informatiker haben Simons Erkenntnisse aufgegriffen. Alan Turings Kollege I. J. Good (der mit
dem Konzept der »Singularität« und als Berater von Stanley Kubrick über den eigenwilligen Computer
HAL 9000 in 2001: Odyssee im Weltraum berühmt wurde) bezeichnete ein solches Denken als »Typ
II-Rationalität«. Während der Zweck der klassischen, altmodischen Rationalität des Typs I einfach
darin besteht, zur richtigen Antwort zu gelangen, berücksichtigt die Rationalität des Typs II die Kos-
ten dieser Antwort und betrachtet die Zeit als ebenso wertvoll wie die Genauigkeit. Vgl. Good, Good
Thinking.
Die modernen KI-Experten sind überzeugt, dass die »beschränkte Optimalität« – die Wahl des Al-
gorithmus, der am besten zwischen Zeitaufwand und Fehleranfälligkeit abwägt – der Schlüssel zur
Entwicklung funktionaler intelligenter Maschinen ist. Diese Einschätzung vertreten beispielsweise der
Informatiker Stuart Russell von der Universität Berkeley, einer der Autoren des KI-Lehrbuchs Artificial
Intelligence: A Modern Approach, und Eric Horvitz, der Geschäftsführer von Microsoft Research. Vgl.
z. B. Russell und Wefald, Do the Right Thing, sowie Horvitz und Zilberstein, »Computational Tradeoffs
Under Bounded Resources«. Tom und seine Kollegen haben gestützt auf diesen Ansatz Modelle der

349
Anmerkungen

menschlichen Kognition entwickelt; vgl. Griffiths, Lieder und Goodman, »Rational Use of Cognitive
Resources«.
5 In Abschnitt 9 seiner Arbeit »On Computable Numbers« begründet Turing die Entscheidungen über
die Definition dessen, was wir heute als Turing-Maschine bezeichnen, indem er ihre Funktionsweise
mit der Arbeitsweise einer Person vergleicht: Ein zweidimensionales Blatt Papier wird zu einer dreidi-
mensionalen Spule, der geistige Zustand der Person wird zum Zustand der Maschine, und die Zeichen
werden geschrieben und gelesen, während sich die Person oder Maschine über das Papier bewegt. Be-
rechnungen sind, was ein Rechner tut, und zu jener Zeit waren die einzigen »Rechner« Menschen.
6 Vgl. z. B. Gilovich, How We Know What Isn’t So; Ariely und Jones, Predictably Irrational; sowie Marcus,
Kluge.
7 Aus Keplers Brief an den Freiherrn Peter Heinrich von Strahlendorf in Prag, Eferding bei Linz, den 23.
Oktober 1613; in: Baumgardt, Kepler, S. 95f.
8 Für Beschreibungen des turkey drop vgl. z. B. http://www.npr.org/templates/story/story.php?story-
Id=120913056 und http://jezebel.com/5862181/technology-cant-stop-the-turkey-drop.
9 Wer mehr über die Mathematik des Optimalen Stoppens wissen möchte, dem sei Ferguson, Optimal
Stopping and Applications ans Herz gelegt.
10 Eine eingehende Analyse von Natur und Ursprüngen des Sekretärinnenproblems findet sich bei Fergu-
son, »Who Solved the Secretary Problem?«
11 Gardner schrieb über ein Gesellschaftsspiel mit dem Titel »Game of Googol«, das anscheinend im
Jahr 1958 von John Fox von der Minneapolis-Honeywell Regulator Company und Gerald Marnie
vom MIT entwickelt wurde. Fox beschrieb das Spiel in seinem Brief an Gardner vom 11. Mai 1959
folgendermaßen (alle Briefe Gardners, aus denen wir zitieren, befinden sich im Gardner-Archiv der
Universität Stanford – Martin Gardner Papers, Reihe 1, Schachtel 5, Ordner 19):
Der erste Spieler schreibt beliebig viele verschiedene positive Zahlen auf Karteikarten. Dann mischt er
die Karten und dreht sie eine nach der anderen um. Der zweite Spieler sagt an einem beliebigen Punkt
»Halt«. Wenn die Zahl auf der zuletzt umgedrehten Karte die höchste im Stapel ist, hat der zweite
Spieler gewonnen. Wenn nicht, hat der erste Spieler gewonnen.
Fox erklärte, der Name des Spiels komme daher, dass oft die Zahl »ein Googol« auf eine der Karten
geschrieben werde (vermutlich, um den Gegenspieler zu der Annahme zu verleiten, dies sei die höchste
Zahl, obwohl es noch eine Karte mit »zwei Googol« gab). Fox schrieb, die optimale Strategie für den
zweiten Spieler sei es, zu warten, bis die Hälfte der Karten umgedreht seien, um das Spiel anschließend
bei der ersten Karte zu beenden, die höher sei als die höchste in der ersten Hälfte, womit er eine Sieg-
chance von 34,7 Prozent habe.
Gardner schrieb an Leo Moser, einen Mathematiker an der University of Alberta, um mehr über das
Problem zu erfahren. Moser hatte sich im Jahr 1956 in einem Artikel mit einem ähnlichen Problem
beschäftigt (Moser, »On a Problem of Cayley«), das ursprünglich im Jahr 1875 von dem bedeutenden
britischen Mathematiker Arthur Cayley formuliert worden war (Cayley, »Mathematical Questions«;
Cayley, Collected Mathematical Papers). Hier die von Cayley vorgeschlagene Version:
Eine Verlosung läuft folgendermaßen ab: Es gibt n Lose, die jeweils einem Wert von a, b, c Pfund ent-
sprechen. Eine Person zieht ein Los und sieht es sich an; wenn ihr das Los gefällt, zieht sie ein zweites
(aus den verbleibenden n − 1 Losen), sieht es sich an und zieht, wenn es ihr gefällt, ein weiteres (von
den verbliebenen n − 2 Losen). Der Vorgang wiederholt sich, wobei die Person insgesamt nicht mehr
als k Male ziehen darf. Die Person enthält den Wert des letzten gezogenen Loses. Wenn der Spieler
bei seinen Ziehungen so vorteilhaft vorgeht, wie es gemäß der Wahrscheinlichkeitstheorie möglich ist,
welchen Wert darf er dann erwarten?

350
Anmerkungen

Moser ergänzte eine weitere Information: Die Wahrscheinlichkeit, dass ein Los einen Wert zwischen 0
und 1 haben würde, war bei allen Losen dieselbe.
In Cayleys Problem und der geringfügigen abgewandelten Version Mosers (manchmal werden beide
Varianten unter dem Begriff Cayley-Moser-Problem zusammengefasst) ist der Ertrag der Wert des
gezogenen Loses, und die Herausforderung besteht darin, jene Strategie zu finden, die den höchsten
durchschnittlichen Ertrag ermöglicht. Hier unterscheidet sich das von Cayley und Moser untersuchte
Problem vom Sekretärinnenproblem (und dem Googol-Spiel), denn es konzentriert sich auf die Maxi-
mierung des durchschnittlichen Werts der gewählten Zahl statt auf die Wahrscheinlichkeit, den höchsten
Wert zu finden (wobei der höchste Wert das einzige erstrebenswerte Ergebnis ist). Mosers Arbeit aus
dem Jahr 1956 ist nicht nur aufgrund seiner klaren Lösung für das Problem bemerkenswert, sondern
auch, weil er zum ersten Mal die Bedeutung des optimalen Stoppens in der realen Welt beschrieb.
Moser spricht über zwei mögliche Szenarien:
Das Touristenproblem: Ein Tourist, der im Auto reist, möchte in einem von n Motels übernachten, die
in seinem Straßenatlas aufgeführt sind. Er möchte die angenehmste Unterkunft, aber er will natürlich
kein Stück der Strecke zweimal zurücklegen. Nach welchem Kriterium sollte er entscheiden, wann er
Halt macht?
Das Junggesellendilemma: Ein Junggeselle lernt eine junge Frau kennen, die bereit ist, ihn zu heiraten,
und deren »Wert« er schätzen kann. Wenn er sie ablehnt, wird sie später nichts mehr von ihm wissen
wollen, aber er wird wahrscheinlich noch weitere Frauen kennenlernen und schätzt, dass er insgesamt
n Chancen bekommen wird. Unter welchen Bedingungen sollte er heiraten?
In einer Version mit umgekehrten Geschlechterrollen tauchte die Idee, eine junge Frau könne zwischen
einer Reihe potenzieller Verehrer wählen, in Gardners Kolumne über das Googol-Spiel im Jahr 1960
auf.
Moser lieferte Gardner die richtige Lösung – die 37-Prozent-Regel –, aber in seinem Brief vom 26. Au-
gust 1959 deutete er an, dass der Ursprung des Problems möglicherweise weiter zurücklag: »Ich fand
es auch in einigen Notizen, die R. E. Gaskell (von Boeing Aircraft in Seattle) im Januar 1959 verteilte.
Er bezeichnet Dr. G. Marsaglia als Erfinder des Problems.«
Gardner wohlwollende Interpretation war, dass Fox und Marnie die Erfindung des Googol-Spiels für
sich in Anspruch nahmen, nicht jedoch des Problems, das diesem Spiel zugrunde lag; er bemühte sich,
das in seiner Kolumne klarzustellen. Er erhielt jedoch zahlreiche Briefe, in denen frühere Beispiele für
ähnliche Probleme genannt wurden. Offensichtlich hatte das Problem in der mathematischen Ge-
meinde die Runde gemacht.
12 Selbst in Gilbert und Mosteller, »Recognizing the Maximum of a Sequence«, einem der maßgeblichen
wissenschaftlichen Artikel über das Sekretärinnenproblem, räumen die Autoren ein, dass »die Bemü-
hungen, den Urheber dieses Problems zu finden, erfolglos gewesen sind«. Ferguson, »Who Solved the
Secretary Problem?«, liefert eine amüsante und mathematisch detaillierte Geschichte des Sekretärinnen-
problems samt einiger Abwandlungen. Ferguson erklärte, das von Gardner beschriebene Problem sei
tatsächlich nicht gelöst worden. Offenkundig haben zahlreiche Personen das Sekretärinnenproblem ge-
löst, das darin besteht, die Wahrscheinlichkeit zu maximieren, aus einer Abfolge nur durch ihren Platz
in der Reihe voneinander zu unterscheidender Bewerberinnen die Beste auszuwählen, aber Ferguson
weist darauf hin, dass dies eigentlich nicht das im Googol-Spiel beschriebene Problem ist. Erstens kennt
der Googol-Spieler die auf den einzelnen Karten beobachteten Werte. Zweitens ist dies ein Spiel, in
dem es einen Gewinner und einen Verlierer gibt, wobei ein Spieler versucht, Zahlen und eine Abfolge
zu wählen, die den anderen Spieler täuschen werden. Ferguson liefert seine eigene Lösung für dieses
anspruchsvolle Problem, die jedoch so komplex ist, dass Sie sie selbst werden lesen müssen!
13 Gilbert und Mosteller, »Recognizing the Maximum of a Sequence«.

351
Anmerkungen

14 Brief von Roger Pinkham an Martin Gardner, 29. Januar 1960.


15 Vgl. Cook, In Pursuit of the Traveling Salesman; Poundstone, Prisoner’s Dilemma; sowie Flood, »Soft
News«.
16 Diese Behauptung stellte Flood am 5. Mai 1960 in einem Brief an Gardner auf. Er legte ein Schreiben
vom 5. Mai 1958 bei, in dem er die richtige Lösung erklärte, wobei er jedoch auch auf Gerüchte hin-
wies, dass Andrew Gleason, David Blackwell und Herbert Robbins das Problem in den letzten Jahren
gelöst hätten.
In einem Schreiben an Tom Ferguson vom 12. Mai 1988 beschäftigte sich Flood eingehender mit
dem Ursprung des Problems. (Der Brief findet sich im Merrill Flood-Archiv der University of Michi-
gan.) Anfang der Fünfzigerjahre war seine Tochter, die gerade die Highschool abgeschlossen hatte, eine
ernsthafte Beziehung zu einem älteren Mann eingegangen, die Flood und seine Frau nicht guthießen.
Im Januar 1950 war seine Tochter Protokollführerin bei einer Konferenz an der George Washington
University, bei der Flood das »Verlobtenproblem« vorstellte, wie er es nannte. Er erklärte Ferguson:
»Ich hatte zu jener Zeitpunkt überhaupt nicht vor, das Problem zu lösen, sondern führte es lediglich
ein, weil ich hoffte, sie würde ihre Beziehung unter diesem Gesichtspunkt betrachten, und es schien
ein hübsches, einfaches mathematisches Problem zu sein.« Flood erklärte, dass Herbert Robbins einige
Jahre eine annähernde Lösung anbot, bevor Flood selbst die exakte Lösung fand.
17 Chow u. a., »Optimal Selection Based on Relative Rank«.
18 Die 37-Prozent-Regel ergibt sich aus der Durchführung derselben Analyse für n Bewerberinnen, wobei
sich zeigt, wie groß die Wahrscheinlichkeit ist, dass die Festlegung eines Maßstabs auf der Grundlage
der ersten k Bewerberinnen zur Auswahl der insgesamt besten Bewerberin führen wird. Diese Wahr-
scheinlichkeit kann als Verhältnis zwischen k und n ausgedrückt werden, das wir p nennen können.
Mit wachsender Größe von n nähert sich die Wahrscheinlichkeit, die beste Bewerberin zu finden,
der mathematischen Formel −p log p an. Diese wird maximiert, wenn p = 1/e ist. Der Wert von e
ist 2,71828…, weshalb 1/e = 0,367879441… oder nahezu 37 Prozent ist. Und die mathematische
Koinzidenz – die Wahrscheinlichkeit des Erfolgs ist genauso groß wie p – ergibt sich daraus, dass log e
= 1 ist. Wenn also p = 1/e ist, ist −p log p einfach 1/e. Eine gut erklärte Version der gesamten Ableitung
findet sich bei Ferguson, »Who Solved the Secretary Problem?«
19 Die Mathematiker John Gilbert und Frederick Mosteller bezeichnen diese Symmetrie als »amüsant«
und behandeln sie eingehender in Gilbert und Mosteller, »Recognizing the Maximum of a Sequence«.
20 Malthus, Eine Abhandlung über das Bevölkerungsgesetz, S. 480.
21 Diese Aussage wird ihr von vielen Autoren zugeschrieben, z. B. von Thomas, Front Row at the White
House.
22 Vgl. Michael Tricks Blogpost dazu, wie er seine Frau kennenlernte: »Finding Love Optimally«, Michael
Trick’s Operations Research Blog, 27. Februar 2011, http://mat.tepper.cmu.edu/blog/?p=1392.
23 Die Regel ist nur direkt auf die Dauer der Suche anwendbar, wenn die Kandidatinnen gleichmäßig
über den Zeitraum verteilt sind. Andernfalls sollte man präziser auf 37 Prozent der Verteilung über den
Zeitraum hinweg zielen. Vgl. Bruss, »A Unified Approach to a Class of Best Choice Problems«.
24 Die erste Analyse der Strategie, mindestens bis zum Alter von 26 Jahren zu warten (37 Prozent des
Zeitraums zwischen 18 und 40 Jahren) lieferte Lindley, »Dynamic Programming and Decision Theo-
ry«, und diese Arbeit gab Trick vermutlich den Anstoß zur Entwicklung seiner Strategie.
25 Für detaillierte Darstellungen von Keplers Lebensgeschichte vgl. Koestler, The Watershed, und Baum-
gardt, Johannes Kepler, sowie Connor, Kepler’s Witch. Das meiste von dem, was wir über Keplers Suche
nach einer zweiten Frau wissen, stammt aus einem Brief, den er am 23. Oktober 1613 in Linz vermut-
lich an den Freiherrn Peter Heinrich von Strahlendorf schrieb.

352
Anmerkungen

26 Baumgardt, Johannes Kepler, S. 97.


27 Smith, »A Secretary Problem with Uncertain Employment«, hat gezeigt, dass dann, wenn die Wahr-
scheinlichkeit, dass ein Angebot abgelehnt wird, q ist, die beste Strategie zur Maximierung der Wahr-
scheinlichkeit, die beste Bewerberin zu finden, darin besteht, sich einen Anteil von q1/(1−q) der Be-
werberinnen anzusehen und von da an jeder Bewerberin, die besser ist als die bisher gesehenen, ein
Angebot zu machen. Dieser Anteil ist immer kleiner als 1/e, weshalb wir unsere Chancen erhöhen,
indem wir mehr Angebote machen. Leider sind diese Chancen immer noch geringer als unter der
Bedingung, dass Angebote nicht abgelehnt werden – die Wahrscheinlichkeit, die beste Bewerberin zu
finden, ist ebenfalls q1/(1−q) und damit geringer als die von der 37-Prozent-Regel gewährleistete.
28 Baumgardt, Kepler, S. 97.
29 Wenn nachträgliche Anträge erlaubt sind, hängt die optimale Strategie davon ab, wie groß die Wahr-
scheinlichkeit q ist, dass ein sofortiger Antrag angenommen wird, und wie groß die Wahrscheinlichkeit
p ist, dass ein nachträglicher Antrag angenommen wird. Der Anteil der Kandidatinnen, die anfangs
abgelehnt werden sollten, kann anhand der einigermaßen beängstigenden Formel (q2 / q − p(1−q))1/
(1−q) ermittelt werden. Diese integriere Formel für Zurückweisung und Wiederaufgreifen stammt aus
Petruccelli, »Best-Choice Problems Involving Uncertainty«, obwohl der Rückgriff auf frühere Kandida-
ten bereits von Yang, »Recognizing the Maximum of a Random Sequence«, untersucht wurde.
Die Formel wird einfacher, wenn wir q und p bestimmen. Ist p = 0, das heißt, werden nachträgliche
Anträge immer abgelehnt, so erhalten wir wieder die Regel für das Sekretärinnenproblem mit Ableh-
nung. Wenn wir uns q = 1 nähern, das heißt, wenn sofortige Anträge immer angenommen werden,
nähert sich der Punkt ab dem wir beginnen sollten, Angebote zu machen, ep−1 an, ein Wert, der im-
mer höher ist als 1/e (was als e−1 geschrieben werden kann). Das bedeutet, dass die Möglichkeit, bereits
übergangenen Bewerberinnen ein Angebot zu machen, dazu führen dürfte, dass wir mehr Zeit damit
verbringen, Bewerberinnen zu übergehen – das ist etwas, was der Intuition entspricht. Im Haupttext
nehmen wir an, dass sofortige Angebote immer angenommen werden (q = 1), während nachträgliche
Angebote in der Hälfte der Fälle abgelehnt werden (p = 0,5). Also sollten wir 61 Prozent der Bewerbe-
rinnen ausschließen und der von da an besten ein Angebot machen, um am Ende gegebenenfalls auf
die insgesamt beste Bewerberin zurückzukommen und ihr ein Angebot zu machen.
Eine weitere von Petruccelli untersuchte Möglichkeit ist, dass die Wahrscheinlichkeit der Zurück-
weisung in der Lage der Zeit steigt, das der Eifer der Bewerberinnen nachlässt. Wenn die Wahrschein-
lichkeit, dass eine Bewerberin ein Angebot annimmt, qps ist, wobei s die Zahl der »Schritte« in die
Vergangenheit ist, die erforderlich sind, um zu dieser Bewerberin zu gelangen, dann hängt die optimale
Strategie von q, p und der Zahl der Bewerberinnen n ab. Wenn q/(1 − p) größer ist als n – 1, dann
spielen wir am besten ein Wartespiel, sehen uns alle Bewerberinnen an und machen anschließend der
besten ein Angebot. Ansonsten sollten wir einen Anteil von q1/(1−q) begutachten und der ersten Be-
werberin, die besser als die bisher gesehenen ist, ein Angebot machen. Interessanterweise ist dies genau
dieselbe Strategie (mit derselben Erfolgswahrscheinlichkeit) wie die, die zur Anwendung kommt, wenn
p = 0 ist, was bedeutet, dass es, wenn die Wahrscheinlichkeit einer Ablehnung im Lauf der Zeit steigt,
keinen Vorteil hat, in der Lage zu sein, auf eine frühere Kandidatin zurückzugreifen.
30 Gilbert und Mosteller, »Recognizing the Maximum of a Sequence«.
31 Die allgemeine Strategie für die Lösung optimaler Stopprobleme wie des Spiels mit vollständiger In-
formation besteht darin, am Ende zu beginnen und sich von dort aus zurückzuarbeiten – ein Prinzip,
das als »Rückwärtsinduktion« bezeichnet wird. Stellen wir uns beispielsweise ein Spiel vor, in dem wir
einen Würfel werfen und die Wahl haben, entweder die gewürfelte Zahl zu »behalten« oder erneut
zu würfeln, und zwar maximal k Male. (Das Beispiel stammt aus Hill, »Knowing When to Stop«).
Welches ist die optimale Strategie? Wir können es herausfinden, indem wir uns zurückarbeiten. Wenn
k = 0 ist, gibt es keine Option – wir müssen die gewürfelte Zahl behalten und werden im Durchschnitt

353
Anmerkungen

3,5 Augen haben (der Durchschnittswert eines Würfelwurfs ist (1 + 2 + 3 + 4 + 5 + 6)/6). Wenn k =
1 ist, sollten wir nur ein Ergebnis behalten, das diesen Durchschnitt übertrifft, das heißt eine 4 oder
mehr. Wenn wir eine 1, 2 oder 3 würfeln, sollten wir uns hingegen auf das Risiko eines letzten Wurfs
einlassen. Wenn wir diese Strategie anwenden, haben wir eine 50-prozentige Chance, eine 4, 5 oder 6
(und damit ein Durchschnittsergebnis von 5) zu würfeln, und eine 50-prozentige Chance, auch den
letzten Wurf zu machen (wobei das Durchschnittsergebnis 3,5 sein wird). Das Durchschnittsergebnis
bei k = 1 ist also 4,25, und bei k = 2 sollten wir den Wurf nur behalten, wenn es diesen Wert übertrifft –
also eine 5 oder 6. Und so weiter.
Die Rückwärtsinduktion beantwortet also eine uralte Frage. Im Englischen gibt es das Sprichwort »A
bird in the hand is worth two in the bush« [das etwa, aber eben nicht genau dem deutschen Sprichwort
»Besser den Spatz in der Hand als die Taube auf dem Dach« entspricht, Anm. d. Ü.], aber ist 2 hier
der richtige Koeffizient? Die Mathematik sagt uns, dass die richtige Zahl von Vögeln im Busch von
der Qualität des Vogels in der Hand abhängt. Wenn wir die Vögel der Annehmlichkeit halber durch
Würfel ersetzen, so ist ein Wurf einer 1, 2 oder 3 nicht einmal so viel wert wie ein einziger Würfel »im
Busch«. Hingegen ist ein Wurf von 4 einen Würfel im Busch wert, während ein Wurf von 5 zwei, drei
oder sogar vier Würfel im Busch wert ist. Und ein Wurf von 6 ist mehr wert als der unendlich viele
Würfel im Busch.
Gilbert und Mosteller wählten denselben Zugang, um eine Reihe von Schwellenwerten abzuleiten, die
beim Sekretärinnenproblem mit vollständiger Information verwendet werden sollten. Die Schwellen-
werte selbst werden nicht anhand einer einfachen mathematischen Formel beschrieben, aber in dem
Artikel finden sich einige Annäherungen. In der einfachsten liegt der Schwellenwert bei tk = 1/(1 +
0,804/k + 0,183/k2) für die Bewerberin n − k. Wenn die Wahrscheinlichkeit, dass eine beliebige Be-
werberin besser ist als die Bewerberin n − k ist, bei weniger als tk liegt, sollte man dieser Bewerberin
den Job anbieten. Da der Nenner – mit wachsender Geschwindigkeit – wächst, wenn k größer wird,
muss man den Schwellenwert im Lauf der Zeit rasch senken.
32 Freeman, »The Secretary Problem and Its Extensions«, fasst zahlreiche dieser Varianten zusammen. Es
folgt ein kurzer Überblick über einige der nützlichsten Resultate.
Wenn die Zahl der Bewerberinnen mit gleicher Wahrscheinlichkeit bei einer Zahl zwischen 1 und n
liegt, dann lautet die optimale Regel, dass man sich die ersten n/e 2 (das sind etwa 13,5 Prozent von
n Bewerberinnen) ansieht und anschließend die erste Bewerberin einstellt, die besser ist als alle bis da-
hin gesehenen, wobei die Erfolgschance bei 2/e 2 liegt (Presman und Sonin, »The Best Choice Problem
for a Random Number of Objects«).
Wenn die Zahl der Bewerberinnen potenziell unendlich ist, die Suche jedoch mit der Wahrscheinlich-
keit p nach jeder Bewerberin endet, so lautet die optimale Regel, die ersten 0,18/p Bewerberinnen zu
prüfen, wobei die Erfolgschance bei 23,6 Prozent liegt (ebd.).
Nehmen wir an, wir suchen die beste Sekretärin, aber mit zunehmender Dauer der Suche hat es we-
niger Wert für uns, die beste Kandidatin zu finden. Wenn der Ertrag der Identifizierung der besten
Sekretärin nach der Prüfung von k Bewerberinnen dk ist, dann besteht die Strategie, die den erwarteten
Ertrag maximiert, darin, einen Schwellenwert auf der Grundlage einer Zahl von Bewerberinnen festzu-
legen, die garantiert niedriger ist als 1/(1 − d), wenn die Zahl der Bewerberinnen groß wird (Rasmussen
und Pliska, »Choosing the Maximum«). Ist d nahezu 1, so kann man sich der optimalen Strategie an-
nähern, indem man die ersten −0,4348/log d Bewerberinnen ansieht und dann die Nächste auswählt,
die besser ist als alle bisher gesehenen. Die Befolgung dieser Strategie kann dazu führen, dass man
ungeachtet der Größe des Pools nur eine Handvoll Bewerberinnen prüft.
Eine Situation im wirklichen Leben kann zum Beispiel dadurch von diesen idealen Rekrutierungs-
szenarien abweichen, dass unserer Ziel nicht darin besteht, die Wahrscheinlichkeit zu maximieren,
die beste Sekretärin zu finden. Es ist eine Vielzahl von Alternativen untersucht worden. Chow u. a.,

354
Anmerkungen

»Optimal Selection Based on Relative Rank«, zeigt, dass dann, wenn das Ziel darin besteht, den durch-
schnittlichen Rang der ausgewählten Bewerberin zu maximieren, eine andere Art von Strategie an-
gewandt werden muss. Statt eines einzigen Schwellenwerts für die relative Einstufung der Bewerberin
haben wir hier eine Abfolge von Schwellenwerten. Diese Schwellenwerte steigen mit steigender Zahl
der begutachteten Bewerberinnen, wobei der Interviewer im Lauf der Zeit weniger strikt wird. Bei-
spielsweise muss bei vier Bewerberinnen die niedrigste relative Einstufung der ersten Bewerberin 0
sein, damit man die Suche beenden kann (man darf nie bei der Ersten stoppen). Die niedrigste relative
Einstufung der zweiten Bewerberin muss 1 sein (man stoppt nur, wenn sie besser ist als die Erste); bei
der Dritten muss es 2 (man stoppt, wenn sie die Beste oder Zweitbeste ist) und bei der Dritten 4 sein
(Man muss stoppen!). Bei dieser Strategie ergibt sich eine durchschnittliche erwartete Einstufung von
, was besser ist als bei einer zufälligen Auswahl einer Bewerberin. Die Formel für die
optimalen Schwellenwerte findet man durch Rückwärtsinduktion, die kompliziert ist – interessierte
Leser seien auf den Originalartikel verwiesen.
Der Unterschied zwischen dem klassischen Sekretärinnenproblem und dem Fall der durchschnittlichen
Einstufung besteht darin, wie sie den verschiedenen Einstufungen Erträge zuordnen. Im klassischen
Problem liegt der Ertrag der Auswahl der besten Bewerberin bei 1 und der Ertrag der Wahl aller anderen
Bewerberinnen bei 0. Bei der durchschnittlichen Einstufung entspricht der Ertrag der Zahl der Bewer-
berinnen abzüglich der Einstufung der ausgewählten Bewerberin. Es gibt naheliegende Möglichkeiten
zur Verallgemeinerung, und Strategien mit mehreren Schwellenwerten ähnlich jener, bei der die durch-
schnittliche Einstufung maximiert wird, funktionieren bei jeder Ertragsfunktion, die mit steigender
Einstufung der Bewerberin sinkt (Mucci, »On a Class of Secretary Problems«). Eine weitere interes-
sante Verallgemeinerung – die bedeutsame Implikationen für wählerische Personen auf Partnersuche
hat – ist, dass man dann, wenn der Ertrag der Wahl der besten Bewerberin 1, der Ertrag der Wahl aller
anderen Bewerberinnen jedoch −1 ist (keine Entscheidung bringt einen Ertrag von 0), einen Anteil von
der Bewerberinnen prüfen sollte, um anschließend die erste Person zu wählen, die besser als
alle bisher geprüften ist (oder niemanden, wenn keine dieses Kriterium erfüllt) (Sakaguchi, »Bilateral
Sequential Games«). Man sollte also gründlich über die Ertragsfunktion nachdenken, bevor man sich
entscheidet!
Wie sieht es jedoch aus, wenn es uns nicht nur darum geht, die beste Person zu finden, sondern darum,
wie viel Zeit wir ihr widmen können? Ferguson, Hardwick und Tamaki, »Maximizing the Duration
of Owning a Relatively Best Object«, untersuchten verschiedene Varianten dieses Problems. Wenn
wir einfach nur die Zeit maximieren wollen, die wir mit der besten Person in unserer Gruppe von n
Personen verbringen, sollten wir uns zuerst 0,204n + 1,33 Personen ansehen und anschließend die
erste Person auswählen, die besser als alle bisher gesehenen ist. Wenn wir jedoch die Zeit maximieren
wollen, die wir mit der Person verbringen wollen, die die Beste aller bisher gesehenen ist, sollten wir
uns einfach einen Anteil von 1/e 2 ≈ 13,5 Prozent Personen ansehen. Diese kürzeren Zeiträume sind
besonders in Kontexten wie der Partnersuche relevant, in denen die Suche einen beträchtlichen Teil
unseres Lebens beanspruchen kann.
Wie sich herausstellt, ist es schwieriger, die zweitbeste Bewerberin zu finden als die beste. Die op-
timale Strategie besteht darin, die erste Hälfte der Bewerberinnen zu übergehen, um anschließend
die zweitbeste unter den bisher gesehenen auszuwählen (Rose, »A Problem of Optimal Choice and
Assignment«). Die Wahrscheinlichkeit eines Erfolgs liegt hier lediglich bei 1/4 (gegenüber 1/e bei
der Suche nach der besten Bewerberin). Also sind wir besser beraten, nicht zu versuchen, uns mit der
zweitbesten Option zufriedenzugeben.
Schließlich gibt es auch Varianten, die der Tatsache Rechnung tragen, dass unsere Bewerberinnen nach
einem Job suchen, während wir nach einer Sekretärin suchen. Die zusätzliche Symmetrie – die bei
der Partnersuche besonders relevant ist – erhöht die Komplexität des Problems weiter. Peter Todd, ein
Kognitionswissenschaftler an der Indiana University, hat diese Komplexität (und die Möglichkeiten zu

355
Anmerkungen

ihrer Vereinfachung) eingehend untersucht. Vgl. Todd und Miller, »From Pride and Prejudice to Per-
suasion Satisficing in Mate Search«, sowie Todd, »Coevolved Cognitive Mechanisms in Mate Search«.
33 Das Problem des Hausverkaufs wird in Sakaguchi, »Dynamic Programming of Some Sequential Sam-
pling Design«; Chow und Robbins, »A Martingale System Theorem and Applications«; sowie Chow
und Robbins, »On Optimal Stopping Rules« untersucht. Wir beschränken uns hier auf den Fall, in
dem es eine potentiell unbegrenzte Zahl von Angeboten gibt, aber diese Autoren beschreiben auch
optimale Strategien für Fälle, in denen die Zahl der potenziellen Angebote bekannt und endlich ist
(diese Strategien sind weniger konservativ, denn der Schwellenwert sollte niedriger sein, wenn man
nur eine endliche Zahl von Gelegenheiten hat). Im Fall unendlich vieler Angebote sollte man einen
Schwellenwert festlegen, der auf dem erwarteten Wert des Wartens auf ein weiteres Angebot beruht,
und das erste Angebot annehmen, das über diesem Schwellenwert liegt.
34 Wenn wir sowohl den Angebotspreis p als auch die Kosten c des Wartens auf ein anderes Angebot als
Fraktionen unserer Preisspanne ausdrücken (wobei 0 die Untergrenze und 1 die Obergrenze der Band-
breite ist), ist die Wahrscheinlichkeit, dass das nächste Angebot besser sein wird als p, einfach 1 − p.
Wenn ein besseres Angebot eintrifft, ist der durchschnittliche Betrag, den wir über p hinaus zu verdie-
nen erwarten dürfen, . Eine Multiplikation ergibt das zu erwartende Resultat des Wartens auf ein
weiteres Angebot, das genauso hoch oder höher sein sollte als die Kosten c, um sich zu lohnen. Diese
Gleichung kann vereinfacht werden auf , und die Lösung von p ergibt
(siehe Diagramm auf Seite 31).
35 Laura Albert McLay, persönliches Interview, 16. September 2014.
36 Die Formulierung der Arbeitssuche als optimales Stopp-Problem wird in Stigler, »The Economics of
Information«, und Stigler, »Information in the Labor Marketing«, behandelt. McCall, »Economics of
Information and Job Search«, hat ein Modell vorgeschlagen, das der Lösung für das Problem des Haus-
verkaufs entspricht, und Lippman und McCall, »The Economics of Job Search«, behandelt mehrere
Erweiterungen dieses Modells. So wie es zahlreiche Varianten des Sekretärinnenproblems gibt, haben
die Ökonomen dieses einfache Modell auf sehr unterschiedliche Art verfeinert, um es realen Bedin-
gungen anzupassen: Sie haben die Möglichkeit mehrerer Angebote am selben Tag ergänzt, die Kosten
für den Verkäufer modifiziert und Schwankungen der Wirtschaftslage im Verlauf der Suche eingeführt.
Für einen guten Überblick über den optimalen Stopp im Kontext der Arbeitssuche vgl. Rogerson,
Shimer und Wright, Search-Theoretic Models of the Labor Market.
37 Wie es in einer Studie über das Problem der Arbeitssuche heißt: »Ausgehend von der Annahme, dass
nicht mehr auf ein einmal abgelehntes Angebot zurückgegriffen werden kann, obwohl dies tatsächlich
nicht restriktiv ist, da das Problem stationär ist, wird ein Angebot, das heute nicht akzeptabel ist, auch
morgen nicht akzeptabel sein.« (Ebd.)
38 Clark Kerr, zitiert in: »Education: View from the Bridge«, in: Time, 17. November 1958.
39 Donald Shoup, persönliche Korrespondenz, Juni 2013.
40 Für zusätzliche Informationen über die Parkraumbewirtschaftung in San Francisco und die von Shoup
angeregte dynamische Tarifgestaltung vgl. http://sfpark.org/how-it-works/pricing/. (Shoup fungiert als
Berater.) Das Programm, das weltweit erste seiner Art, wurde 2011 eingeführt. Für eine aktuelle Ana-
lyse über seine Auswirkungen vgl. Millard-Ball, Weinberger und Hampshire, »Is the Curb 80 % Full
or 20 % Empty?«
41 Persönliches Interview mit Donald Shoup, 7. Juni 2013. Um ganz genau zu sein: Der Anstieg von
90 Prozent auf 95 Prozent entspricht einer Erhöhung um 5,555… Prozent.
42 Das hier beschriebene Parkplatzproblem wurde ursprünglich in DeGroot, Optimal Statistical Decisions,
beschrieben. Die Lösung besteht darin, den ersten freien Platz zu nehmen, der weniger als −log 2 /

356
Anmerkungen

log(1−p) Parkplätze vom Ziel entfernt ist, wobei p die Wahrscheinlichkeit ist, dass ein gegebener Park-
platz frei ist.
43 In Kapitel 17 von The High Cost of Free Parking beschäftigt sich Shoup mit der optimalen Strategie
für das Parken auf der Straße, wenn die Parkgebühren für durchschnittlich einen freien Parkplatz pro
Block sorgen, wobei die Strategie »vom Ausgang des Konflikts zwischen Geiz und Faulheit« abhängt
(persönliche Korrespondenz). Die Frage, ob man auf der Suche nach billigen Stellplätzen am Straßen-
rand Runden drehen oder für einen privaten Stellplatz zahlen soll, behandelt Shoup in Kapitel 13
seines Buchs.
44 Tamaki, »Adaptive Approach to Some Stopping Problems«, sieht vor, dass die Wahrscheinlichkeit
der Verfügbarkeit eines Parkplatzes abhängig vom Ort unterschiedlich hoch ist, und beschäftigt sich
mit der Frage, wie diese Wahrscheinlichkeiten spontan geschätzt werden können. Tamaki, »Optimal
Stopping in the Parking Problem with U Turn« fügt die Möglichkeit des Wendens ein. Tamaki, »An
Optimal Parking Problem«, beschäftigt sich mit einer Erweiterung von DeGroots Modell, in dem die
Parkmöglichkeiten keine gesonderten Plätze sind. Sakaguchi und Tamaki, »On the Optimal Parking
Problem in Which Spaces Appear Randomly«, verwenden diese kontinuierliche Form und sehen vor,
dass der Bestimmungsort unbekannt ist. Mac-Queen und Miller, »Optimal Persistence Policies«, be-
schäftigten sich unabhängig davon mit einer kontinuierlichen Version des Problems, in der es möglich
ist, auf der Suche nach einem Parkplatz Runden um den Block zu fahren.
45 Persönliches Interview mit Donald Shoup, 7. Juni 2013.
46 »World’s Billionaires«, in: Forbes, 28. Juli 1997, S. 174.
47 Paul Klebnikov, »The Rise of an Oligarch«, in: Forbes, 9. September 2000.
48 Wladimir Putin, Interview mit Le Figaro, 26. Oktober 2000.
49 Berezovsky und Gnedin, Problems of Best Choice.
50 Es gibt verschiedene Zugänge zu dem Problem, wie man aussteigen kann, wenn man die Nase vorn
hat. Die erste Methode besteht darin, die Länge einer Sequenz von Erfolgen zu maximieren. Nehmen
wir an, wir werfen eine Münze, und das Ergebnis des Wurfs wird mit der Wahrscheinlichkeit p »Kopf«
sein. Wir bezahlen c Dollar für jede Chance, die Münze zu werfen, und gewinnen 1 Dollar, wenn das
Ergebnis »Kopf« ist, verlieren jedoch unseren gesamten akkumulierten Gewinn, wenn das Ergebnis
»Zahl« ist. Wann sollten wir aufhören, die Münze zu werfen? Wie Norman Starr im Jahr 1972 zeigte,
ist die Antwort, dass wir nach r »Kopf«-Würfen stoppen müssen, wobei r die kleinste Zahl ist, so dass
pr+1 ≤ c. Wenn es sich um eine normale Münze mit p = 1/2 handelt und wenn es 0,1 Dollar kostet, die
Münze zu werfen, sollten wir also aufhören, sobald wir viermal nacheinander »Kopf« geworfen haben.
Die Analyse der Serien von »Kopf« findet sich bei Starr, »How to Win a War if You Must«, wo die
Strategie als Modell für den Sieg in einem Abnutzungskrieg beschrieben wird. Für eine umfassendere
Analyse vgl. Ferguson »Stopping a Sum During a Success Run«.
Die Maximierung der Länge einer Serie von »Kopf«-Würfen ist eine ziemlich gute Analogie für be-
stimmte Geschäftssituationen – bei einer Abfolge von Transaktionen, deren Vorbereitung die Kosten
c verursacht, die mit der Wahrscheinlichkeit p erfolgreich abgewickelt werden können und die im
Erfolgsfall den Ertrag d abwerfen, im Fall eines Misserfolgs jedoch den gesamten Gewinn vernichten,
sollte man aussteigen, nachdem man r Dollar verdient hat, womit pr/d+1 ≤ c/d. Ambitionierte Drogen-
händler sollten das bedenken.
Beim im Text behandelten Einbrecherproblem können wir annehmen, dass der durchschnittliche Ge-
winn bei jedem Einbruch m und die Wahrscheinlichkeit zu entkommen q ist. Wird der Einbrecher
jedoch gefasst, was mit einer Wahrscheinlichkeit von 1 – q geschehen wird, so verliert er alles. Die
Lösung: Er sollte aussteigen, wenn der akkumulierte Gewinn größer oder gleich mq/(1 − q) ist. Das
Einbrecherproblem wird in Haggstrom, »Optimal Sequential Procedures When More Than One Stop

357
Anmerkungen

Is Required« als Teil eines komplexeren Problems beschrieben, in dem der Einbrecher auch zu ent-
scheiden versucht, in welche Stadt er umziehen soll.
51 Vgl. z. B. »Boris Berezovsky ›Found with Ligature Around His Neck‹«, BBC News, 28. März 2013,
http://www.bbc.com/news/uk-21963080.
52 Vgl. z. B. »Berezovsky Death Consistent with Hanging: Police«, Reuters, 25. März 2013, http://www.reu-
ters.com/article/2013/03/25/us-britain-russia-berezovsky-postmortem-idUSBRE92O12320130325.
53 Hoffman, The Oligarchs, S. 128.
54 Eine Bedingung für die Existenz einer optimalen Stopp-Regel ist, dass der durchschnittliche Ertrag des
Stoppens am besten möglichen Punkt endlich ist (vgl. Ferguson, Optimal Stopping and Applications).
Das Spiel »Dreifach oder nichts« erfüllt diese Bedingung nicht – wenn das Ergebnis k Male »Kopf« ist,
gefolgt von einmal »Zahl«, dann erhält der beste mögliche Spieler 3k − 1 als Gewinn und steigt genau
vor »Zahl« aus. Die Wahrscheinlichkeit, dass das geschieht, liegt bei 1/2k+1. Der Durchschnitt über k
ist also endlich.
Wenn Sie glauben, das könnte gelöst werden, indem man annimmt, dass die Menschen dem Geld
umso weniger Wert beimessen, je mehr sie davon haben – dass die Verdreifachung der monetären Be-
lohnung also nicht den Nutzen verdreifacht, den die Menschen diesem Geld zusprechen – gibt es eine
einfache Möglichkeit, das Problem zu umgehen: Wir erhalten immer noch ein Spiel ohne optimale
Stopp-Regel, indem wir einfach Belohnungen anbieten, deren Nutzen verdreifacht wird. Wenn bei-
spielsweise der Nutzen, den wir dem Geld beimessen, als logarithmische Funktion des Geldbetrags
steigt, dann wird das Spiel zu »Hoch drei oder nichts«: Der Geldbetrag, den wir mit der nächsten
Wette gewinnen können, wird jedes Mal, wenn wir gewinnen, in die dritte Potenz erhoben.
Obwohl es keine optimale Stopp-Regel für »Dreifach oder nichts« gibt, weil hier in jeder Runde unser
gesamtes Vermögen auf dem Spiel steht, gibt es interessanterweise durchaus gute Strategien für Spiele
wie dieses, wenn wir wählen können, wie viel von unserem Spielkapital wir einsetzen wollen. Der
sogenannte Kelly-Wettplan, benannt nach J. L. Kelly Jr. und erstmals beschrieben in Kelly, »A New
Interpretation of Information Rate«, ist ein Beispiel dafür. In diesem Plan kann ein Spieler seine Er-
tragsrate maximieren, indem er einen Anteil von seines Kapitals in jeder von einer Reihe von
Wetten einsetzt, bei denen b + 1 Male der Einsatz mit der Wahrscheinlichkeit p ausgezahlt wird. Bei
unserem Spiel »Dreifach oder nichts« ist b = 2 und p = 0,5, weshalb wir jedes Mal ein Viertel unseres
Kapitals einsetzen sollten – und nicht unser gesamtes Geld, weil das unausweichlich zum Totalverlust
führt. Für eine verständliche Darstellung der Kelly-Wetten vgl. Poundstone, Fortune’s Formula.
55 Die Herkunft dieses Zitats ist nicht gesichert, obwohl es seit der zweiten Hälfte des 19. Jahrhunderts
als Wahrspruch der Quäker zitiert wird und zumindest seit 1893 Grellet zugeschrieben wird. Für mehr
vgl. W. Gurney Benham, Benham’s Book of Quotations, Proverbs, and Household Words, 1907.
56 Dillard, Pilgrim at Tinker Creek.
57 Seale und Rapoport, »Sequential Decision Making with Relative Ranks«.
58 Ebd. Typischerweise gingen die Versuchspersonen bei der 13. von 40 bzw. bei der 21. von 80 Bewer-
berinnen vom Suchen zum Springen über, das heißt bei 32 Prozent bzw. 26 Prozent.
59 Persönliches Interview mit Amnon Rapoport, 11. Juni 2013.
60 Seale und Rapoport, »Sequential Decision Making with Relative Ranks«.
61 Persönliche Korrespondenz mit Neil Bearden, 26. Juni 2013. Vgl. auch Bearden, »A New Secretary
Problem«.
62 Dieses Argument brachte erstmals Herbert Simon vor, und es zählt zu den Beiträgen, für die er mit
dem Nobelpreis ausgezeichnet wurde. Simon begann seine bemerkenswerte Karriere als Politikwis-
senschaftler und schrieb eine Abhandlung über das auf den ersten Blick wenig verlockende Thema

358
Anmerkungen

des Verhaltens in Verwaltungsorganisationen. Bei der Untersuchung der Frage, wie Organisationen,
die aus wirklichen Menschen bestehen, Entscheidungen fällen, stellte er fest, dass ihm die von der
Ökonometrie angebotenen abstrakten Entscheidungsmodelle – die auf der Vorstellung beruhen, dass
rationales Handeln eine sorgfältige Beschäftigung mit den Optionen erfordert – nicht weiterhalfen.
Die Auseinandersetzung mit der Frage, wie Entscheidungen in Organisationen tatsächlich gefällt wer-
den, zeigte Simon, dass die üblichen Annahmen nicht zutrafen. Es wurde eine Alternative gebraucht.
In »A Behavioral Model of Rational Choice« erklärte er, die Aufgabe bestehe darin, »die globale Ra-
tionalität des Homo Oeconomicus durch eine Art von rationalem Verhalten zu ersetzen, das mit dem
tatsächlichen Zugang zu Information und der Berechnungsfähigkeit der Organismen einschließlich
des Menschen in den Umgebungen, in denen diese Organismen existieren, kompatibel ist.«
Die Lösung, die nach Einschätzung Simons den menschlichen Entscheidungen eher gerecht wird,
besteht darin, gestützt auf die Erfahrung einen Schwellenwert für ein Ergebnis festzulegen, das befrie-
digend oder »gut genug« ist, und dann die erste Option zu wählen, die diesen Schwellenwert übertrifft.
Dieser Algorithmus hat denselben Charakter wie die Lösungen für die in diesem Kapitel behandelten
optimalen Stoppprobleme, bei denen der Schwellenwert entweder festgelegt wird, indem eine Zeitlang
studiert wird, welche Optionen es gibt (wie im Sekretärinnenproblem), oder auf der Kenntnis der
Wahrscheinlichkeit verschiedener Ergebnisse beruht. Tatsächlich verwendete Simon in seiner Argu-
mentation unter anderem das Beispiel des Hausverkaufs und bot eine Lösung an, die der hier beschrie-
benen ähnelt.
63 Gemeint ist Ferguson, Optimal Stopping and Applications.
64 Robert Pirsig, Zen und die Kunst, ein Motorrad zu warten, S. 16.
65 Joseph Parry, »New Friends and Old Friends«, in: Hazel Felleman (Hg.), The Best Loved Poems of the
American People (Garden City: Doubleday, 1936), S. 58.
66 Helen Steiner Rice, »The Garden of Friendship«, in: Virginia J. Ruehlmann (Hg.), The Poems and
Prayers of Helen Steiner Rice (Grand Rapids: Fleming H. Revell), S. 47.
67 Persönliches Interview mit Scott Plagenhoef, 5. September 2013.
68 In einem Brief an Merrill Flood vom 14. April 1955 (zugänglich im Merrill-Flood-Archiv der Universi-
ty of Michigan) erzählt Frederick Mosteller die Geschichte vom Ursprung des Namens. Mosteller und
sein Mitarbeiter Robert Bush arbeiteten an mathematischen Modellen von Lernprozessen — dies war
eine der ersten Arbeiten auf einem Gebiet, das später als mathematische Psychologie bekannt wurde
und der Forschung zugrunde liegt, die Tom heute betreibt. Mosteller und Bush interessierten sich ins-
besondere für eine Reihe von Experimenten mit einem T-förmigen Labyrinth, in dem ein Versuchstier
am Fuß des T ausgesetzt wurde und entscheiden musste, ob es nach rechts oder links laufen wollte. Auf
einer Seite des Labyrinths fand das Tier möglicherweise Futter – den Ertrag. Um zu untersuchen, wie
sich Menschen unter solchen Bedingungen verhielten, ließen sich die Forscher eine Maschine mit zwei
Hebeln bauen, an denen die Versuchspersonen ziehen konnten. Mosteller bezeichnete diese Maschine
als »zweiarmigen Banditen«. Dann legte er die mathematische Form des Problems seinen Kollegen vor,
und das Modell wurde schließlich unter der Bezeichnung »mehrarmiger Bandit« bekannt.
Für eine ausführliche Beschreibung der »Multi-armed Bandit«-Probleme vgl. Berry und Fristed, Ban-
dit Problems. In diesem Kapitel konzentrieren wir uns auf Banditen, bei denen die einzelnen Arme
entweder einen Gewinn auslösen oder nicht, wobei die Wahrscheinlichkeiten unterschiedlich, die
Auszahlungen jedoch bei allen Armen gleich sind. Derartige Banditen werden in der Literatur als
Bernoulli-Banditen bezeichnet, da die Wahrscheinlichkeitsverteilung bei einem Münzwurf nach dem
Schweizer Mathematiker Jacob Bernoulli aus dem 17. Jahrhundert als Bernoulli-Verteilung bezeichnet
wird. Es sind auch andere Arten von mehrarmigen Banditen möglich, bei denen unbekannte Vertei-
lungen verschiedener Art die Auszahlungen jedes Arms kennzeichnen.

359
Anmerkungen

69 In einigen Fällen ist die »kurzsichtige« Strategie, den Hebel mit dem höheren erwarteten Wert zu be-
dienen, tatsächlich optimal. Bradt, Johnson und Karlin, »On Sequential Designs for Maximizing the
Sum of N Observations«, haben gezeigt, dass diese Strategie optimal ist, wenn die Wahrscheinlichkeit
einer Gewinnausschüttung bei einem zweiarmigen Banditen (wobei p1 die Wahrscheinlichkeit für
einen Arm und p2 die Wahrscheinlichkeit für den anderen Arm ist) die Bedingung p1 + p2 = 1 erfüllt.
Sie stellten die Vermutung an, dass dies auch für Paare von Wahrscheinlichkeiten gilt, bei denen (p1,
p2) entweder die Werte (a, b) oder (b, a) haben (das heißt, wenn p1 = a ist, dann ist p2 = b und umge-
kehrt). Dies bewies Feldman, »Contributions to the ›Two-Armed Bandit‹ Problem«. Berry und Fristed,
Bandit Problems, liefern weitere Details zu kurzsichtigen Strategien einschließlich eines Resultats, das
zeigt, dass die Wahl des höchsten erwarteten Werts optimal ist, wenn p1 und p2 nur zwei Werte an-
nehmen dürfen (z. B. könnten entweder einer von beiden oder sowohl p1 als auch p2 den Wert 0,4
oder 0,7 haben, wobei wir nicht wissen, welche der beiden Möglichkeiten zutrifft).
70 Whittle, Optimization over Time.
71 Diese im Englischen oft verwendete Redewendung hat auch in die Popmusik Einzug gehalten (z. B.
im Chor von »Tripping Billies« der Dave Matthews Band) und scheint eine Verschmelzung von zwei
Bibelversen zu sein, nämlich Kohelet/Ekklesiastes 8:15 (»[D]enn es gibt für den Menschen kein Glück
unter der Sonne, es sei denn, er isst und trinkt und freut sich«) sowie Jesaja 22:13 (»Lasst uns essen und
trinken, denn morgen sind wir tot«).
72 Persönliches Interview mit Chris Stucchio, 15. August 2013.
73 Nick Allen, »Hollywood makes 2013 the year of the sequel«, http://www.telegraph.co.uk/culture/
film/film-news/9770154/Hollywood-makes-2013-the-year-of-the-sequel.html. Vgl. auch http://
www.shortoftheweek.com/2012/01/05/has-hollywood-lost-its-way/ and http://boxofficemojo.com/
news/?id=3063.
74 »Zwischen 2007 und 2011 fielen die Gewinne vor Steuern der fünf Studios, die von den großen
Medienkonglomeraten kontrolliert werden (Disney, Universal, Paramount, Twentieth Century Fox
und Warner Bros) um rund 40 Prozent erklärt Benjamin Swinburne von Morgan Stanley.« »Hol-
lywood: Split Screens«, in: Economist, 23. Februar 2013, http://www.economist.com/news/busi-
ness/21572218-tale-two-tinseltowns-split-screens.
75 Für Statistiken vgl. http://pro.boxoffice.com/statistics/yearly sowie http://www.the-numbers.com/
market/. Vgl. auch Max Willens, »Box Office Ticket Sales 2014: Revenues Plunge to Lowest in Three
Years«, in: International Business Times, 5. Januar 2015.
76 »Hollywood: Split Screens«, in: Economist, 23. Februar 2013, http://www.economist.com/news/busi-
ness/21572218-tale-two-tinseltowns-split-screens.
77 Whittles Kommentar zu Schwierigkeiten von »Multi-armed bandit«-Problemen findet sich in seiner
Auseinandersetzung mit Gittins, »Bandit Processes and Dynamic Allocation Indices«.
78 Robbins, »Some Aspects of the Sequential Design of Experiments«, beschreibt den Algorithmus »Win-
stay, lose-Shift«.
79 Bradt, Johnson und Karlin, »On Sequential Designs for Maximizing the Sum of N Observations«,
haben gezeigt, dass die Strategie »Beim Gewinner bleiben« immer dann richtig ist, wenn die Wahr-
scheinlichkeit eines Gewinns bei einem Hebel bekannt, aber beim anderen unbekannt ist. Berry, »A
Bernoulli Two-Armed Bandit«, hat bewiesen, dass das Prinzip bei einem zweiarmigen Banditen immer
gilt. Verallgemeinerungen dieses Ergebnisses (und eine Beschreibung der Fälle, in denen es nicht ein-
tritt) finden sich in Berry und Fristed, Bandit Problems.
80 Diese Lösung für die Version des »Multi-armed bandit«-Problems mit »endlichem Horizont« wird in
Bellmans wichtigster Arbeit Dynamic Programming vorgestellt, einem beeindruckenden Buch, dass der
Ausgangspunkt (und manchmal der Endpunkt) zahlreicher Fragen der Optimierungstheorie und des

360
Anmerkungen

Maschinenlernens ist. Die dynamische Programmierung kann unter anderem effizient Probleme lösen,
die eine Rückwärtsinduktion erforderlich machen – der wir ebenfalls kurz in Kapitel 1 im Kontext des
Spiels mit vollständiger Information begegnet sind.
81 Einleitung zu Gittins, »Bandit Processes and Dynamic Allocation Indices«.
82 Persönliches Interview mit John Gittins, 27. August 2013.
83 Deal or No Deal ist eine von vielen Varianten dieser Show, die in aller Welt ausgestrahlt wurden und
allesamt auf die niederländische Show Miljoenenjacht zurückgehen, die erstmals im Jahr 2000 ausge-
strahlt wurde.
84 Einige Forscher hatten schon früher Lösungen für dieses »One-armed Bandit«-Problem mit feststehen-
dem Zeitintervall gefunden (Bellman, »A Problem in the Sequential Design of Experiments«; Bradt,
Johnson und Karlin, »On Sequential Designs for Maximizing the Sum of N Observations«).
85 Die Ideen, auf denen der Gittins-Index beruht, wurden erstmals auf einer Konferenz im Jahr 1972
vorgestellt und im Konferenzbericht als Gittins und Jones, »A Dynamic Allocation Index for the Se-
quential Design of Experiments« veröffentlicht, aber die kanonische Darstellung ist Gittins, »Bandit
Processes and Dynamic Allocation Indices«.
86 Die Tabelle der Indexwerte für den Bernoulli-Automaten stammen aus Gittins, Glazebrook und We-
ber, Multi-Armed Bandit Allocation Indices, einer umfassenden Einführung in das Thema. Hier wird
vollkommene Unkenntnis der Wahrscheinlichkeit eines Gewinns angenommen.
87 In einer extremen Form verwandelt sich dies in eine einfache Regel, die als Wenigste-Fehler-Regel
bezeichnet wird: Man sollte immer die Option wählen, die sich am wenigsten oft als falsch erwiesen
hat. Wenn man also in einer neuen Stadt eintrifft, wird man zunächst ein Restaurant nach dem Zu-
fallsprinzip auswählen. Ist das Essen dort gut, so sollte man bei diesem Restaurant bleiben. Sobald das
Essen dort nicht mehr zufriedenstellend ist, sollte man ein beliebiges anderes Restaurant auswählen.
Das muss man solange tun, bis sich alle Restaurants einmal als unbefriedigend erwiesen haben, um
anschließend in das Restaurant zurückzukehren, in dem man am häufigsten gut gegessen hat. Diese
Strategie beruht auf dem Win-Stay-Prinzip und ist das Ergebnis des Gittins-Index, wenn man zu den
geduldigen Personen zählt, die dem morgigen Ertrag im Wesentlichen denselben Wert beimessen wie
dem heutigen. (Die Regel ist in Kelly, »Multi-Armed Bandits with Discount Factor Near One«, be-
schrieben; formal ist sie optimal bei geometrischer Diskontierung, wenn sich die Diskontierungsrate 1
annähert.) In einer großen Stadt, in der ständig zahlreiche neue Restaurants eröffnet werden, führt die
Anwendung der Wenigste-Fehler-Regel einfach dazu, dass man nicht in ein Restaurant zurückkehren
sollte, von dem man enttäuscht wurde, denn es gibt zu viele andere Optionen.
88 Vgl. z. B. Kirby, »Bidding on the Future«.
89 Diesen Fall untersuchen Banks und Sundaram, »Switching Costs and the Gittins Index«.
90 Frank Sinatra, »My Way« (Song), aus My Way (1969), Text von Paul Anka.
91 Prime Minister Winston Churchill, Rede, Lord Mayor’s Banquet, London, 9. November 1954. Vgl.
Churchill, Winston S. Churchill: His Complete Speeches.
92 Barnard, The Functions of the Executive.
93 Jeff Bezos, Interview mit der Academy of Achievement, 4. Mai 2001, http://www.achievement.org/
autodoc/page/bez0int-3.
94 Lai und Robbins, »Asymptotically Efficient Adaptive Allocation Rules«.
95 Ebd. wurden die ersten derartigen Algorithmen angeboten, die u. a. von Katehakis und Robbins,
»Sequential Choice from Several Populations«, Agrawal, »Sample Mean Based Index Policies«, sowie
Auer, Cesa-Bianchi und Fischer, »Finite-Time Analysis of the Multiarmed Bandit Problem«, weiter-

361
Anmerkungen

entwickelt wurden. Die zuletzt genannten Autoren haben die vielleicht einfachste derartige Strategie
beschrieben, die darin besteht, dem Hebel/Arm j einen Wert von zuzuweisen, wobei sj die
Zahl der Erfolge bei nj Spielen an diesem Hebel und n = Σjn j die Gesamtzahl der Spiele an allen
Hebeln ist. Dies ist eine Obergrenze der Wahrscheinlichkeit von erfolgreichen Spielen (die einfach ist).
Die Wahl des Hebels mit dem höchsten Wert garantiert eine logarithmische Reue (obwohl dieser Wert
abgewandelt werden kann, so dass die Ergebnisse in der Praxis besser werden).
96 Die grundlegende Arbeit zu den Konfidenzintervallen ist Neyman, »Outline of a Theory of Statistical
Estimation«.
97 Kaelbling, Littman und Moore, »Reinforcement Learning«.
98 Persönliches Interview mit Leslie Kaelbling, 22. November 2013. Vgl. Kaelbling, Learning in Embed-
ded Systems.
99 Siroker und Koomen, A/B Testing.
100 Christian, »The A/B Test«; persönliches Interview mit Steve Hanov, 30. August 2013; sowie persön-
liches Interview mit Noel Welsh, 27. August 2013.
101 Dan Siroker, »How We Used Data to Win the Presidential Election« (Vortrag), Stanford University,
8. Mai 2009, zugänglich unter: https://www.youtube.com/watch?v=71bH8z6iqSc. Vgl. auch Siro-
ker, »How Obama Raised $60 Million«, https://blog.optimizely.com/2010/11/29/how-obama-rai-
sed-60-million-by-running-a-simple-experiment/.
102 Google führte seinen ersten A/B-Test am 27. Februar 2000 durch. Vgl. z. B. Christian, »The A/B Test«.
103 Vgl. z. B. Siroker und Koomen, A/B Testing.
104 Laura M. Holson, »Putting a Bolder Face on Google«, in: New York Times, 28. Februar 2009.
105 Ashlee Vance, »This Tech Bubble Is Different«, in: Bloomberg Businessweek, 14. April 2011. http://
www.bloomberg.com/bw/magazine/content/11_17/b4225060960537.htm.
106 Ginsberg, Howl and Other Poems.
107 Googles finanzielles Ergebnis geht aus seinen vierteljährlichen Aktionärsberichten hervor. Die Werbe-
einnahmen des Unternehmens beliefen sich im Jahr 2013 auf 50,6 Milliarden Dollar, was rund 91 Pro-
zent der Gesamteinnahmen von 55,6 Milliarden Dollar entsprach. Vgl. https://investor.google.com/
financial/2013/tables.html.
108 Umsätze im Online-Handel nach Schätzung von Forrester Research. Vgl. z. B. »US Online Retail Sales
to Reach $370B By 2017; €191B in Europe«, in: Forbes, 14. März 2013, http://www.forbes.com/sites/
forrester/2013/03/14/us-online-retail-sales-to-reach-370b-by-2017-e191b-in-europe/.
109 Zum Beispiel veröffentlichte Chris Stucchio einen beißenden Artikel mit dem Titel »Why Multi-ar-
med Bandit Algorithms Are Superior to A/B Testing«, auf den Stucchio selbst einen ebenso beißenden
Artikel mit dem Titel »Don’t Use Bandit Algorithms – They Probably Won’t Work for You« folgen
ließ. Vgl. https://www.chrisstucchio.com/blog/2012/bandit_algorithms_vs_ab.html und https://
www.chrisstucchio.com/blog/2015/dont_use_bandits.html. Stucchio reagierte mit seinem Post aus
dem Jahr 2012 teilweise auf einen Artikel von Paras Chopra mit dem Titel »Why Multi-armed Bandit
Algorithm Is Not ›Better‹ than A/B Testing« (https://vwo.com/blog/multi-armed-bandit-algorithm/),
der auf einen Artikel von Steve Hanov mit dem Titel »20 lines of code that will beat A/B testing every
time« (http://stevehanov.ca/blog/index.php?id=132) Bezug nahm.
110 Jean Heller, »Syphilis Patients Died Untreated«, in: Washington Star, 25. Juli 1972.
111 The Belmont Report: Ethical principles and guidelines for the protection of human subjects of research, 18.
April 1979, zugänglich unter: http://www.hhs.gov/ohrp/humansubjects/guidance/belmont.html.

362
Anmerkungen

112 Zelen, »Play the Winner Rule and the Controlled Clinical Trial«. Zelen war nicht der Erste, der diesen
radikalen Vorschlag machte. Diese Ehre gebührt William R. Thompson, einem Lehrer an der School of
Pathology der Universität Yale, der die Frage stellte, wie bestimmt werden konnte, ob eine Behandlung
wirksamer war als eine andere, und im Jahr 1933 eine eigene Lösung vorschlug (Thompson, »On the
Likelihood That One Unknown Probability Exceeds Another«).
Die von Thompson vorgeschlagene Lösung, die Optionen zufällig auszuwählen, wobei die Wahr-
scheinlichkeit der Wahl einer Option der Wahrscheinlichkeit entspricht, dass diese Option gestützt
auf die bisherigen Erkenntnisse die Beste ist, stellt die Grundlage für einen Großteil der jüngeren
Forschungsarbeit zu diesem Problem im Maschinenlernen dar (in Kapitel 9 kehren wir zu den algo-
rithmischen Anwendungen der Zufälligkeit und der Stichprobenentnahme zurück).
Anscheinend kannten weder Frederick Mosteller noch Herbert Robbins Thompsons Arbeit, als sie be-
gannen, sich mit dem Problem des zweiarmigen Banditen zu beschäftigen. Richard Bellman entdeckte
die »kaum bekannten Artikel« einige Jahre später und erklärte: »Wir gestehen, dass wir diese Papiere
auf die übliche Art fanden, das heißt, während wir eine Fachzeitschrift auf der Suche nach einem an-
deren Artikel durchblätterten.« (Bellman, »A Problem in the Sequential Design of Experiments«.)
113 University of Michigan Department of Surgery, »›Hope‹ for ECMO Babies«, http://surgery.med.um-
ich.edu/giving/stories/ecmo.shtml.
114 University of Michigan Health System, »U-M Health System ECMO team treats its 2,000th patient«,
1. März 2011, http://www.uofmhealth.org/news/ECMO %202000th %20patient.
115 Zapol u. a., »Extracorporeal Membrane Oxygenation in Severe Acute Respiratory Failure«.
116 Bartlett u. a., »Extracorporeal Circulation in Neonatal Respiratory Failure«.
117 Zitiert nach Ware, »Investigating Therapies of Potentially Great Benefit: ECMO«, der sich auf die
Schlussfolgerungen in Ware und Epstein, »Comments on ›Extracorporeal Circulation in Neonatal
Respiratory Failure‹«, bezieht, die wiederum auf Bartlett u. a., »Extracorporeal Circulation in Neonatal
Respiratory Failure« Bezug nehmen.
118 Ware, »Investigating Therapies of Potentially Great Benefit: ECMO«.
119 Berry bewies in seiner 1971 vorgelegten Dissertationsschrift, dass es eine optimale Strategie war, weiter
auf einen Gewinner zu setzen. Das Ergebnis wurde veröffentlicht als Berry, »A Bernoulli Two Armed
Bandit«.
120 Berry, »Comment: Ethics and ECMO«.
121 UK Collaborative ECMO Group, »The Collaborative UK ECMO Trial«.
122 Persönliches Interview mit Don Berry, 22. August 2013.
123 Das FDA-Dokument mit dem Titel »Adaptive Design Clinical Trials for Drugs and Biologics« (Februar
2010) kann abgerufen werden unter: http://www.fda.gov/downloads/Drugs/Guidances/ucm201790.
pdf.
124 Die Studie ist beschrieben in Tversky und Edwards, »Information Versus Reward in Binary Choices«.
125 Meyer und Shi, »Sequential Choice Under Ambiguity«.
126 Steyvers, Lee und Wagenmakers, »A Bayesian Analysis of Human Decision- Making on Bandit Prob-
lems«.
127 Das Konzept der rastlosen Banditen wurden von Whittle, »Restless Bandits«, eingeführt, der eine ähn-
liche Strategie wie den Gittins-Index behandelt, die in einigen Fällen angewandt werden kann. Zu den
Herausforderungen der Berechnung rastloser Banditen – und dem daraus resultierende Pessimismus
bezüglich effizienter optimaler Lösungen – vgl. Papadimitriou und Tsitsiklis, »The Complexity of
Optimal Queuing Network Control«.

363
Anmerkungen

128 Vgl. Navarro und Newell, »Information Versus Reward in a Changing World«, für neuere Erkenntnis-
se, welche die Einschätzung bestätigen, dass eine übermäßige Erkundung das Ergebnis der Annahme
ist, dass die Welt rastlos ist.
129 Thoreau, Vom Wandern, S. 18.
130 Warhol, The Philosophy of Andy Warhol.
131 Persönliches Interview mit Alison Gopnik, 22. August 2013. Vgl. auch Gopnik, Forschergeist in Win-
deln.
132 Mary Ruefle, Madness, Rack and Honey, S. 185.
133 Carstensen, »Social and Emotional Patterns in Adulthood«, beschreibt die grundlegende »sozioemotio-
nale Selektivitätstheorie«, mit der wir uns in diesem Abschnitt befassen, sowie einige Belege für diese
Selektivität.
134 Ebd.
135 Fredrickson und Carstensen, »Choosing Social Partners«.
136 Fung, Carstensen und Lutz, »Influence of Time on Social Preferences«.
137 Belege für die Verbesserung des emotionalen Wohlergehens werden behandelt in Charles und Carsten-
sen, »Social and Emotional Aging«.
138 Cawdrey, A Table Alphabeticall, ist das früheste einsprachige Lexikon der englischen Sprache. Für mehr
zur Geschichte des Sortierens gegenüber dem Suchen vgl. Knuth, The Art of Computer Programming,
§6.2.1. Für mehr zur Erfindung der alphabetischen Ordnung vgl. Daly, Contributions to a History of
Alphabetization.
139 Hillis, Computerlogik.
140 »Pair socks from a pile efficiently?« Gepostet vom Benutzer »amit« auf Stack Overflow am 19. Januar
2013, http://stackoverflow.com/questions/14415881/pair-socks-from-a-pile-efficiently.
Wie »amit« (es handelt sich um Amit Gross, einen Studenten an der Technion University) schreibt:
»Gestern sortierte ich meine gewaschenen Socken zu Paaren und stellte fest, dass meine Vorgehens-
weise nicht besonders effizient war. Ich führte eine naive Suche durch und holte eine Socke heraus, um
anschließend den Haufen nach ihrem Gegenstück zu durchsuchen. Das erfordert das Durchgehen von
durchschnittlich mehr als n/2 × n/4 = n2/8 Socken. Als Informatiker fragte ich mich, wie ich das besser
machen konnte.«
Amit erhielt eine Reihe von Antworten, aber die größte Zustimmung bei den Programmierern fand
der Vorschlag, auf Radixsort (Fachverteilen) zurückzugreifen: Man identifiziert die Dimensionen, in
denen sich die Socken voneinander unterscheiden (z. B. Farbe, Muster) und sortiert sie diesen Dimen-
sionen entsprechend in Haufen. Bei jedem Sortierdurchgang müssen alle Socken nur einmal gesichtet
werden, wobei das Ergebnis jeweils eine Gruppe kleinerer Haufen ist. Selbst wenn man sämtliche
Socken in diesen Haufen durchgehen muss, um Paare zu finden, entspricht der Zeitaufwand dem
Quadrat der Größe des größten Haufens statt dem Quadrat der Gesamtzahl der Socken. (Für mehr
über Radixsort vgl. die Anmerkung weiter unten zum Sortieren eines Kartendecks.)
Wenn der Grund für das Sortieren von Paaren jedoch ist, dass wir leichter Sockenpaare finden wollen,
wenn wir sie brauchen, dann können wir die Notwendigkeit des Sortierens verringern, indem wir ein
besseres Verfahren für die Suche anwenden.
Nehmen wir an, unsere Socken unterscheiden sich nur in einer Dimension – der Farbe –, und wir
haben lose, einzelne Socken in drei verschiedenen Farben in unserer Sockenlade. In diesem Fall werden
wir garantiert ein passendes Paar finden, wenn wir wahllos vier Socken aus der Lade nehmen. (Um zu
verstehen, warum das so ist, können wir uns das Worst-Case-Szenario ansehen: die ersten drei Socken,

364
Anmerkungen

die wir aus der Lade gefischt haben, sind alle von unterschiedlicher Farbe. Wenn wir nun eine vierte
Socke aus der Lade nehmen, muss sie zu einer der bereits herausgeholten passen, da es ja nur drei Far-
ben gibt.) Gleichgültig, wie viele Farben wir haben, wir werden stets ein passendes Paar erhalten, wenn
wir eine Socke mehr aus der Lade nehmen, als wir Farben haben. In diesem Fall müssen wir uns nicht
die Mühe machen, alle Socken in Paare zu sortieren, wenn wir bereit sind, am Morgen ein wenig mehr
Zeit für die Sockensuche aufzuwenden.
Diese hübsche Lösung für das Problem, Sockenpaare zuzuordnen, verdanken wir dem »Schubfachprin-
zip« (auch: »Taubenschlagprinzip«), einer einfachen, aber bedeutsamen mathematischen Idee, die dem
deutschen Mathematiker Peter Gustave Lejeune Dirichlet zugeschrieben wird, der im 19. Jahrhundert
lebte. (Rittaud und Heeffer, »The Pigeonhole Principle«, spüren der Geschichte dieses Prinzips nach
und behandeln neben Dirichlet auch noch frühere Quellen.) Die Idee ist einfach: Wenn eine Gruppe
von Tauben in einem Taubenschlag landet und die Zahl der Tauben die Zahl der Türen des Schlags
übersteigt, dann muss in mindestens einer Kammer mehr als eine Taube sitzen. In der Informatik
wird dieses Prinzip verwendet, um grundlegende Fakten zu den theoretischen Eigenschaften von Al-
gorithmen zu bestimmen. Beispielsweise ist es unmöglich, einen Algorithmus zu entwickeln, der jede
mögliche Datei ohne Informationsverlust komprimieren kann, weil es mehr lange Dateien als kurze
Dateien gibt.
Anhand des Schubladenprinzips kann eine permanente Lösung für das Problem des Sockensortierens
gefunden werden: Man darf nur eine Art von Socken kaufen. Wenn alle Socken gleich sind, müssen
nie passende Paare gesucht werden: Jedes Mal, wenn man zwei Socken aus der Schublade nimmt, hat
man automatisch ein Paar. In den Augen vieler Informatiker (darunter auch einige Programmierer, die
auf Amits Frage antworteten) ist dies der eleganteste Ansatz: Man definiere das Problem anders, um es
effizient lösen zu können.
Ein letztes Wort zur Mahnung: Wenn Sie nur noch eine Art von Socken kaufen, sollten Sie darauf
achten, welche Art von Socken Sie kaufen. Der Grund für Ron Rivests große Probleme mit Socken
ist, dass er am rechten und linken Fuß unterschiedlich große Socken trägt. Das macht die Anwendung
des Schubfachprinzips unmöglich; um ein solches Sockenpaar garantiert zu finden, muss die Zahl der
Socken, die man aus dem Haufen zieht, die Gesamtzahl der Sockenpaare um eine übersteigen.
141 Persönliches Interview mit Ronald Rivest, 25. Juli 2013.
142 Martin, »Counting a Nation by Electricity«.
143 Ebd.
144 Zitiert in: Austrian, Herman Hollerith.
145 Ebd.
146 »Geschrieben« bedeutet hier buchstäblich handgeschrieben: Als der angesehene Mathematiker John
von Neumann das Sortierprogramm im Jahr 1945 niederschrieb, lag die Fertigstellung des Rechners,
für den es bestimmt war, noch einige Jahre in der Zukunft. Obwohl die Computerprogramme grund-
sätzlich auf Ada Lovelaces Auseinandersetzung mit Charles Babbages Vorschlag für eine »analytische
Maschine« im Jahr 1843 zurückgeht, war von Neumanns Programm das Erste, das im Speicher des
Computers selbst abgelegt werden sollte; frühere Rechenmaschinen wurden mit Lochkarten gesteu-
ert oder für bestimmte Berechnungen verdrahtet. Vgl. Knuth, »Von Neumann’s First Computer Pro-
gram«.
147 Ebd.
148 Knuth, The Art of Computer Programming, S. 3.
149 Hosken, »Evaluation of Sorting Methods«.

365
Anmerkungen

150 Wir konnten kein Video von Bradáčs Glanzleistung finden, aber es gibt im Internet zahlreiche Videos
von Leuten, die versucht haben, seinen Rekord zu brechen. Die meisten sortieren die Karten in die vier
Farben und ordnen anschließend die Karten jeder Farbe. »Es gibt jedoch eine schnellere Methode!«,
schreibt Donald Knuth in The Art of Computer Programming: Zuerst muss man die Karten abhängig
vom Wert auf 13 Haufen verteilen (ein Haufen enthält alle Zweien, der nächste alle Dreien usw.).
Nachdem man alle Haufen eingesammelt hat, verteilt man die Karten auf die vier Farben. Das Er-
gebnis ist ein Haufen für jede Farbe, wobei die Karten innerhalb jedes Haufens geordnet sind. Hier
handelt es sich um einen Radixsort (Fachverteilen), der mit dem Bucketsort-Algorithmus verwandt
ist, mit dem wir uns am Ende des Kapitels beschäftigen werden. Vgl. Knuth, The Art of Computer
Programming, §5.2.5.
151 Dinge zufällig zu »sortieren« und das Beste zu hoffen, ist tatsächlich ein Algorithmus, der einen Namen
hat: Bogosort (auch Stupidsort genannt) gehört in das nur teilweise ironisch als »pessimaler Algo-
rithmendesign« bezeichnete Teilgebiet der Informatik. Die Pessimalität ist für die Optimalität, was der
Pessimismus für den Optimismus ist; die Designer von pessimalen Algorithmen versuchen, einander
mit den schlechtesten möglichen Rechenleistungen zu übertreffen.
Die Designer schlechter Algorithmen sind zu dem Schluss gelangt, dass Bogosort tatsächlich noch viel
zu geradlinig und effizient ist. Daher die »Verbesserung« Bogobogosort, ein Algorithmus, bei dem
zunächst schrittweise die ersten zwei Elemente anhand von Bogosort sortiert werden, um anschlie-
ßend die ersten drei, die ersten vier usw. zu sortieren. Und wenn die Liste zu irgendeinem Zeitpunkt
in Unordnung gerät, beginnt Bogobogosort von vorn. Beispielsweise schließt dieser Algorithmus die
Sortierung von vier Karten erst ab, nachdem er die ersten beiden so oft in die Luft geworfen hat, bis sie
in der richtigen Anordnung gelandet sind, um anschließend die ersten drei in die Luft zu werfen und
sich zu vergewissern, dass sie richtig gelandet sind. Schließlich wirft er die ersten vier in die Luft und
vergewissert sich, ob sie ebenfalls in der richtigen Anordnung gelandet sind. Wenn die Karten nicht bei
allen aufeinanderfolgenden Würfen richtig landen, beginnt Bogobogosort von vorn. Einer der ersten
Ingenieure, die über Bogobogosort schrieben, berichtete, dass er den Algorithmus über Nacht auf
seinem Computer hatte laufen lassen, ohne dass es mit diesem Verfahren gelungen war, eine Liste von
sieben Elementen zu sortieren; schließlich hatte der Informatiker Mitleid und schaltete den Computer
aus.
Andere Ingenieure sind der Ansicht, dass auch Bogobogosort noch nicht der schlechteste Algorithmus
ist, und schlagen vor, auf die Metaebene zu gehen und eine Bogosortierung des Programms statt der
Daten durchzuführen: Man könnte solange zufällig Bits im Speicher des Computers austauschen, bis
er zufällig die Form eines Sortierprogramms annimmt, dass die Elemente ordnet. Die zeitlichen Gren-
zen einer solchen Monstrosität werden noch untersucht. Die Suche nach der Pessimalität geht weiter.
152 Die O-Notation hat ihren Ursprung in dem 1894 veröffentlichten Buch Die analytische Zahlentheorie
von Paul Bachmann. Vgl. auch Donald Knuth, The Art of Computer Programming, §1.2.11.1. Formal
sagen wir, dass die Laufzeit eines Algorithmus O(f(n)) ist, wenn sie kleiner als oder gleich einem Mehr-
fachen von f(n) ist (mit einem Koeffizienten, der eine positive Konstante ist). Es gibt auch die verwand-
te Omega-Notation, wobei Ω(f(n)) anzeigt, dass die Laufzeit größer als oder gleich einem Mehrfachen
von f(n) ist, sowie die Theta-Notation, wobei Θ(f(n)) bedeutet, dass die Laufzeit sowohl O(f(n)) als
auch Ω(f(n)) ist.
153 Für Einzelheiten vgl. Knuth, The Art of Computer Programming, §5.5.
154 Der Computer war der EDVAC, der zu der Zeit, als Neumann sein Programm entwickelte, ein streng
gehütetes militärisches Geheimnis war. Vgl. Knuth, »Von Neumann’s First Computer Program«.
155 Katajainen und Träff , »A Meticulous Analysis of Mergesort Programs«.

366
Anmerkungen

156 Die bisherigen Sortierrekorde findet man auf http://sortbenchmark.org/. Im Jahr 2014 stellte eine
Gruppe von Samsung den Rekord für die Sortierung der größten Datenmenge in einer Minute auf –
überwältigende 3,7 Terabyte an Daten. Das entspricht fast 37 Milliarden Spielkarten, mit denen man
500 Boeing 747 füllen könnte. Dies relativiert den Wert von Zdeněk Bradáčs menschlichem Karten-
sortierrekord.
157 Versandmanager Tony Miranda erklärt: »Wir verarbeiten … ich glaube, unser Höchstwert sind … 250
Schachteln pro Stunde. Unser Durchschnitt sind etwa 180 Schachteln pro Stunde. Bedenken Sie, dass
jede Schachtel 40 oder mehr Artikel enthält. Aus »KCLS AMH Tour«, 6. November 2007, https://
www.youtube.com/watch?v=4fq3CWsyde4.
158 »Reducing operating costs«, in: American Libraries Magazine, 31. August 2010, http://www.american-
librariesmagazine.org/aldirect/al-direct-september-1-2010.
159 Vgl. Matthew Taub, »Brooklyn & Manhattan Beat Washington State in 4th Annual ›Battle of the Book
Sorters‹«, in: Brooklyn Brief, 29. Oktober 2014, http://brooklynbrief.com/4th-annual-battle-book-sor-
ters-pits-brooklyn-washington-state/.
160 Eine Gruppe von n Gegenständen kann genau n! verschiedene Ordnungen haben, weshalb eine Sortie-
rung exakt log n! Informationseinheiten hervorbringt, das sind rund n log n Einheiten. Erinnern wir
uns daran, dass n! gleich n x (n − 1) x … x 2 x 1 ist, was das Produkt von n Zahlen ist, von denen n
die größte ist. Folglich ist n! < nn, womit log n! < log nn ist, womit wir log n! < n log n erhalten. Diese
Annäherung von n log n für log n! wird als Stirling-Formel bezeichnet, benannt nach dem schottischen
Mathematiker James Stirling, der im 18. Jahrhundert lebte. Da ein einzelner paarweiser Vergleich
höchstens eine Informationseinheit liefert, sind n log n Vergleiche nötig, um die Ungewissheit darüber
zu beseitigen, welche der n! möglichen Ordnungen unserer n Dinge die richtige ist. Für Einzelheiten
vgl. Knuth, The Art of Computer Programming, §5.3.1.
161 Persönliches Interview mit Jordan Ho, 15. Oktober 2013.
162 Whittaker und Sidner, »Email Overload«.
163 Persönliches Interview mit Steve Whittaker, 14. November 2013.
164 Dodgson, »Lawn Tennis Tournaments«.
165 Für eine Kritik an Dodgons Turniervorschlag aus Sicht der Informatik vgl. Donald Knuths Ausein-
andersetzung mit der »Selektion mit minimalem Vergleich« in: The Art of Computer Programming,
§5.3.3.
166 Ein Algorithmus, der nicht sämtliche Elemente sortiert, sondern nur eines von ihnen als größtes oder
zweitgrößtes oder Medianelement usw. identifiziert, wird nicht als Sortieralgorithmus, sondern als
»Selektionsalgorithmus« bezeichnet.
167 Trick arbeitet in der Sports Scheduling Group, zu deren Gründern er zählt. Von 1981 bis 2004 wurde
der Spielplan für die Baseballliga von dem bemerkenswerten Ehepaar Henry und Holly Stephenson
von Hand angefertigt. ESPN hat der Geschichte der Stephensons einen Film mit dem Titel The Sche-
dule Makers gewidmet (Regie: Joseph Garner).
168 Persönliches Interview mit Michael Trick, 26. November 2013.
169 Ebd.
170 Tom Murphy, »Tuning in on Noise?« Veröffentlicht am 22. Juni 2014 im Blog »Do the Math«, http://
physics.ucsd.edu/do-the-math/2014/06/tuning-in-on-noise/.
171 Ackley, »Beyond Efficiency«.
172 Knuth, The Art of Computer Programming, §5.5.

367
Anmerkungen

173 Persönliches Interview mit Dave Ackley, 26. November 2013. Vgl. Jones und Ackley, »Comparison
Criticality in Sorting Algorithms«, sowie Ackley, »Beyond Efficiency«. Für mehr über den vergleichen-
den Countingsort-Algorithmus (mma auch als Rundlaufverfahren bezeichnet) vgl. Knuth, The Art of
Computer Programming, §5.2.
174 Persönliches Interview mit Isaac Haxton, 20. Februar 2014.
175 Persönliches Interview mit Christof Neumann, 29. Januar 2014.
176 Craig, Aggressive Behavior of Chickens.
177 Persönliches Interview mit Jessica Flack, 10. September 2014. Vgl. auch DeDeo, Krakauer und Flack,
»Evidence of Strategic Periodicities in Collective Conflict Dynamics«; Daniels, Krakauer und Flack,
»Sparse Code of Conflict in a Primate Society«; Brush, Krakauer und Flack, »A Family of Algorithms
for Computing Consensus About Node State from Network Data«. Für einen allgemeinen Überblick
über Flacks Arbeit vgl. Flack, »Life’s Information Hierarchy«.
178 In der Welt der Sortieralgorithmen gibt es eine Analogie zum Marathon. Eine der faszinierendsten
(Wikipedia verwendete den Begriff »esoterisch«, bevor der Artikel entfernt wurde) Entwicklungen
in der über den Vergleich hinausgehenden Sortiertheorie tauchte an einem der letzten Orte auf, an
denen man damit gerechnet hätte: auf dem berüchtigten Imageboard 4chan. Anfang 2011 verkündete
der Autor eines anonymen Posts: »Mann, ich bin ein Genie. Seht euch den Sortieralgorithmus an,
den ich gerade erfunden habe.« Der »Sortieralgorithmus« dieses Posters – Sleep Sort – erzeugt einen
Verarbeitungsthread für jedes unsortierte Element und weist jeden Thread an, die seinem Wert ent-
sprechende Zahl von Sekunden zu »schlafen« und anschließend »aufzuwachen« und sich auszugeben.
Die endgültige Ausgabe sollte tatsächlich sortiert sein. Lässt man die Durchführungsdetails beiseite,
die die Mängel von Sleep Sort offenlegen, und akzeptiert man diesen Algorithmus einfach, so enthält
er tatsächlich ein faszinierendes Versprechen: eine Sortierung, deren Laufzeit überhaupt nicht von der
Zahl der Elemente, sondern ausschließlich von ihrer Größe abhängt. (Allerdings wäre dieser Algorith-
mus immer noch nicht ganz so gut wie eine einfache O(1)-Sortierung mit konstanter Laufzeit.)
179 Der Spruch stammt vom britischen Unternehmer Alexander Dean, vgl. https://news.ycombinator.
com/item?id=8871524.
180 Das Gesetz der Bruttotonnage scheint in den Weltmeeren tatsächlich zu gelten. Das soll nicht heißen,
dass Fische vollkommen pazifistisch sind. Tatsächlich kämpfen sie – und zwar aggressiv –, wenn sie von
ähnlicher Größe sind.
181 James, Psychology.
182 Dies ist eine Abwandlung eines berühmten Programmierscherzes, den der Netscape-Ingenieure Jamie
Zawinski am 12. August 1997 in einem Usenet-Post machte: »Manche Leute denken angesichts eines
Problems: ›Ich weiß, ich werde normale Ausdrücke verwenden.‹ Nun haben sie zwei Probleme.«
183 Stewart, Martha Stewart’s Homekeeping Handbook.
184 Jay, The Joy of Less.
185 Mellen, Unstuff Your Life!
186 Davis, Almost No Memory.
187 Unsere Geschichte des Zwischenspeicherns beruht auf der Darstellung von Hennessy und Patterson,
Computer Architecture. Dieses Buch enthält auch eine ausgezeichnete Beschreibung der modernen Zwi-
schenspeichermethoden im Computerdesign.
188 Burks, Goldstine und von Neumann, Preliminary Discussion of the Logical Design of an Electronic Com-
puting Instrument.
189 Kilburn u. a., »One-Level Storage System«.

368
Anmerkungen

190 Wilkes, »Slave Memories and Dynamic Storage Allocation«.


191 Conti, Gibson und Pitkowsky, »Structural Aspects of the System/360 Model 85«.
192 In seiner ursprünglichen Vorhersage in (»Cramming More Components onto Integrated Circuits«)
sprach Moore im Jahr 1965 von einer Verdoppelung jedes Jahr, aber im Jahr 1975 korrigierte er seine
Prognose in »Progress in Digital Integrated Electronics« und ging nur noch von einer Verdoppelung
alle zwei Jahre aus.
193 Prozessorregister, Prozessorspeicher, Arbeitsspeicher, Verteilte Speicher, Massenspeicher. Für mehr zum
»Memory Wall« vgl. z. B. Wulf und McKee, »Hitting the Memory Wall«.
194 Conan Doyle, »A Study in Scarlet: The Reminiscences of John H. Watson«.
195 Wilkes, »Slave Memories and Dynamic Storage Allocation«.
196 Die Darstellung von Béládys Geschichte beruht auf einem Oral-History-Interview, das Philip L. Frana
im Jahr 2002 mit ihm führte (zugänglich unter: https://conservancy.umn.edu/bitstream/107110/1/
oh352lab.pdf ). Für seine Analyse von Cache-Algorithmen und Resultaten vgl. Bélády, »A Study of
Replacement Algorithms for a Virtual-Storage Computer«.
197 Bélády selbst erklärte: »Meine 1965 geschriebene Arbeit wurde die laut Citation Index am häufigsten
zitierte Arbeit auf dem Gebiet der Software in einem Zeitraum von 15 Jahren.« J. A. N. Lee, »Laszlo
A. Belady«, in: Computer Pioneers, http://history.computer.org/pioneers/belady.html.
198 Einige Jahre später wies Bélády auch nach, dass FIFO einige verwunderliche zusätzliche Nachteile
hat – insbesondere kann eine Vergrößerung des Cache in seltenen Fällen die Leistung tatsächlich ver-
schlechtern, ein Phänomen, das als Bélády-Anomalie bezeichnet wird. Vgl. Bélády, Nelson und Shed-
ler, »An Anomaly in Space-Time Characteristics of Certain Programs Running in a Paging Machine«.
199 Aza Raskin, »Solving the Alt-Tab Problem«, http://www.azarask.in/blog/post/solving-the-alt-tab-pro-
blem/.
200 Wenn Sie einen komplexeren Cache-Algorithmus ausprobieren möchten, hier einige beliebte Varian-
ten von LRU:
• LRU-K: Hier wird die seit der K-letzten Verwendung vergangene Zeit betrachtet (die maximal für
Elemente im Cache ist, die K Male nicht verwendet worden sind). Dies geht mit einer Häufigkeits-Il-
lusion einher. LRU-2, das sich auf die vorletzte Verwendung konzentriert, ist am weitesten verbreitet.
Vgl. O’Neil, O’Neil und Weikum, »The LRU-K Page Replacement Algorithm for Database Disk
Buffering«.
• 2Q: Die Elemente werden zwei getrennten »Schleifen« zugeteilt, um Information über die Häufigkeit
zu sammeln. Alle Elemente befinden sich zunächst in der ersten Schleife und steigen in die zweite auf,
wenn sie erneut aufgerufen werden, während sie sich im Cache befinden. Anhand von LRU werden
die Elemente ausgewählt, die aus dieser zweiten Schleife wieder in die erste verdrängt werden, und
dasselbe Verfahren wird angewandt, um Elemente aus der ersten Schleife zu verdrängen. Vgl. Johnson
und Shasha, »2Q: A Low Overhead High Performance Buffer Management Replacement Algorithm«.
• LRFU: Neuheit und Häufigkeit werden kombiniert, indem jedem Element ein numerischer Wert
zugewiesen wird, der steigt, wenn das Element verwendet wird, aber im Lauf der Zeit schrittweise
sinkt. Vgl. Lee u. a., »LRFU: A Spectrum of Policies That Subsumes the Least Recently Used and Least
Frequently Used Policies«.
• Adaptive Replacement Cache (ARC): Ähnlich wie bei 2Q kommen zwei Schleifen zum Einsatz,
wobei die Länge der Schleifen jedoch abhängig von der Leistung angepasst wird. Vgl. Megiddo und
Modha, »Outperforming LRU with an Adaptive Replacement Cache Algorithm«.
In Tests zum Cache-Management haben all diese Algorithmen LRU übertroffen.

369
Anmerkungen

201 Beispielsweise erklärte Pavel Panchekha im Jahr 2012 in einem Artikel für den Dropbox-Blog die Grün-
de dafür, dass Dropbox LRU verwendet. Vgl. https://tech.dropbox.com/2012/10/caching-in-theo-
ry-and-practice/.
202 Für jene, die wissen wollen, was genau die Studenten in Berkeley zum Zeitpunkt unseres Besuchs la-
sen: Thoreaus Walden; kritische Kommentare zu Song of Myself von Cormac McCarthy, James Merrill,
Thomas Pynchon, Elizabeth Bishop, J. D. Salinger, Anaïs Nin und Susan Sontag, Drown von Junot
Díaz, Telegraph Avenue und The Yiddish Policemen’s Union von Michael Chabon, Bad Dirt und Bird
Cloud von Annie Proulx, Mr. and Mrs. Baby von Mark Strand, The Man in the High Castle von Philip
K. Dick, die gesammelten Gedichte und Prosawerke von William Carlos Williams, Snuff von Chuck
Palahniuk, Sula von Toni Morrison, Tree of Smoke von Denis Johnson, The Connection of Every one
with Lungs von Juliana Spahr, The Dream of the Unified Field von Jorie Graham, Naked, Me Talk Pretty
One Day und Dress Your Family in Corduroy and Denim von David Sedaris, Ariel von Sylvia Plath und
Oleanna von David Mamet; D. T. Maxs Biografie von David Foster Wallace, Like Something Flying
Backwards, Translations of the Gospel Back into Tongues und Deepstep Come Shining von C. D. Wright,
die Prosa von T. S. Eliot, Eureka von Edgar Allan Poe, Billy Budd, Sailor und eine Sammlung von Ge-
dichten und kurzen Prosatexten von Herman Melville, The Aspern Papers, The Portrait of a Lady und
The Turn of the Screw von Henry James, Harold Bloom über Billy Budd, Benito Cereno und »Bartleby
the Scrivener«, die Stücke von Eugene O’Neill, Stardust von Neil Gaiman, Reservation Blues von Sher-
man Alexie, No Country for Old Men von Cormac McCarthy und vieles mehr.
203 Persönliches Interview mit Elizabeth Dupuis, 16. September 2014.
204 Carroll, Sylvie und Bruno, S. 389.
205 Stephen Ludin, »Akamai: Why a Quarter of the Internet Is Faster and More Secure than the Rest«,
Vortrag, 19. März 2014, International Computer Science Institute, Berkeley, California. Akamai er-
klärt auf seiner Website: »Akamai wickelt zwischen 15 % und 30 % des genannten Internetverkehrs
ab« (http://www.akamai.com/html/about/facts_figures.html).
206 Ludin, »Akamai«.
207 Amazons »chaotisches« Lagersystem ist hier beschrieben: http://www.ssi-schaefer.de/blog/en/order-pi-
cking/chaotic-storage-amazon/.
208 Bei dem Patent für die vorauseilende Lieferung begehrter Artikel handelt es sich um das US Patent Nr.
8,615,473, gewährt am 24. Dezember 2013, »Method and system for anticipatory package shipping«,
eingereicht von Joel R. Spiegel, Michael T. McKenna, Girish S. Lakshman und Paul G. Nordstrom im
Namen von Amazon Technologies Inc.
209 Vgl. z. B. Connor Simpson, »Amazon Will Sell You Things Before You Know You Want to Buy
Them«, in: The Wire, 20. Januar 2014, http://www.thewire.com/technology/2014/01/amazon-thinks-
it-can-predict-your-future/357188/; Chris Matyszczyk, »Amazon to Ship Things Before You’ve Even
Thought of Buying Them?«, in: CNET, 19. Januar 2014, http://www.cnet.com/ news/amazon-to-
ship-things-before-youve-even-thought-of-buying-them/.
210 Micah Mertes, »The United States of Netflix Local Favorites«, 10. Juli 2011, http://www.slacktory.
com/2011/07/united-states-netflix-local-favorites/.
211 Im Jahr 2012 gab Netflix bekannt, nicht länger Firmen wie Akamai bezahlen zu wollen, weshalb
es begonnen habe, sein eigenes globales CDN aufzubauen. Vgl. Eric Savitz, »Netflix Shifts Traffic
to Its Own CDN«, in: Forbes, 5. Juni 2012, http://www.forbes.com/sites/ericsavitz/2012/06/05/net-
flix-shifts-traffic-to-its-own-cdn-akamai-limelight-shrs-hit/. Für weitere Informationen über das Open
Connect CDN von Netflix vgl. https://www.netflix.com/openconnect.
212 Persönliches Interview mit John Hennessy, 9. Januar 2013.

370
Anmerkungen

213 Morgenstern, Organizing from the Inside Out.


214 Jones, Keeping Found Things Found.
215 Persönliches Interview mit Rik Belew, 31. Oktober 2013.
216 Persönliches Interview mit Yukio Noguchi, 17. Dezember 2013.
217 Noguchi beschreibt sein Ablagesystem in einem Artikel, den William Lise unter dem Titel Super Or-
ganized Method ins Englische übertragen hat. Der Blogbeitrag, in dem das System beschrieben ist, ist
nicht mehr auf Lises Website zu finden, kann jedoch im Internet Archiv abgerufen werden: https://
web.archive.org/web/20031223072329/; http://www.lise.jp/honyaku/noguchi.html. Zusätzliche In-
formationen stammen aus einem persönlichen Interview mit Yukio Noguchi, 17. Dezember 2013.
218 Sleator und Tarjan, »Amortized Efficiency of List Update and Paging Rules«. Diese Autoren liefern
auch die klarsten Resultate zu den theoretischen Eigenschaften des LRU-Prinzips.
219 Persönliches Interview mit Robert Tarjan, 17. Dezember 2013.
220 Diese Anwendung des LRU-Prinzips auf selbstorganisierende Listen wird als Move-to-Front-Algorith-
mus bezeichnet.
221 Das bedeutet nicht, dass man vollkommen auf jegliche Kategorisierung verzichten muss. Wer es bunt
mag und den Suchvorgang beschleunigen möchte, dem schlägt Noguchi vor, die Ordner in Kategorien
zu unterteilen und mit farbigen Etiketten zu versehen. So kann man die lineare Suche (zum Beispiel
nach Kundenkonten) auf diese Elemente beschränken. Innerhalb jeder Kategorie werden sie weiterhin
entsprechend der Regel Move-to-Front (Nach vorne verschieben) sortiert sein.
222 Für Andersons Erkenntnisse über das Gedächtnis vgl. Anderson und Milson, »Human Memory« sowie
Anderson, The Adaptive Character of Thought. Dieses Buch hat zur Entwicklung einer Strategie zur
Analyse der Alltagskognition auf der Grundlage von idealen Lösungen beigetragen und wird von Tom
und vielen anderen in der Forschung verwendet. Anderson und Milson, »Human Memory«, beruht
auf einer statistischen Untersuchung von Bibliotheksleihen, die in Burrell, »A Simple Stochastic Model
for Library Loans« beschrieben ist.
223 Anderson begann die Zusammenhänge zwischen der Informationsrückgewinnung in Computern und
der Organisation des menschlichen Gedächtnisses zu einer Zeit zu untersuchen, als die meisten Leute
noch nie mit einem Informationsrückgewinnungssystem zu tun gehabt hatten und die verwendeten
Systeme noch eher primitiv waren. Die Forschung für Suchmaschinen hat die Grenzen der Fähigkeiten
dieser Systeme hinausgeschoben und neue Möglichkeiten zur Entdeckung von Parallelen zwischen
Verstand und Maschine eröffnet. Zum Beispiel haben Tom und seine Kollegen gezeigt, dass die Ideen,
auf denen der PageRank-Algorithmus von Google beruht, relevant für das Verständnis des semanti-
schen Gedächtnisses sind. Vgl. Griffiths, Steyvers und Firl, »Google and the Mind«.
224 Anderson, The Adaptive Character of Thought.
225 Die Analyse der Umgebung des menschlichen Gedächtnisses findet sich in Anderson und Schooler,
»Reflections of the Environment in Memory«.
226 »Das menschliche Gedächtnis entspricht bemerkenswert genau der in der Umwelt existierenden Struk-
tur.« Ebd.
227 Ebd.
228 Das griechische Zitat lautet »μέγα βιβλίον μέγα κακόν« (mega biblion, mega kakon), was auch als
»Großes Buch, großes Übel« übersetzt worden ist. Es handelte sich ursprünglich um ein abfälliges
Urteil über die epische Dichtkunst, aber in einer Zeit, in der Bücher die Form von meterlangen Rollen
hatten, war ein großes Buch vermutlich eher unter praktischen als unter ästhetischen Gesichtspunkten
ein Ärgernis. Es hat einen Grund, dass sich Zitierpraxis und Quellennachweise erst entwickelten, als

371
Anmerkungen

Bücher mit numerierten Seiten eingeführt wurden. Für eine ausgezeichnete Darstellung dieser Ge-
schichte vgl. Boorstin, The Discoverers.
229 Persönliches Interview mit John Hennessy, 9. Januar 2014.
230 Ramscar u. a., »The Myth of Cognitive Decline«.
231 Michael Ramscar, »Provider Exclusive: Michael Ramscar on the ›Myth‹ of Cognitive Decline«, Inter-
view mit Bill Myers, 19. Februar 2014, http://www.providermagazine.com/news/Pages/0214/Provi-
der-Exclusive-Michael-Ramscar-On-The-Myth-Of-Cognitive-Decline.aspx.
232 Dillard, The Writing Life.
233 Lawler, »Old Stories«.
234 Diese oft Aristoteles zugeschriebene Aussage stammt in Wahrheit von dem Gelehrten Will Durant, der
damit (nach eigener Aussage) das Denken von Aristoteles zusammenfasste. Vgl. Durant, The Story of
Philosophy.
235 Allen, Wie ich die Dinge geregelt kriege.
236 Tracy, Eat That Frog! Der Autor führt das Zitat im Titel – »Wenn du jeden Morgen als Erstes einen le-
bendigen Frosch isst, hast du das Schlimmste, das dich an diesem Tag erwartet, bereits hinter dir« – auf
ein amerikanisches Sprichwort zurück, aber das ist möglicherweise nicht richtig. Die Website Quote
Investigator nennt den französischen Dichter Nicolas Chamfort, der im 18. Jahrhundert lebte, als
wahrscheinliche Quelle. Für mehr dazu vgl. http://quoteinvestigator.com/2013/04/03/eat-frog/.
237 Fiore, Vorbei mit der Aufschieberei!.
238 William James, Brief an Carl Stumpf, 1. Januar 1886.
239 Partnoy, Wait.
240 Für eine zusammenfassende Darstellung der Rolle von Taylor und Gantt in der Geschichte der Ablauf-
planung vgl. Herrmann, »The Perspectives of Taylor, Gantt, and Johnson«. Für weitere biografische
Details zu Taylor vgl. Kanigel, The One Best Way.
241 LiquidPlanner, ein Anbieter von Software zur Erstellung von Gantt-Diagrammen, zählt Amazon,
IKEA und SpaceX zu seinen Kunden. Siehe dazu die (etwas unpassend wirkende) URL http://www.
liquidplanner.com/death-to-gantt-charts/.
242 Johnsons bahnbrechende Erkenntnis (zu dem, was heute als »Flowshop-Fertigung« bezeichnet wird,
in der die Tätigkeiten von einer Maschine zur anderen fließen) findet sich in »Optimal Two- and
Three-Stage Production Schedules with Setup Times Included«.
243 Die Strategie Earliest Due Date (EDD) oder Frühester Fertigstellungstermin (FFT) wurde erstmals
von Jackson, Scheduling a Production Line to Minimize Maximum Tardiness, beschrieben. James R.
Jackson wuchs in den Dreißigerjahren in Los Angeles auf und studierte im Rahmen seiner Tätigkeit
für das Logistics Research Project der Universität Los Angeles die Abläufe in den Werkshallen ver-
schiedener Luftfahrtunternehmen. Seine Auseinandersetzung mit der Frage, wie die Tätigkeiten von
einer Maschine zur anderen fortschritten, führte zur Entwicklung mathematischer Formen für die
Analyse der »Netzwerkströme« – diese Erkenntnisse wurden später für Algorithmen für die Lenkung
des Datenverkehrs im Internet genutzt. Für eine kurze Biografie von Jackson vgl. Production and
Operations Management Society, »James R. Jackson«.
244 Erklärt in Moore, »An N Job, One Machine Sequencing Algorithm for Minimizing the Number
of Late Jobs«. In dieser Arbeit beschrieb Moore eine Vereinfachung und Optimierung, die Thom J.
Hodgson vorgeschlagen hatte. Daher werden heute verschiedene Bezeichnungen für diese Strategie
verwendet: »Moore-Algorithmus«, »Hodgson-Algorithmus« und »Moore-Hodgson-Algorithmus«.

372
Anmerkungen

245 Dass der Shortest-Processing-Time-Algorithmus (SPT), der auch als Smith-Regel bezeichnet wird,
die Summe der Fertigstellungszeiten minimiert, zeigte Smith, »Various Optimizers for Single-Stage
Production«.
246 Stephens und Krebs, Foraging Theory.
247 Im Bereich der Beratung für den Hausgebrauch ist der Autor und Redner Dave Ramsey der vielleicht
bekannteste Verfechter der »Schuldenschneeball«-Strategie, die zahlreiche Anhänger und Gegner hat.
Im Bereich der Forschung haben sich zum Beispiel die Wirtschaftswissenschaftler Gal und McShane
von der Northwestern University (»Can Small Victories Help Win the War?«, 2012) sowie Brown und
Lahey von der Texas A&M University (Small Victories, 2014) mit der Frage beschäftigt, inwieweit
»kleine Siege« Personen helfen, sich von Konsumschulden zu befreien.
248 Es handelt sich um die Episode 12 (»Böses Blut«) aus der 5. Staffel, Erstausstrahlung in den Vereinigten
Staaten am 22. Februar 1998.
249 Rosenbaum, Gong und Potts, »Pre-Crastination«.
250 Diese Geschichte stammt aus seinem Comedy-Programm Strategic Grill Locations (1999).
251 Die erste englische Quelle, in der diese Aussage Goethe zugeschrieben wird, scheint Covey, How to
Succeed with People, zu sein, obwohl Covey keine Belegstelle angibt.
252 Persönliches Interview mit Laura Albert McLay, 16. September 2014.
253 Persönliches Interview mit Jan Karel Lenstra, 2. September 2014, sowie persönliche Korrespondenz.
254 Die biografischen Daten stammen aus Lawler, »Old Stories«, und Lenstra, »The Mystical Power of
Twoness«.
255 Richard Karp, »A Personal View of Computer Science at Berkeley«, EECS Department, University of
California, Berkeley, http://www.eecs.berkeley.edu/BEARS/CS Anniversary/karp-talk.html.
256 Vgl. http://awards.acm.org/lawler/.
257 Lawlers Analyse der Präzedenzbeschränkungen beim Problem der maximalen Verspätung findet sich in
Lawler, »Optimal Sequencing of a Single Machine Subject to Precedence Constraints«.
258 Die Analyse findet sich in Lawler, »Sequencing Jobs to Minimize Total Weighted Completion Time
Subject to Precedence Constraints«. Das Problem ist »NP-schwer«, was bedeutet, dass keine effiziente
Lösung bekannt ist und dass vielleicht nie eine gefunden wird.
259 Die Entdeckungsreise begann eines Nachmittags im Jahr 1975, als Lawler, Lenstra und ihre Kollegen
Richard Karp und Ben Lageweg im Mathematisch Centrum in Amsterdam zusammensaßen und sich
über die Schedulingtheorie unterhielten. Vielleicht war es »der durchdringende Geruch von Hopfen
und Malz« aus der benachbarten Amstel-Brauerei, der bei den Mitgliedern der Gruppe die Überzeu-
gung reifen ließ, dass ein Buch mit einer Liste sämtlicher Scheduling-Probleme samt Angaben dazu, ob
sie gelöst waren, ein nettes Geschenk für ihren Freund und Kollegen Alexander Rinnooy Kann wäre,
der kurz davor stand, seine Doktorarbeit zu verteidigen. (Diese Geschichte stammt aus Lawler, »Old
Stories«, und Lenstra, »The Mystical Power of Twoness«.) Rinnooy Kan sollte noch wichtige Beiträge
nicht nur zur Forschung, sondern auch zur niederländischen Wirtschaft leisten: Er saß im Vorstand
von ING und wurde von der Zeitung De Volkskrant drei Jahre in Folge zur einflussreichsten Person der
Niederlande gekürt. Vgl. Rinnooy Kan weer invloedrijkste Nederlander«, De Volkskrant, 4. Dezember
2009, http://nos.nl/artikel/112743-rinnooy-kan-weer-invloedrijkste-nederlander.html.
Lageweg schrieb ein Computerprogramm, das eine Liste von 4536 verschiedenen Formen des Schedu-
ling-Problems erzeugte: Sie enthielt jede mögliche Kombination von Maßen (maximale Verspätung,
Zahl der verspäteten Tätigkeiten, Summe der Fertigstellungszeitpunkte usw.) und Beschränkungen

373
Anmerkungen

(Gewichte, Präzedenz, Startzeiten usw.). Innerhalb weniger Tage hatte die Gruppe »das Vergnügen, in
rascher Folge einen obskuren Problemtyp nach dem anderen zu definieren.«
Zur Beschreibung der Sammlung von Scheduling-Problemen bedienten sie sich einer »mit Kurzschrift
gespickten« Sprache, die sie »Schedulesisch« nannten (Graham u. a., »Optimization and Approxima-
tion in Deterministic Sequencing«). Der Grundgedanke war, dass Scheduling-Probleme anhand von
drei Variablen beschrieben werden: Art der verwendeten Maschinen, Art der Tätigkeiten und Pla-
nungsziel. Diese drei Variablen werden in dieser Reihenfolge spezifiziert, wobei Standardcodes Fakto-
ren wie Präzedenzbeschränkungen, Präemption, Einlastzeiten und das Ziel beschreiben. Beispielsweise
steht 1|rj|ΣCj für eine einzige Maschine, Einlastzeiten und das Ziel, die Summe der Fertigstellungs-
zeiten zu minimieren. Wie Eugene Lawler berichtet:
Ein unmittelbarer Nutzen war, dass wir die Problemtypen ganz leicht zuordnen konnten. Besucher
in unseren Büros hörten zu ihrer Verblüffung Gespräche wie dieses: »Ein-Erjot-Summe-Cejot ist NP-
schwer. Bedeutet das, dass Ein-Präemption-Erjot-Summe-Cejot ebenfalls NP-schwer ist?« – »Nein, das
ist leicht, erinnerst du dich?« – »In Ordnung, Ein-Dejot-Summe-Cejot ist leicht, was bedeutet, dass
Ein-Präemption-Dejot-Summe-Cejot leicht ist. Was wissen wir also über Ein-Präemption-Erjot-De-
jot-Summe-Cejot?« – »Nichts.«
(In formaler Notation: »1|rj|Σ Cj ist NP-schwer. Bedeutet dass, dass 1|pmtn,rj|Σ C j ebenfalls NP-
schwer ist?« – »Nein, das ist einfach, erinnerst du dich?« – »In Ordnung, 1|dj|Σ Cj ist einfach, was be-
deutet, dass 1|pmtn,dj|Σ Cj leicht ist. Was wissen wir also über 1|pmtn,rj,dj|Σ Cj?« – »Nichts.« [Lawler,
u. a., »A Gift for Alexander!«; vgl. auch Lawler, »Old Stories«].)
260 Tatsächlich entspricht es dem »Rucksackproblem«, dem berühmtesten unlösbaren Optimierungspro-
blem. Der Zusammenhang zwischen diesem Scheduling-Problem und dem Rucksackproblem ist be-
schrieben in Lawler, Scheduling a Single Machine to Minimize the Number of Late Jobs.
261 Was wir als »Startzeiten« bezeichnen, wird in der Literatur (in unseren Augen etwas mehrdeutig) als
»Einlastzeiten« bezeichnet. Lenstra, Rinnooy Kann und Brucker, »Complexity of Machine Scheduling
Problems«, zeigten, dass sowohl die Minimierung der Summe der Fertigstellungszeiten als auch die Mi-
nimierung der maximalen Verspätung mit beliebigen Einlastzeiten NP-schwer sind. Die Minimierung
der Zahl der verspäteten Tätigkeiten mit beliebiger Einlastzeit wird behandelt in Lawler, »Scheduling
a Single Machine to Minimize the Number of Late Jobs«.
262 Lawler u. a., »Sequencing and Scheduling«. Die aktuellste Version dieser Liste ist zugänglich unter
http://www.informatik.uni-osnabrueck.de/knust/class/.
263 Die Wirkung der Präemption auf die Verringerung der maximalen Verspätung mit Einlastzeiten ana-
lysieren Baker u. a., »Preemptive Scheduling of a Single Machine«. Das Problem der Minimierung der
Summe der Fertigstellungszeitpunkte mit Einlastzeiten und Präemption wird analysiert in Schrage, »A
Proof of the Optimality of the Shortest Remaining Processing Time Discipline« sowie Baker, Introduc-
tion to Sequencing and Scheduling.
264 Das Resultat der Minimierung der erwarteten maximalen Verspätung durch Wahl der Aufgabe mit
dem frühesten Fertigstellungstermin wird behandelt in Pinedo, Scheduling.
265 Die Wirksamkeit der Wahl der Aufgabe mit der kürzesten erwarteten gewichteten Bearbeitungszeit
bei der Minimierung der Summe der gewichteten Fertigstellungszeiten in einem dynamischen Um-
feld (unter der Voraussetzung, dass die geschätzte Zeit für die Erledigung einer Aufgabe während der
Arbeit an dieser Aufgabe nicht wächst) demonstriert Sevcik, »Scheduling for Minimum Total Loss
Using Service Time Distributions«, im Rahmen einer allgemeineren Strategie für die dynamische Ab-
laufplanung.
266 Pinedo, »Stochastic Scheduling with Release Dates and Due Dates«, hat gezeigt, dass dieser Algorith-
mus bei diesen Problemen unter der (einigermaßen starken) Annahme optimal ist, dass die für die Tä-

374
Anmerkungen

tigkeiten aufgewandte Zeit einer gedächtnislosen Verteilung unterliegt, was bedeutet, dass die Schät-
zung der Zeit, die sie in Anspruch nehmen werden, ungeachtet dessen, wie lange man daran arbeitet,
konstant bleibt. In der stochastischen Ablaufplanung sind optimale Algorithmen nicht zwangsläufig
ideal für jede mögliche Arbeitslast, sondern verringern eher die erwarteten Werte der relevanten Maße.
267 Jason Fried, »Let’s just call plans what they are: guesses«, 14. Juli 2009, https://signalvnoise.com/
posts/1805-lets-just-call-plans-what-they-are-guesses.
268 Ullman, »Out of Time«.
269 Monsell, »Task Switching«.
270 Persönliches Interview mit Kirk Pruhs, 4. September 2014.
271 The Social Network, Drehbuch von Aaron Sorkin; Columbia Pictures, 2010.
272 Persönliches Interview mit Peter Denning, 22. April 2014.
273 Denning, »Thrashing: Its Causes and Prevention«.
274 Persönliches Interview mit Peter Zijlstra, 17. April 2014.
275 Das Seitenflattern kann auch in Datenbanksystemen auftreten, wo der Wettbewerb zwischen verschie-
denen Prozessen um Zugriff auf die Datenbank die Fähigkeit der gegenwärtigen Prozesse, irgendetwas
zu bewerkstelligen, unterdrücken kann. In Netzwerkumgebungen kann eine Kakophonie verschiede-
ner Signale, die um den Netzwerkkanal wetteifern, verhindern, dass irgendein Signal durchkommt.
Mit dem zweiten Szenario werden wir uns in Kapitel 10 genauer beschäftigen.
276 Der von Linux ab der 2001 vorgestellten Version 2.4 verwendete »O(n)-Scheduler« sortierte alle Pro-
zesse nach Priorität, was um so länger dauerte, je mehr Prozesse es gab. Im Jahr 2003 wurde diese
Lösung bei Linux 2.6 durch den »O(1)-Scheduler« ersetzt, der unabhängig von der Zahl der Prozesse
eine Bucket-Sortierung aller Prozesse in eine feststehende Zahl von Behältern vornahm. Aber diese
Bucket-Sortierung erforderte die Berechnung komplexer Heuristiken, und ab der 2007 eingeführten
Version Linux 2.6.23 wurde der »O(1)-Scheduler« durch den noch einfacheren »Completely Fair Sche-
duler« ersetzt.
277 Dieser Wert wird im »Completely Fair Scheduler« des Linux-Systemkerns in der Variable sysctl_sched_
min_granularity definiert.
278 Über das Timeboxing wurde in Zusammenhang mit dem Management von Softwareentwicklungs-
teams viel geschrieben; seinen Ursprung hat der Begriff »Timeboxing« anscheinend in Zahniser, »Ti-
meboxing for Top Team Performance«. Die »Pomodoro-Technik«, die ihren Namen von einem Kü-
chenwecker in Form einer Tomate hat (das italienische Wort für Tomate ist pomodoro), wurde Ende der
Achtzigerjahre von Francesco Cirillo entwickelt, der sie ab 1998 lehrte. Vgl. z. B. Cirillo, The Pomodoro
Technique.
279 Vgl. z. B. persönliches Interview mit Peter Zijlstra, 17. April 2014.
280 Linux führte 2007 einen Support für das Timer Coalescing ein; Microsoft führte es 2009 mit Win-
dows 7 ein, und Apple zog 2014 beim OS X Mavericks nach.
281 Persönliches Interview mit Peter Norvig, 17. September 2014.
282 Shasha und Lazere, Out of Their Minds, S. 101.
283 Donald Knuth, »Knuth versus Email«, http://www-cs-faculty.stanford.edu/~uno/email.html.
284 Bertrand Russell, Human Knowledge: Its Scope and Limits, 1948, S. 527.
285 Gott, »Implications of the Copernican Principle for Our Future Prospects«.
286 Der Vortrag ist abgedruckt in Halevy, Norvig und Pereira, »The Unreasonable Effectiveness of Data«.
287 David Hume, Eine Untersuchung über den menschlichen Verstand. Stuttgart: Reclam, 2013, S. 37.

375
Anmerkungen

288 Unsere Kurzbiografie stützt sich auf Dale, A History of Inverse Probability, und Bellhouse, »The Reve-
rend Thomas Bayes«.
289 Bayes’ legendäre Arbeit, die nicht datiert ist, war zwischen Papieren aus den Jahren 1746 und 1749
abgelegt. Vgl. z. B. McGrayne, The Theory That Would Not Die.
290 An Introduction to the Doctrine of fluxions, and Defence of the Mathematicians against the Objections of
the Author of the analyst, so far as they are assigned to affect their general methods of Reasoning.
291 Einleitung zu Bayes, »An Essay Towards Solving a Problem in the Doctrine of Chances«.
292 Anhang zu ebd.
293 Genau gesagt, erklärte Bayes, dass wir ausgehend von der Hypothese h und den beobachteten Daten d
die Hypothesen bewerten sollten, indem wir für jede h die Wahrscheinlichkeit p(d|h) berechnen. (Die
Notation p(d|h) beschreibt die »bedingte Wahrscheinlichkeit« von d bei gegebener h – das heißt die
Wahrscheinlichkeit, dass d beobachtet wird, wenn h zutrifft.) Um dies in eine Wahrscheinlichkeit der
Richtigkeit von jeder h zu verwandeln, dividieren wir das Ergebnis anschließend durch die Summe
dieser Wahrscheinlichkeiten.
294 Für Einzelheiten zu Laplaces Leben und Werk vgl. Gillispie, Pierre-Simon Laplace.
295 Laplaces Folgeregel wird aus der von Bayes vorgeschlagenen Berechnung abgeleitet – der schwierige
Teil ist die Summe über allen Hypothesen, die eine vergnügliche Anwendung der partiellen Integration
erfordert. Eine vollständige Ableitung der Folgeregel findet man bei Griffiths, Kemp und Tenenbaum,
»Bayesian Models of Cognition«. Aus Sicht der modernen bayesschen Statistik ist Laplaces Folge­
regel die mittlere A-posteriori-Wahrscheinlichkeit der Binomialverteilung anhand einer einheitlichen
A-priori-Verteilung.
296 Vielleicht erinnern Sie sich, dass wir in der Auseinandersetzung mit den mehrarmigen Banditen und
dem Explore/Exploit-Dilemma in Kapitel 2 auch die Schätzungen der Erfolgsrate eines Prozesses –
eines Spielautomaten – auf der Grundlage von Erfahrungen angesprochen haben. Die Entdeckungen
von Bayes und Laplace liegen vielen der Algorithmen zugrunde, die wir in diesem Kapitel behandelt
haben, darunter dem Gittins-Index. Wie die Folgeregel von Laplace beruhen die dort behandelten
Gittins-Werte auf der Annahme, dass jede Erfolgswahrscheinlichkeit gleichermaßen wahrscheinlich
ist. Daher liegt die erwartete Gesamtgewinnrate eines Spielautomaten mit einer Bilanz von 1 zu 0 bei
zwei Dritteln.
297 Hume, Untersuchung über den menschlichen Verstand, S. 39.
298 Um dieser Tatsache gerecht zu werden, wurde sie in einer einflussreichen Arbeit aus dem Jahr 1950
(Bailey, Credibility Procedures) als »Laplaces Verallgemeinerung der Bayesschen Regel« bezeichnet, aber
diese Bezeichnung setzte sich nicht durch. Es kommt durchaus häufig vor, dass Entdeckungen nicht
nach ihrem Entdecker, sondern einer anderen Person benannt werden; der Statistiker und Historiker
Stephen Stigler hat sogar die empirische Gesetzmäßigkeit beschrieben, dass keine Entdeckung nach
ihrem Entdecker benannt wird: Stiglers Gesetz (Gesetz der Eponyme). Natürlich war Stigler nicht der
Erste, der das entdeckte; er selbst schreibt den Verdienst dem Soziologen Robert K. Merton zu. Vgl.
Stigler, »Stigler’s Law of Eponymy«.
299 Für Leser mit mathematischen Neigungen hier eine vollständige Version der Bayesschen Regel. Wir
wollen berechnen, welche Wahrscheinlichkeit wir einer Hypothese h mit gegebenen Daten d zuspre-
chen sollten. Wir haben eine Vorstellung von der Wahrscheinlichkeit, dass diese Hypothese zutrifft, die
in der Verteilung p(h) zum Ausdruck kommt. Nun wollen wir die »A-posteriori-Verteilung« p(h|d) be-
rechnen, die Aufschluss darüber gibt, wie wir unsere frühere Verteilung angesichts der in d enthaltenen
Tatsachen anpassen sollten. Diese ist gegeben durch , wobei h′ sämtliche betrachteten
Hypothesen umfasst.

376
Anmerkungen

300 Für Einzelheiten zur ungesicherten Herkunft dieser Redensart vgl. Quote Investigator, »It’s Difficult
to Make Predictions, Especially About the Future«, http://quoteinvestigator.com/2013/10/20/no-pre-
dict/.
301 Das New Yorker-Cover ist: Richard McGuire, »Time Warp«, 24. November 2014. Für eine faszinieren-
de und detailliertere Analyse der wahrscheinlichen Lebenserwartung von Städten und Unternehmen
vgl. die Arbeiten von Geoffrey West und Luis Bettencourt, z. B. Bettencourt u. a., »Growth, Innova-
tion, Scaling, and the Pace of Life in Cities«.
302 Vgl. z. B. Garrett und Coles, »Bayesian Inductive Inference and the Anthropic Principles«, sowie Buch,
»Future Prospects Discussed«.
303 Der Statistiker Harold Jeffreys schlug später vor, statt Laplaces besser zu verwenden,
was das Ergebnis der Verwendung einer »nichtinformativen« A-priori-Verteilung statt der »Gleich-
verteilung« ist (Jeffreys, Theory of Probability; Jeffreys, »An Invariant Form for the Prior Probability
in Estimation Problems«). Eine Methode zur Definition informativer A-priori-Verteilungen führt zu
Vorhersagen in der Form , wobei w′ und n′ die Zahl der Erfolge und Versuche in der vergan-
genen Erfahrung sind (für Einzelheiten vgl. Griffiths, Kemp und Tenenbaum, »Bayesian Models of
Cognition«). Anhand dieser Regel würden Sie, nachdem sie gesehen haben, dass von 100 Losen nur
10 prämiert wurden (w = 10, n = 90), angesichts eines einzelnen Gewinnloses in dieser neuen Lotterie
zu einer sehr viel vernünftigeren Schätzung von 12/103 gelangen (die nicht weit von 10 Prozent ent-
fernt ist). Abwandlungen von Laplaces Folgeregel kommen in der Computerlinguistik umfassend zum
Einsatz, wo sie eine Schätzung der Wahrscheinlichkeit des Auftauchens von Worten ermöglichen, die
nie zuvor gesehen wurden (Chen und Goodman, »An Empirical Study of Smoothing Techniques for
Language Modeling«).
304 Bei einer Menge wie einer Zeitdauer, die von 0 bis ∞ reicht, ist die nichtinformierte A-priori-Vertei-
lung von Zeiträumen t die Wahrscheinlichkeitsdichte p(t) α 1/t. Eine Veränderung der Betrachtungs-
größe durch Definition einer neuen Menge s, die ein Vielfaches von t ist, wirkt sich nicht auf die Form
dieser Verteilung aus: Wenn s = ct, dann p(s) α p(t = s/c) α 1/s. Das bedeutet, dass sie skalenunabhängig
ist. Für weitere Informationen über nichtinformierte A-priori-Verteilungen vgl. Jeffreys, Theory of Pro-
bability, sowie Jeffreys, »An Invariant Form for the Prior Probability in Estimation Problems«.
305 Das zeigte Gott, »Future Prospects Discussed«, in Reaktion auf Buch, »Future Prospects Discussed«.
306 Jeffreys, Theory of Probability, §4.8. Jeffreys erklärt, der Mathematiker Max Newman habe ihn auf das
Problem aufmerksam gemacht.
307 Dies ist als »deutsches Panzerproblem« bekannt geworden und wurde in zahlreichen Quellen doku-
mentiert. Vgl. z. B. Gavyn Davies, »How a Statistical Formula won the War«, in: Guardian, 19. Juli
2006, http://www.theguardian.com/world/2006/jul/20/secondworldwar.tvandradio.
308 Beispielsweise heißt es im Forschungsbericht der New Zealand Avocado Growers Association für das
Jahr 2002, dass »die Fruchtgrößenprofile im April normalverteilt waren und es bis zum Ende des Be-
obachtungszeitraums blieben«.
309 Diese Zahl stammt aus Clauset, Shalizi und Newman, »Power-Law Distributions in Empirical Data«;
die Autoren berufen sich auf den US Census des Jahres 2000.
310 Die allgemeine Form einer Potenzgesetzverteilung einer Menge t is p(t) α t−γ, wobei der Wert γ be-
schreibt, wie schnell die Wahrscheinlichkeit von t mit wachsender Größe von t sinkt. Wie bei der
nichtinformativen A-priori-Verteilung ändert sich die Form der Verteilung nicht, wenn wir s = ct neh-
men und damit die Größenordnung ändern.
311 Die Beobachtung, dass die Vermögen entsprechend einer Potenzgesetzfunktion verteilt sind, geht auf
Pareto, Cours d’économie politique, zurück. Eine weitere gute Darstellung der Potenzgesetzverteilungen

377
Anmerkungen

von Bevölkerungen und Einkommen findet man in Simon, »On a Class of Skew Distribution Functi-
ons«.
312 Das mittlere bereinigte Brutto-Pro-Kopf-Einkommen, das anhand der Steuererklärungen amerika-
nischer Bürger ermittelt wird, lag im Steuerjahr 2009 bei 55 688 Dollar (dies ist das letzte Jahr, für
das eine Schätzung vorliegt); vgl. das Diskussionspapier »Evaluating the Use of the New Current
Population Survey’s Annual Social and Economic Supplement Questions in the Census Bureau Tax
Model« aus dem Jahr 2011, zugänglich unter: https://www.census.gov/content/dam/Census/library/
working-papers/2011/demo/2011_SPM_Tax_Model.pdf, das seinerseits aus dem Current Population
Survey Annual Social and Economic Supplement des US Census Bureau aus dem Jahr 2010 zitiert.
313 Die Schwelle für die Zugehörigkeit zu den obersten 40 Prozent der Einkommensverteilung lag im Jahr
2012 bei 47 475 Dollar, die Schwelle zu den obersten 30 Prozent bei 63 222 Dollar. Daraus können
wir ableiten, dass man mit einem Einkommen von 55 688 zu den einkommensstärksten 33 Prozent
der US-Bevölkerung zählte. Vgl. Adrian Dungan, »Individual Income Tax Shares, 2012«, IRS Statis-
tics of Income Bulletin, Frühjahr 2015, zugänglich unter: https://www.irs.gov/pub/irs-soi/soi-a-ints-
id1506.pdf.
314 Die Schwelle zum einkommensstärksten 1 Prozent war im Jahr 2012 ein Einkommen von 434 682
Dollar, die Schwelle zum obersten 0,01 Prozent ein Einkommen von 12 104 014 Dollar. Vgl. ebd.
315 Für eine gute, für das breite Publikum zugängliche Darstellung von Potenzgesetzverteilungen als Pro-
dukt der bevorzugten Bindung vgl. Barabási, Linked.
316 Lerner, The Lichtenberg Figures.
317 Für alle in diesem Abschnitt behandelten Vorhersageregeln vgl. Griffiths und Tenenbaum, »Optimal
Predictions in Everyday Cognition«.
318 Ebd.
319 Erlang modellierte die Rate der Telefonanrufe in einem Netz anhand einer Poisson-Verteilung in »The
Theory of Probabilities and Telephone Conversations« und entwickelte die nach ihm benannte Ver-
teilung zur Modellierung der Intervalle zwischen eingehenden Anrufen in »Solution of Some Problems
in the Theory of Probabilities of Significance in Automatic Telephone Exchanges«. Für weitere Einzel-
heiten zu Erlangs Leben vgl. Heyde, »Agner Krarup Erlang«.
320 Genau gesagt beträgt die Wahrscheinlichkeit, einen Black Jack zu schaffen, 128 zu 2652 oder 1 zu
20,7. Um abzuleiten, warum wir erwarten können, noch 20,7 Runden spielen zu müssen, bevor wir
diese Hand bekommen, können wir unsere Erwartung rekursiv definieren: Entweder gibt uns der
Dealer in einer Runde einen Black Jack oder nicht (in welchem Fall wir in der nächsten Runde wieder
am Ausgangspunkt sind). Wenn x unsere Erwartung ist, ist x = 1 + (2524/2652)x, wobei 2524/2652
unsere Chance ist, keinen Blackjack zu bekommen. Die Auflösung nach x ergibt etwa 20,7.
321 Technisch unterliegt das Intervall bis zum nächsten Black Jack einer geometrischen Verteilung (ähn-
lich der exponentiellen Verteilung für eine kontinuierliche Menge), die im Gegensatz zu der eher an
einen Flügel erinnernden Erlang-Verteilung stetig abnimmt. Aber beide können unter geeigneten Be-
dingungen gedächtnislose Vorhersagen hervorbringen. Wenn wir ein bestimmtes Phänomen an einem
zufälligen Punkt seiner Dauer beobachten, wie Richard Gott bezüglich der Berliner Mauer annahm,
dann liefert uns die flügelartige Erlang-Verteilung gedächtnislose Vorhersagen gemäß der Additions-
regel. Und wenn wir ein Phänomen mit geometrischer Verteilung kontinuierlich beobachten, zum
Beispiel beim Black Jack, ergeben sich ebenfalls solche Vorhersagen gemäß Additionsregel.
322 »The Gambler« wurde von Kenny Rogers im Jahr 1978 auf der gleichnamigen Platte bekannt gemacht,
aber geschrieben und ursprünglich interpretiert hatte den Song Don Schlitz. Die Version von Rogers
schaffte den Sprung an die Spitze der Country-Charts, und 1980 gewann Rogers den Grammy für die
beste männliche Interpretation eines Country Songs.

378
Anmerkungen

323 Gould, »The Median Isn’t the Message«.


324 Griffiths und Tenenbaum, »Optimal Predictions in Everyday Cognition«.
325 Beispielsweise wurde untersucht, wie es uns gelingt, anhand der von der Retina registrierten Licht-
muster sich bewegende Formen zu erkennen (Weiss, Simoncelli und Adelson, »Motion Illusions as
Optimal Percepts«), aus den Interaktionen zwischen Objekten auf Kausalbeziehungen zu schließen
(Griffiths u. a., »Bayes and Blickets«) und die Bedeutung neuer Worte zu verstehen, nachdem wir sie
einige wenige Male gehört haben (Xu und Tenenbaum, »Word Learning as Bayesian Inference«).
326 Mischel, Ebbesen und Raskoff Zeiss, »Cognitive and Attentional Mechanisms in Delay of Gratifica-
tion«.
327 Joe McGuire und Joe Kable von der Pennsylvania State University haben in einer Reihe von Studien
gezeigt, dass Menschen ihre Einstellung zu der Frage, ob sie für eine große Belohnung ausharren
sollen, abhängig davon ändern, ob ihnen ihre Erfahrung sagt, dass sie in einer Welt leben, in der die
Verzögerungen von Belohnungen einer Potenzgesetzverteilung unterliegen. Vgl. McGuire und Kable,
»Decision Makers Calibrate Behavioral Persistence on the Basis of Time-Interval Experience«, sowie
McGuire und Kable, »Rational Temporal Predictions Can Underlie Apparent Failures to Delay Grati-
fication«.
328 Mischel, Shoda und Rodriguez, »Delay of Gratification in Children«.
329 Kidd, Palmeri und Aslin, »Rational Snacking«.
330 Nach Angabe des Aviation Safety Network (persönliche Korrespondenz) lag die Zahl der Todesop-
fer »an Bord von Flugzeugen in amerikanischem Besitz mit einer Kapazität von mehr als 12 Pas-
sagieren einschließlich von Firmenflugzeugen und militärischen Transportflugzeugen« im Zeitraum
2000–2014 bei 1369; schätzt man die Opferzahl im Jahr 2015 anhand des Werts für das Jahr 2014, so
ergibt sich eine Gesamtzahl von 1393 Todesopfern bis zum Jahresende 2015. Das berühmte Isaac Stern
Auditorium der Carnegie Hall hat eine Kapazität von 2804 Personen. Vgl. http://www.carnegiehall.
org/Information/Stern-Auditorium-Perelman-Stage/.
331 Nach Angabe der National Highway Traffic Safety Administration starben in den Vereinigten Staaten
im Zeitraum 2000–2013 543 407 Menschen bei Autounfällen. Vgl. http://www-fars.nhtsa.dot.gov.
Eine Schätzung der Opferzahlen für die Jahre 2014 und 2015 anhand der Zahl für 2013 ergibt eine
Gesamtzahl von 608 845 Straßenverkehrsopfern bis Ende 2015. Der Bundesstaat Wyoming hatte nach
Schätzung des US Census Bureau im Jahr 2014 eine Bevölkerung von 584 153 Menschen. Vgl. http://
quickfacts.census.gov/qfd/states/56000.html.
332 Glassner, »Narrative Techniques of Fear Mongering«.
333 Diese Notiz von Darwin ist mit 7. April 1838 datiert; vgl. z. B., Darwin, The Correspondence of Charles
Darwin, Bd. 2: 1837–1843.
334 Brief von Benjamin Franklin an Joseph Priestley, London, 19. September 1772.
335 »Anything You Can Do«, komponiert von Irving Berlin, in Annie Get Your Gun, 1946.
336 In der Sprache des Maschinenlernens ausgedrückt: zwischen dem »Training« und dem »Test«.
337 Lucas u. a., »Reexamining Adaptation and the Set Point Model of Happiness«.
338 Für Mathe-Fans: Wir versuchen die beste ganzrationale Funktion, die diese Beziehung erfasst, zu fin-
den. Wenn x die seit der Heirat vergangene Zeit und y die Zufriedenheit ist, dann lautet das Ein-Prä-
diktor-Modell: y = ax + b. Das Zwei-Prädiktoren-Modell lautet: y = ax2 + bx + c, und das Neun-Prä-
diktoren-Modell findet die besten Koeffizienten für alle Wert von x bis zu x9, wobei es eine Schätzung
für eine ganzrationale Funktion vom Grad 9 ergibt.

379
Anmerkungen

339 Tatsächlich ist es eine mathematische Wahrheit, dass man durch beliebige n Punkte immer den Gra-
phen einer ganzrationalen Funktion vom Grad n – 1 zeichnen kann.
340 Lucas u. a., »Reexamining Adaptation and the Set Point Model of Happiness«.
341 Statistiker nennen die verschiedenen Faktoren im Modell »Prädiktoren«. Ein allzu einfaches Modell
wie etwa eine Gerade, die eine Kurve zu nähern versucht, weist ein sogenanntes »Bias« (einen systema-
tischen Fehler) auf. Die entgegengesetzte Art von systematischem Fehler, wo ein Modell zu kompli-
ziert gemacht wird und deshalb bei geringfügigen Änderungen der Daten sehr starken Schwankungen
unterliegt, wird »Varianz« genannt.
Überraschend ist, dass diese beiden Arten von Fehlern – Bias und Varianz – komplementär sein kön-
nen. Die Verringerung des Bias (wodurch das Modell flexibler und komplizierter wird) kann die Va-
rianz erhöhen. Und die Erhöhung des Bias (die Vereinfachung des Modells und eine weniger straffe
Anpassung an die Daten) kann manchmal die Varianz verringern.
Wie die berühmte Heisenbergsche Unschärferelation in der Teilchenphysik, die besagt, dass man umso
weniger über den Aufenthaltsort eines Teilchens weiß, je genauer man seinen Impuls kennt, drückt
auch das sogenannte Bias-Varianz-Dilemma eine tiefe und grundlegende Grenze der Genauigkeit eines
Modells aus – dessen, was man wissen und vorhersagen kann. Dieses Konzept findet sich in zahlreichen
Quellen zum Maschinenlernen. Vgl., zum Beispiel, Geman, Bienenstock und Doursat, »Neural Net-
works and the Bias/Variance Dilemma«, und Grenander, »On Empirical Spectral Analysis of Stochastic
Processes«.
342 Die eherne Schlange, Nehuschtan, wird im 2. Buch der Könige (18,4) zerstört.
343 Gilbert, Stumbling on Happiness.
344 Wenn Sie nicht zu empfindlich sind, können Sie sich das Video eines Duells ansehen, das 1967 aus-
getragen wurde. Vgl. http://passerelle-production.u-bourgogne.fr/web/atip_insulte/Video/archive_
duel_france.swf.
345 Für ein interessantes Beispiel der sehr gezielten Überanpassung der Fechtkunst vgl. Harmenberg, Epee
2.0.
346 Brent Schlender, »The Lost Steve Jobs Tapes«, Fast Company, Mai 2012, http://www.fastcompany.
com/1826869/lost-steve-jobs-tapes.
347 Sam Altman, »Welcome, and Ideas, Products, Teams and Execution Part I«, Stanford CS183B, Fall
2014, »How to Start a Startup«, http://startupclass.samaltman.com/courses/lec01/.
348 Ridgway, »Dysfunctional Consequences of Performance Measurements«.
349 In diesem Aufsatz zitiert Ridgway selbst Blau, The Dynamics of Bureaucracy.
350 Avinash Kaushik, »You Are What You Measure, So Choose Your KPIs (Incentives) Wisely!«, http://
www.kaushik.net/avinash/measure-choose-smarter-kpis-incentives/ .
351 Grossman und Christensen, On Combat. Vgl. http://www.killology.com/on_combat_ch2.htm.
352 Ebd.
353 Dieses Zitat wird häufig Albert Einstein zugeschrieben, aber diese Zuschreibung ist nicht belegt.
354 Vgl. z. B., Tikhonov und Arsenin, Solution of Ill-Posed Problems.
355 Tibshirani, »Regression Shrinkage and Selection via the Lasso«.
356 Für ausführlichere Informationen über den Energieverbrauch des menschlichen Gehirns vgl. z. B.,
Raichle und Gusnard, »Appraising the Brain’s Energy Budget«, die ihrerseits u. a. Clarke und Sokoloff,
»Circulation and Energy Metabolism of the Brain«, zitieren.

380
Anmerkungen

357 Ausgehend von dieser Strategie, die sich am Vorbild biologischer Neuronen orientiert, (»Sparsame
Kodierung« genannt) haben Forscher künstliche Neuronen entwickelt, die ähnliche Eigenschaften be-
sitzen wie Neuronen im visuellen Cortex. Vgl. Olshausen und Field, »Emergence of Simple- Cell
Receptive Field Properties«.
358 Die Arbeit, für die Markowitz mit dem Nobelpreis ausgezeichnet wurde, erschien in seinem Aufsatz
»Portfolio Selection« und in seinem Buch Portfolio Selection - Die Grundlagen der optimalen Portfo-
lio-Auswahl, München 2007.
359 Harry Markowitz, zitiert in Jason Zweig, »How the Big Brains Invest at TIAA– CREF«, Money 27(1):
114, Januar 1998.
360 Gigerenzer und Brighton, »Homo Heuristicus«.
361 Soyfoods Association of North America, »Sales and Trends«, http://www.soyfoods.org/soy-products/
sales-and-trends, wo Bezug genommen wird auf Studien, »die von Katahdin Ventures« durchgeführt
wurden.
362 Vanessa Wong, »Drinkable Almonds«, Bloomberg Businessweek, 21. August 2013.
363 Lisa Roolant, »Why Coconut Water Is Now a $1 Billion Industry«, TransferWise, https://transferwise.
com/blog/2014-05/why-coconut-water-is-now-a-1-billion-industry/
364 David Segal, »For Coconut Waters, a Street Fight for Shelf Space«, New York Times, 26. Juli 2014.
365 »Sales of Kale Soar as Celebrity Chefs Highlight Health Benefits«, The Telegraph, 25. März 2013.
366 Ayla Withee, »Kale: One Easy Way to Add More Superfoods to Your Diet«, Boston Magazine, 31. Mai
2012.
367 Kinsbourne, »Somatic Twist«. Vgl. für eine weiterführende Diskussion der Körper- und Organstruk-
tur bei primitiven Wirbeltieren Lowe u. a., »Dorsoventral Patterning in Hemichordates«. Eine zu-
gänglichere Übersichtsdarstellung ist Kelly Zalocusky, »Ask a Neuroscientist: Why Does the Nervous
System Decussate?«, Stanford Neuroblog, 12. Dezember 2013, https://neuroscience.stanford.edu/news/
ask-neuroscientist-why-does-nervous-system-decussate.
368 Vgl. zum Beispiel, »Jaws to Ears in the Ancestors of Mammals«, Understanding Evolution, http://evo-
lution.berkeley.edu/evolibrary/article/evograms_05.
369 »The Scary World of Mr Mintzberg«, Interview mit Simon Caulkin, Guardian, 25. Januar 2003,
http://www.theguardian.com/business/2003/jan/26/theobserver.observerbusiness11.
370 Darwin, The Correspondence of Charles Darwin, Volume 2: 1837–1843.
371 Ebd.
372 Persönliches Interview mit Meghan Peterson (geborene Bellows), 23. September 2014.
373 Genauer gesagt, gibt es 11 107 mögliche Kombinationen, wenn man für jede Person eine eigene Tisch-
anordnung wählt. Die Zahl ist ein wenig niedriger, wenn wir die Einschränkung berücksichtigen, dass
an jedem Tisch nur 10 Personen sitzen können. Aber es ist immer noch eine gewaltige Zahl.
374 Das Schema, das Meghan Bellows anwandte, um ihre Sitzordnung zu entwickeln, ist beschrieben in
Bellows und Peterson, »Finding an Optimal Seating Chart«.
375 Für eine genaue Beschreibung von Lincolns Rundreise vgl. Fraker, »The Real Lincoln Highway«.
376 Menger, »Das Botenproblem«, enthält einen Vortrag, den Menger am 5. Februar 1930 in Wien hielt.
Für eine umfassendere Darstellung des Problems des Handelsreisenden vgl. Schrijver, »On the History
of Combinatorial Optimization«, sowie Cooks sehr gut lesbares Buch In Pursuit of the Traveling Sales-
man.
377 Flood, »The Traveling-Salesman Problem«.

381
Anmerkungen

378 Robinson, On the Hamiltonian Game.


379 Flood, »The Traveling-Salesman Problem«.
380 Edmonds, »Optimum Branchings«.
381 Cobham, »The Intrinsic Computational Difficulty of Functions«, beschäftigt sich ausdrücklich mit
der Frage, was als »effizienter« Algorithmus zu betrachten ist. Edmonds, »Paths, Trees, and Flowers«,
erklärt, warum eine Lösung für ein schwieriges Problem signifikant ist, und beschreibt einen allgemei-
nen Rahmen für die Bewertung der Eigenschaften guter Algorithmen.
382 Tatsächlich gibt es Algorithmen, die langsamer als in Polynomialzeit, aber schneller als in exponen-
tieller Zeit laufen; aufgrund dieser »superpolynomialen« Laufzeiten zählen sie ebenfalls nicht zu den
effizienten Algorithmen.
383 In der Informatik wird die Gruppe der effizient lösbaren Probleme als P bezeichnet, was für »Polyno-
mialzeit« steht. Die Gruppe umstrittener liminaler Probleme wird als NP bezeichnet, was für »nichtde-
terministische Polynomialzeit« steht. Die Lösungen von Problemen in NP können effizient überprüft
werden, aber ob jedes Problem, das leicht überprüft werden kann, auch leicht gelöst werden kann,
ist unbekannt. Wenn uns zum Beispiel jemand eine Route zeigt und sagt, dass sie weniger als 1500
Kilometer lang ist, können wir diese Behauptung leicht überprüfen – aber eine Route von weniger als
1500 Kilometern zu finden oder zu beweisen, dass es unmöglich ist, eine zu finden, ist eine ganz andere
Herausforderung. Die Frage, ob P = NP ist (das heißt, ob es möglich ist, effizient zu den Lösungen von
NP Problemen zu springen), ist das größte ungelöste Problem der Informatik.
Der wichtigste Schritt auf dem Weg zu einer Lösung ist der Nachweis, dass es Probleme mit einem
besonderen Status gibt: Wenn eines von ihnen effizient gelöst werden kann, dann kann jedes Probleme
in NP effizient gelöst werden und P = NP (Cook, »The Complexity of Theorem-Proving Procedures«).
Diese Probleme werden als »NP-schwer« bezeichnet. In Ermangelung einer Antwort auf die Frage, ob
P = NP ist, können Probleme in NP nicht effizient gelöst werden, weshalb wir sie als »schwer hand-
habbar« bezeichnen. (In »A Terminological Proposal« bezeichnete Donald Knuth dies als geeignete
Bezeichnung für NP-schwere Probleme – und bot jedem, der beweisen konnte, dass P = NP ist, einen
lebenden Truthahn als Belohnung an.) Die schwer handhabbaren Scheduling-Probleme, mit denen
Eugene Lawler zu tun hatte (siehe Kapitel 5), gehören in diese Kategorie. Ein NP-schweres Problem,
das selbst in NP ist, wird als »NP-vollständig« bezeichnet. Vgl. Karp, »Reducibility Among Combina-
torial Problems«, für das klassische Ergebnis, das zeigt, dass eine Version des Problems des Handels-
reisenden NP-vollständig ist, sowie Fortnow, The Golden Ticket: P, NP, and the Search for the Impossible,
für eine gut verständliche Einführung in P und NP.
384 In einer 2002 durchgeführten Umfrage gaben 61 von 100 befragten theoretischen Informatikern an,
dass P ≠ NP ist, während nur neun erklärten, dass P = NP ist (Gasarch, »The P =? NP Poll«). Während
der Beweis, dass P = NP ist, mit einem Polynomialzeitalgorithmus für ein NP-vollständiges Problem
erbracht werden könnte, wäre für den Beweis von P ≠ NP eine komplexe Argumentation für die Gren-
zen von Polynomialzeitalgorithmen erforderlich, und unter den Befragten bestand keine Einigkeit
darüber, genau welche Art von Mathematik für die Lösung dieses Problems benötigt würde. Etwa die
Hälfte von ihnen glaubte jedoch, die Frage werde vor dem Jahr 2060 geklärt sein.
385 Dies beinhaltet Versionen von Knotenüberdeckung und Mengenüberdeckung – zwei Probleme, die
Karp, »Reducibility Among Combinatorial Problems« NP zugeordnet hat (Karps Arbeit ist berühmt,
da er 21 Probleme dieser Gruppe zuordnete). Ende der Siebzigerjahre hatten die Informatiker rund
dreihundert NP-vollständige Probleme identifiziert (Garey und Johnson, Computers and Intractability),
und seit damals ist die Liste deutlich länger geworden. Sie umfasst Probleme, die uns aus dem Alltag
vertraut sind. Im Jahr 2003 wurde nachgewiesen, dass Sudoku NP-vollständig ist (Yato und Seta,
»Complexity and Completeness«), und dasselbe gilt für die Maximierung der vervollständigten Reihen

382
Anmerkungen

in Tetris, und zwar auch mit vollkommenem Wissen der kommenden Teile (Demaine, Hohenberger
und Liben-Nowell, »Tetris Is Hard, Even to Approximate«). Im Jahr 2012 wurde die Möglichkeit,
einen Weg zum Ende des Niveaus in Plattformspielen wie Super Mario Bro festzulegen, offiziell der
Liste hinzugefügt (Aloupis, Demaine und Guo, »Classic Nintendo Games are (NP-) Hard«).
386 Persönliches Interview mit Jan Karel Lenstra, 2. September 2014.
387 Das Couplet Dans ses écrits, un sage Italien / Dit que le mieux est l’ennemi du bien (»Ein italienischer Wei-
ser sagt in seinen Schriften, dass das Bessere der Feind des Guten ist«) steht am Anfang von Voltaires
Gedicht »La Bégueule«. Voltaire hatte die italienische Redensart »Il meglio e l’inimico del bene« zuvor
schon in seinem Dictionnaire philosophique (1764) zitiert.
388 Shaw, An Introduction to Relaxation Methods; Henderson, Discrete Relaxation Techniques. Der Leser sei
gewarnt; die Mathematik ist so intensiv, dass dies alles andere als eine entspannende Lektüre ist.
389 Die zu Lincolns juristischem Circuit gehörenden Ortschaften wurden anhand der Karte des 8. Judicial
Circuit für den Zeitraum 1847–1853 im Journal of the Abraham Lincoln Association identifiziert. Vgl.
http://quod.lib.umich.edu/j/jala/images/fraker_fig01a.jpg.
390 Ein bisschen Zeit braucht er natürlich schon – linear zur Zahl der Städte, wenn wir Glück haben, linea-
rithmisch, wenn wir Pech haben. Vgl. Pettie und Ramachandran, »An Optimal Minimum Spanning
Tree Algorithm«.
391 Die Annäherung an das Problem des Handelsreisenden mittels des minimalen Spannbaums wird be-
handelt in Christofides, Worst-Case Analysis of a New Heuristic.
392 Wer mehr über den Stand der Forschung zum Problem des Handelsreisenden beim Besuchen aller
Städte der Welt (dem sogenannten »World TSP«) wissen möchte, der findet einen aktuellen Bericht auf
http://www.math.uwaterloo.ca/tsp/world/. Eine gute allgemeine Einführung in das Problem des Han-
delsreisenden ist Cook, In Pursuit of the Traveling Salesman. Jenen Lesern, die tiefer schürfen möchten,
sei Lawler u. a., The Traveling Salesman Problem, ans Herz gelegt.
393 Dieses klassische Problem der diskreten Optimierung wird auch als »Mengenüberdeckungsproblem«
bezeichnet.
394 Persönliches Interview mit Laura Albert McLay, 16. September 2014.
395 In der Informatik wird dies als »Knotenüberdeckungsproblem« bezeichnet. Es hat Ähnlichkeit mit
dem Mengenüberdeckungsproblem, nur dass hier nicht die kleinste Zahl von Feuerwachen gesucht
wird, deren Einzugsbereich alle Häuser beinhaltet, sondern die kleinste Zahl von Personen, die mit
allen anderen Personen verbunden sind.
396 Bestimmte Arten von kontinuierlichen Optimierungsproblemen können in Polynomialzeit gelöst wer-
den; das bekannteste Beispiel sind die linearen Programmierungsprobleme, bei denen sowohl das zu
optimierende Maß als auch die Beschränkungen der Lösung als lineare Funktion der Variablen aus-
gedrückt werden können. Vgl. Khachiyan, »Polynomial Algorithms in Linear Programming«, sowie
Karmarkar, »A New Polynomial-Time Algorithm for Linear Programming«. Die kontinuierliche Op-
timierung ist kein Allheilmittel: Auch einige Klassen von kontinuierlichen Optimierungsproblemen
sind nicht handhabbar. Vgl. z. B. Pardalos und Schnitger, »Checking Local Optimality in Constrained
Quadratic Programming is NP-hard«.
397 Khot und Regev, »Vertex Cover Might Be Hard to Approximate to Within 2-ε«.
398 Für mehr zu diesen Approximationen vgl. Vazirani, Approximation Algorithms.
399 Die Experten sind sich noch nicht einig darüber, ob die kontinuierliche Relaxation überhaupt die beste
mögliche Approximation für das Problem der Knotenüberdeckung (Einladungen) ermöglicht oder ob
es bessere Approximationen gibt.

383
Anmerkungen

400 Die Braut des Prinzen (The Princess Bride), Drehbuch William Goldman; 20th Century Fox, 1987.
401 Die Bezeichnung Lagrange-Relaxation wurde von Arthur M. Geoffrion von der UCLA in »Lagran­
gian Relaxation for Integer Programming« eingeführt. Das Konzept an sich hat seinen Ursprung nach
allgemeiner Einschätzung in der Arbeit von Michael Held (von IBM) und Richard Karp (von der
University of California in Berkeley) zum Problem des Handelsreisenden im Jahr 1970; vgl. Held
und Karp, »The Traveling-Salesman Problem and Minimum Spanning Trees«, sowie Held und Karp,
»The Traveling-Salesman Problem and Minimum Spanning Trees: Part II«. Es gibt jedoch noch frü-
here Vorläufer, z. B. Lorie und Savage, »Three Problems in Rationing Capital«; Everett, »Generalized
Lagrange Multiplier Method«; sowie Gilmore und Gomory, »A Linear Programming Approach to the
Cutting Stock Problem, Part II«. Für einen umfassenden Überblick und eine Bewertung vgl. Fisher,
»The Lagrangian Relaxation Method for Solving Integer Programming Problems«, sowie Geoffrion,
»Lagrangian Relaxation for Integer Programming«.
402 Persönliches Interview mit Michael Trick, 26. November 2013.
403 Christopher Booker, »What Happens When the Great Fantasies, Like Wind Power or European Uni-
on, Collide with Reality?«, in: The Telegraph, 9. April 2011.
404 Zitiert in: Shasha und Rabin, »An Interview with Michael Rabin«.
405 Für eine eingehende Diskussion von randomisierten Algorithmen vgl. Motwani und Raghavan, Ran-
domized Algorithms, sowie Mitzenmacher und Upfal, Probability and Computing. Für kürzere, aber
ältere Einführungen vgl. Karp, »An Introduction to Randomized Algorithms«, sowie Motwani und
Raghavan, »Randomized Algorithms«.
406 Buffon, »Essai d’arithmétique morale«.
407 Laplace, Théorie analytique des probabilités.
408 Für Ulams Lebensgeschichte vgl. Ulam, Adventures of a Mathematician.
409 Fitzgerald, »The Crack-Up«. Später mit anderen Essays in The Crack-Up gesammelt. (Deutsch als: Der
Knacks.)
410 Ulam, Adventures of a Mathematician, S. 196 f. Die Berechnung der Gewinnchancen bei Klondike
Solitaire ist ein aktives Forschungsgebiet, wobei vor allem Monte-Carlo-Simulationen zum Einsatz
kommen. Ein Beispiel für die aktuelle Forschung auf dem Gebiet ist Bjarnason, Fern und Tadepalli,
»Lower Bounding Klondike Solitaire with Monte-Carlo Planning«.
411 Metropolis beanspruchte die Urheberschaft des Namens in einem Brief für sich, der in Hurd, »Note on
Early Monte Carlo Computations«, erwähnt wird.
412 Shasha und Lazere, Out of Their Minds.
413 Rabins wichtigste Arbeit auf diesem Gebiet, die er gemeinsam mit Dana Scott verfasste, war »Finite
Automata and Their Decision Problems«. Wir sind in der Diskussion der Komplexitätsklasse des Pro-
blems des Handelsreisenden in Kapitel 8 bereits auf einen der Bereiche gestoßen, in denen dieses Kon-
zept grundlegend für die theoretische Informatik wurde; Rabins Notion der »nichtdeterministischen«
Berechnung ist das »N« in NP.
414 Das Zitat stammt aus Hardy, »Prime Numbers«; vgl. auch Hardy, Collected Works. Für mehr zur Be-
deutung der Primzahlen in der Kryptografie vgl. z. B. Schneier, Applied Cryptography.
415 Ein häufig verwendeter Algorithmus, der auf der Multiplikation von Primzahlen beruht, ist RSA; das
Akronym steht für die Initialen seiner Erfinder: Ron Rivest, Adi Shamir und Leonard Adleman. Vgl.
Rivest, Shamir und Adleman, »A Method for Obtaining Digital Signatures and Public-Key Cryptosys-
tems«. Andere Verschlüsselungssysteme – z. B. Diffie-Hellman – verwenden ebenfalls Primzahlen; vgl.
Diffie und Hellman, »New Directions in Cryptography«.

384
Anmerkungen

416 Ob Millers Zugang als Durchbruch zu betrachten ist, hängt davon ab, wie leicht die falschen positiven
Ergebnisse als solche identifiziert werden können. Wie viele Werte muss man für x einsetzen, um sicher
sein zu können, ob n eine Primzahl ist? Miller zeigte, dass die Mindestzahl potenzieller Zeugen, die
gebraucht wurden, O((log n)2) war, sofern die Riemann-Hypothese zutraf – sehr viel weniger als die
für Algorithmen wie das Sieb des Erastothenes benötigten n. Das Problem war, dass die Riemann-Hy-
pothese nicht bewiesen war. (Sie ist es bis heute nicht).
(Die Hypothese, die im Jahr 1859 von dem deutschen Mathematiker Bernhard Riemann aufgestellt
wurde, betrifft die Eigenschaften einer komplexen mathematischen Funktion, die als riemannsche Ze-
tafunktion bezeichnet wird. Diese Funktion hängt eng mit der Verteilung der Primzahlen zusammen,
insbesondere damit, wie regelmäßig diese Zahlen in der Zahlenreihe auftauchen. Wenn die Hypo-
these zutrifft, dann ist das Verhalten der Primzahlen verlässlich genug, um die Effizienz von Millers
Algorithmus zu garantieren. Aber niemand weiß, ob Riemanns Vermutung zutrifft. Tatsächlich zählt
die Riemann-Hypothese zu den sechs großen offenen Problemen der Mathematik, für deren Lösung
das Clay Mathematics Institute einen »Millenniumspreis« von 1 Million Dollar ausgelobt hat. Die in
Kapitel 8 behandelte Frage, ob P = NP ist, zählt ebenfalls zu diesen Problemen.)
417 Rabin erzählt diese Geschichte in Shasha und Lazere, Out of Their Minds.
418 Rabins Artikel über seinen Primzahlentest, »Probabilistic Algorithm for Testing Primality«, erschien
einige Jahre später. Parallel dazu hatten Robert Solovay und Volker Strassen einen ähnlichen probabi-
listischen Algorithmus entwickelt, bei dem die Primzahlen anderen Gleichungen gehorchen müssen.
Allerdings erwies sich dieser Algorithmus als weniger effizient; vgl. Solovay und Strassen, »A Fast Mon-
te-Carlo Test for Primality«.
419 In der Dokumentation von OpenSSL ist »ein probabilistischer Miller-Rabin-Primzahlentest mit […]
einer Zahl von Wiederholungen« spezifiziert, »der eine Quote falscher positiver Identifizierungen von
höchsten 2−80 bei zufälligem Input aufweist«; vgl. https://www.openssl.org/docs/crypto/BN_gene-
rate_prime.html. Im US Federal Information Processing Standard (FIPS) ist spezifiziert, dass der
Digital Signature Standard (DSS) eine Fehlerwahrscheinlichkeit von 2−80 akzeptiert (zumindest für
1024-bit-Schlüssel); vgl. Gallagher und Kerry, Digital Signature Standard. 40 Miller-Rabin-Tests ge-
nügen, um diese Grenze zu erreichen, und in den Neunzigerjahren wurde gezeigt, dass in vielen Fällen
sogar drei Miller-Rabin-Tests genügen werden. Vgl. Damgård, Landrock und Pomerance, »Average
Case Error Estimates for the Strong Probable Prime Test«; Burthe Jr., »Further Investigations with the
Strong Probable Prime Test«; Menezes, Van Oorschot und Vanstone, Handbook of Applied Cryptogra-
phy, sowie die aktuellere Diskussion auf http://security.stackexchange.com/questions/4544/how-ma-
ny-iterations-of-rabin-miller-should-be-used-to-generate-cryptographic-saf.
420 Die Zahl der Sandkörner auf der Erde wird in verschiedenen Quellen auf 1018 bis 1024 geschätzt.
421 Die »Effizienz« wird hier anhand des üblichen Standards gemessen, nämlich der »Polynomialzeit«. Vgl.
Kapitel 8.
422 Agrawal, Kayal und Saxena, »PRIMES Is in P«.
423 Eine der wichtigsten Erkenntnisse zur Rolle der Zufälligkeit in polynomialen Identitätstests wird als
»Schwartz-Zippel-Lemma« bezeit. Vgl. Schwartz, »Fast Probabilistic Algorithms for Verification of
Polynomial Identities«; Zippel, »Probabilistic Algorithms for Sparse Polynomials«; sowie DeMillo und
Lipton, »A Probabilistic Remark on Algebraic Program Testing«.
424 Wird je ein deterministischer Algorithmus für den polynomialen Identitätstest gefunden werden?
Oder ganz allgemein: Muss dort, wo wir einen guten randomisierten Algorithmus finden, ein effizien-
ter deterministischer Algorithmus existieren? Oder gibt es möglicherweise Probleme, die randomisierte
Algorithmen effizient lösen können, deterministische hingegen nicht? Dies ist eine interessante Frage
der theoretischen Informatik, und die Antwort steht noch aus.

385
Anmerkungen

Einer der Ansätze, die gewählt werden, um die Beziehung zwischen randomisierten und deterministi-
schen Algorithmen zu untersuchen, wird als Derandomisierung bezeichnet. Diese Methode besteht im
Grunde darin, randomisierte Algorithmen zu nehmen und ihre Zufälligkeit zu beseitigen. In der Praxis
haben Computer Schwierigkeiten mit wirklicher Zufälligkeit; daher wird bei der Anwendung eines
randomisierten Algorithmus oft ein deterministisches Verfahren angewandt, um Zahlen zu erzeugen,
die bestimmte statistische Eigenschaften wahrer Zufälligkeit aufweisen. Die Derandomisierung macht
dies explizit und untersucht, was geschieht, wenn die Zufälligkeit in randomisierten Algorithmen
durch das Ergebnis eines anderen komplexen Berechnungsvorgangs ersetzt wird.
Das Studium der Derandomisierung zeigt, dass es möglich ist, effiziente randomisierte Algorithmen in
effiziente deterministische Algorithmen umzuwandeln – sofern man eine Funktion finden kann, die
so komplex ist, dass ihr Ergebnis ausreichend komplex und zugleich so einfach ist, dass sie effizient
berechnet werden kann. Für (sehr detaillierte) Einzelheiten vgl. Impagliazzo und Wigderson, »P = BPP
if E Requires Exponential Circuits«, sowie Impagliazzo und Wigderson, »Randomness vs. Time«.
425 Den »Schleier des Nichtwissens« führte Rawls in Eine Theorie der Gerechtigkeit ein.
426 Zu den schärfsten Kritikern von Rawls zählt der Ökonom John Harsanyi; vgl. z. B. Harsanyi, »Can the
Maximin Principle Serve as a Basis for Morality? A Critique of John Rawls’s Theory«.
427 Le Guin, »The Ones Who Walk Away from Omelas«.
428 Für mehr zu dem, was manchmal als »abstoßende Schlussfolgerung« bezeichnet wird, vgl. Parfit, Rea-
sons and Persons, sowie z. B. Arrhenius, »An Impossibility Theorem in Population Axiology«.
429 Aaronson, »Why Philosophers Should Care About Computational Complexity«.
430 Rebecca Lange, »Why So Few Stories?«, Blog GiveDirectly, 12. November 2014, https://www.givedi-
rectly.org/blog-post.html?id=2288694352161893466.
431 John Keats, Brief an George und Thomas Keats, 21. Dezember 1817.
432 John Stuart Mill, Über die Freiheit. Stuttgart: Reclam, 1974, S. 32.
433 Persönliches Interview mit Michael Mitzenmacher, 22. November 2013.
434 »We Knew the Web Was Big …« 25. Juli 2008, http://googleblog.blogspot.com/2008/07/we-knew-
web-was-big.html.
435 Kelvin Tan, »Average Length of a URL (Part 2)«, 16. August 2010, http://www.supermind.org/
blog/740/average-length-of-a-url-part-2.
436 Bloom, »Space/Time Trade-offs in Hash Coding with Allowable Errors«.
437 Google Chrome nutzte zumindest bis 2012 einen Bloom-Filter; vgl. http://blog.alexyakunin.
com/2010/03/nice-bloom-filter-application.html; sowie https://chromiumcodereview.appspot.
com/10896048/.
438 Gavin Andresen, »Core Development Status Report #1«, 1. November 2012, https://bitcoinfounda-
tion.org/2012/11/core-development-status-report-1/.
439 Richard Kenney, »Hydrology; Lachrymation«, in: The One-Strand River: Poems, 1994–2007. New
York: Knopf, 2008.
440 Vgl. Berg-Kirkpatrick und Klein, »Decipherment with a Million Random Restarts«.
441 Dieses auch als Metropolis-Hastings-Algorithmus bezeichnete Verfahren ist beschrieben in Metropolis
u. a., »Equation of State Calculations by Fast Computing Machines«, sowie in Hastings, »Monte Carlo
Methods Using Markov Chains and Their Applications«. Der Algorithmus wurde von Nicholas Met-
ropolis und den beiden Teams Marshall und Arianna Rosenbluth sowie Edward und Augusta Teller in
den Fünfzigerjahren entwickelt. Metropolis wurde in der Arbeit, in der dieser Algorithmus beschrieben
wurde, als erster Autor genannt, weshalb das Verfahren heute seinen Namen trägt, was in doppelter

386
Anmerkungen

Hinsicht ironisch ist: Zum einen trug Metropolis offenbar wenig zur Entwicklung des Algorithmus
bei und wurde als Leiter des Computerlabors nur aus Höflichkeit als Autor genannt (vgl. Rosenbluth,
Marshall Rosenbluth, Interviewed by Kai-Henrik Barth). Zum anderen gab Metropolis selbst den Din-
gen gern illustrative Bezeichnungen: Er behauptete, die chemischen Elemente Technetium und Astat
sowie den MANIAC-Computer und die Monte-Carlo-Methode benannt zu haben (Hurd, »Note on
Early Monte Carlo Computations«).
442 Kirkpatrick, Gelatt und Vecchi, »Optimization by Simulated Annealing«.
443 Persönliches Interview mit Scott Kirkpatrick, 2. September 2014.
444 Kommt Ihnen diese Idee – man sollte zunächst bereit sein, zwischen den Optionen hin- und herzu-
springen, um sich anschließend auf die guten zu konzentrieren – bekannt vor? Nun, es sollte so sein:
Die Optimierung einer komplexen Funktion erfordert eine Auseinandersetzung mit dem Explore/­
Exploit-Tradeoff. Und die Zufälligkeit eignet sich gut als Grundlage für Strategien zur Lösung von
Problemen mit mehrarmigen Banditen und von jener Art von Optimierungsproblemen, mit denen
sich Kirkpatrick beschäftigte.
Sie erinnern sich vielleicht daran, dass uns der mehrarmige Bandit verschiedene Optionen bietet – wir
können verschiedene Hebel bedienen, die unterschiedliche, unbekannte Erträge haben. Die Heraus-
forderung besteht darin, ein Gleichgewicht zwischen dem Experimentieren mit neuen Optionen (Er-
kundung) und der Umsetzung der besten bisher gefundenen Option (Verwertung) zu finden. Am bes-
ten ist es, anfangs optimistischer und neugieriger zu sein und im Lauf der Zeit wählerischer zu werden
und sich auf die Verwertung zu konzentrieren. Eine solche Strategie der schrittweise abnehmenden
Zuversicht bezüglich der Alternativen verspricht das beste Ergebnis, auf das wir hoffen können – wir
akkumulieren langsamer Reue-Häufigkeit, und die gesamte Reue steigt als logarithmische Funktion
der Zeit.
Die Zufälligkeit ist eine Alternative zum Optimismus. Wenn die Aufgabe darin besteht, das richtige
Gleichgewicht zwischen Erkundung und Verwertung zu finden, warum tun wir es dann nicht einfach
explizit? Wir sollten einen Teil unserer Zeit mit der Erkundung und einen Teil mit der Verwertung
verbringen. Und genau diese Strategie bezeichnen die Experten für einarmige Banditen als Epsilon
Greedy.
Wie nicht anders zu erwarten, hat Epsilon Greedy zwei Teile, nämlich Epsilon und Greedy. Epsilon ist
jener kleine Teil der Zeit (die Mathematiker verwenden den Buchstaben ε, um eine kleine Zahl zu be-
zeichnen), in dem wir zufällig zwischen unseren Optionen wählen. Greedy bedeutet, dass wir den Rest
der Zeit damit verbringen, die beste Option zu verwerten, die wir bisher gefunden haben. Wir können
also ins Restaurant gehen und eine Münze werfen (oder einen Würfel rollen lassen, es hängt vom Wert
von ε ab), um zu entscheiden, ob wir eine neue Speise ausprobieren wollen. Wenn uns die Münze (oder
der Würfel) sagt, dass wir es tun sollen, zeigen wir mit geschlossenen Augen auf das Menü. Wenn nicht,
genießen wir unsere bekannte Lieblingsspeise.
Leider mögen die Experten für mehrarmige Banditen Epsilon Greedy nicht besonders. Diese Strategie
scheint ihnen eine Verschwendung zu sein – wir werden garantiert einen Teil unserer Zeit damit ver-
bringen, neue Dinge auszuprobieren, selbst wenn wir die besten Optionen sehr rasch finden. Wenn wir
Epsilon Greedy wählen, wird unsere Reue linear mit der Zahl der Spiele zunehmen. Jedes Mal, wenn
wir essen gehen, besteht die Möglichkeit, dass wir eine Speise auswählen werden, die nicht die beste ist,
weshalb unsere durchschnittliche Reue jedes Mal im selben Maß zunimmt. Dieses lineare Wachstum
ist sehr viel schlimmer als die logarithmische Reue, das von deterministischen Algorithmen auf der
Grundlage eines angemessen kalibrierten Optimismus garantiert wird.
Aber wenn die Einfachheit von Epsilon Greedy verlockend ist, gibt es gute Nachrichten. Es gibt eine
einfache Variante dieses Algorithmus – Epsilon-Over-N Greedy – , die eine logarithmische Reue ga-

387
Anmerkungen

rantiert und in der Praxis gut funktioniert (vgl. Auer, Cesa-Bianchi und Fischer, »Finite-Time Analysis
of the Multiarmed Bandit Problem«). Der Trick besteht darin, die Wahrscheinlichkeit, etwas Neues
auszuprobieren, im Lauf der Zeit zu verringern. Wenn wir das erste Mal eine Wahl treffen, tun wir es
mit einer Wahrscheinlichkeit von 1/1 zufällig (also immer). Wenn diese Option akzeptabel ist, ent-
scheiden wir uns beim zweiten Mal mit einer Wahrscheinlichkeit von 1/2 zufällig (also wie bei einem
Münzwurf: bei »Kopf« wählen wir dieselbe Option, bei »Zahl« versuchen wir etwas Neues). Beim
dritten Restaurantbesuch sollten wir die beste Speise mit einer Wahrscheinlichkeit von 2/3 wählen und
mit einer Wahrscheinlichkeit von 1/3 etwas Neues ausprobieren. Beim Nten Restaurantbesuch wählen
wir unsere Speise mit einer Wahrscheinlichkeit von 1/N zufällig aus und entscheiden uns ansonsten
für die beste bisher entdeckte Option. Indem wir schrittweise die Wahrscheinlichkeit verringern, etwas
Neues auszuprobieren, finden wir ein Gleichgewicht zwischen Erkundung und Verwertung.
Es gibt noch einen weiteren, anspruchsvolleren Algorithmus für das Spiel am mehrarmigen Banditen,
der sich ebenfalls der Zufälligkeit bedient. Er wird als Thompson Sampling bezeichnet und ist nach
William R. Thompson benannt, einem Physiker an der Universität Yale, der im Jahr 1933 erstmals das
Problem untersuchte, wie man zwischen zwei Behandlungsmethoden wählen sollte (Thompson, »On
the Likelihood That One Unknown Probability Exceeds Another«). Thompson schlug eine einfache
Lösung vor: Man sollte anhand der Bayessche Regel die Wahrscheinlichkeit berechnen, dass eine Be-
handlungsmethode die beste ist, und die Methode mit dieser Wahrscheinlichkeit anwenden. Am Anfang
weiß man nichts und wird sich mit derselben Wahrscheinlichkeit für eine der beiden Behandlungs-
methoden entscheiden. Wenn man über mehr Daten verfügt, beginnt man, einer Methode den Vor-
zug zu geben, entscheidet sich jedoch hin und wieder noch für die nicht bevorzugte Behandlung und
kann seine Meinung ändern. Wenn die Gewissheit reift, dass eine Behandlung besser ist, wird man fast
immer diese Methode wählen. Der Thompson-Algorithmus stellt auf elegante Art ein Gleichgewicht
zwischen Erkundung und Verwertung her und garantiert zudem, dass die Reue nur logarithmisch zu-
nehmen wird (vgl. Agrawal und Goyal, »Analysis of Thompson Sampling«).
Der Vorteil des Thompson-Sampling gegenüber anderen Algorithmen für die Lösung von »Multi-­
armed-bandit-Problemen« ist die Flexibilität dieses Verfahrens. Selbst wenn sich die Annahmen über
das Problem ändern – wir haben Information, die besagt, dass eine Option besser ist als die anderen,
die Optionen hängen voneinander ab, die Optionen ändern sich im Lauf der Zeit –, funktioniert
Thomp­sons Strategie, die Optionen mit einer Wahrscheinlichkeit zu wählen, die unserer Einschätzung
ihrer relativen Qualität entspricht. Anstatt gezwungen sein, in jedem Fall einen neuen Algorithmus
abzuleiten, können wir einfach die Bayessche Regel anwenden und die Resultate verwenden. Im wirk-
lichen Leben können diese bayesschen Berechnungen schwierig sein (Thompson selbst füllte mehrere
Seiten mit komplexer Mathematik, um das Problem mit nur zwei Optionen zu lösen). Aber ein Algo-
rithmus, der auf der Suche nach der besten Option Toleranz für ein gewisses Maß an Zufälligkeit mit
einem gewissen Maß an Gewissheit in Einklang bringt, wird uns kaum in die Irre führen.
445 Im maßgeblichen KI-Lehrbuch, Artificial Intelligence: A Modern Approach, wird Simulated Annealing
als eigenes Gebiet bezeichnet, »auf dem mittlerweile jedes Jahr Hunderte Arbeiten veröffentlicht wer-
den« (S. 155).
446 Die Autoren eines 2014 veröffentlichten Artikels sind zu dem faszinierenden Ergebnis gelangt, dass
sich Quallen bei der Futtersuche der simulierten Abkühlung bedienen; vgl. Reynolds, »Signatures of
Active and Passive Optimized Lévy Searching in Jellyfish«.
447 Luria, A Slot Machine, a Broken Test Tube, S. 75. Vgl. auch Garfield, »Recognizing the Role of Chance«.
448 Horace Walpole, Brief an Horace Mann, 28. Januar 1754.
449 James, »Great Men, Great Thoughts, and the Environment«.
450 Campbell, »Blind Variation and Selective Retention«.

388
Anmerkungen

451 Zitiert in: Ebd.


452 Brian Eno, interviewt von Jools Holland, in Later . . . with Jools Holland, Mai 2001.
453 Das Wort ist saudade, und die zitierte Definition stammt aus Bell, In Portugal.
454 Tim Adams, »Dicing with Life«, in: Guardian, 26. August 2000.
455 Cerf und Kahn, »A Protocol for Packet Network Intercommunication«.
456 Martin Cooper, »Inventor of Cell Phone: We Knew Someday Every body Would Have One«, Inter-
view mit Tas Anjarwalla, CNN, 9. Juli 2010.
457 Leonard Kleinrock erzählt diese Geschichte in einem Videointerview, das Charles Severence 2014 mit
ihm führte. Zugänglich unter: »Len Kleinrock: The First Two Packets on the Internet«, https://www.
youtube.com/watch?v=uY7dUJT7OsU.
458 Leon Kleinrock von der UC Los Angeles berichtet: »Wir planten es nicht, aber wir hätten uns keine
bessere Botschaft ausdenken können: kurz und prophetisch«. Wenn man die Farben der Bodenfliesen
in der Boelter Hall der UCLA als binäre 0s und 1s interpretiert und als ASCII-Zeichen schreibt, er-
geben sie den Satz »LO AND BEHOLD!« (Siehe da!) Diese Ehre für dieses Rätsel gebührt dem Archi-
tekten Erik Hagen. Vgl. z. B. Alison Hewitt, »Discover the Coded Message Hidden in Campus Floor
Tiles«, UCLA Newsroom, 3. Juli 2013, http://newsroom.ucla.edu/stories/a-coded-message-hidden-in-
floor-247232.
459 Leonard Kleinrock, »Computing Conversations: Len Kleinrock on the Theory of Packets«, Interview
mit Charles Severance, 2013. Vgl. https://www.youtube.com/watch?v=qsgrtrwydjw, sowie http://
www.computer.org/csdl/mags/co/2013/08/mco2013080006.html.
460 Jacobson, »A New Way to Look at Networking«.
461 Kleinrock, »Computing Conversations«.
462 Den Begriff »packet switching« prägte Donald W. Davies vom National Physical Laboratory, der eben-
falls wichtige Beiträge zur Erforschung der Paketvermittlung leistete.
463 Persönliches Interview mit Stuart Cheshire, 26. Februar 2015.
464 Baran, »On Distributed Communications«.
465 Für mehr Details und eine allgemeine Darstellung der Geschichte der Vernetzung (einschließlich ihrer
gegenwärtigen Probleme) vgl. Jacobson, »A New Way to Look at Networking«.
466 Vgl. Waitzman, A Standard for the Transmission of IP Datagrams on Avian Carriers, Waitzman, IP Over
Avian Carriers with Quality of Service, sowie Carpenter und Hinden, Adaptation of RFC 1149 for IPv6
für Erklärungen des Vogelprotokolls, und vgl. http://www.blug.linux.no/rfc1149 für Details zur tat-
sächlichen Umsetzung im norwegischen Bergen am 28. April 2001.
467 Cerf und Kahn, »A Protocol for Packet Network Intercommunication«.
468 Lamport, Shostak und Pease, »The Byzantine Generals Problem«.
469 Das hier beschriebene Verfahren wird als »Fast Retransmit« bezeichnet.
470 Jon Brodkin, »Netflix takes up 9.5 % of upstream traffic on the North American Internet: ACK packets
make Netflix an upload monster during peak viewing hours«, Ars Technica, November 20, 2014. Brod-
kin seinerseits beruft sich auf Daten aus Sandvines Global Internet Phenomena Report, https://www.
sandvine.com/trends/global-internet-phenomena/.
471 Tyler Treat, »You Cannot Have Exactly-Once Delivery«, Brave New Geek: Introspections of a soft ware
engineer, 25. März 2015, http://bravenewgeek.com/you-cannot-have-exactly-once-delivery/.
472 Vint Cerf im Interview mit Charles Severance, »Computing Conversations: Vint Cerf on the History
of Packets«, 2012.

389
Anmerkungen

473 Ebd.
474 Oliver Conway, »Congo Word ›Most Untranslatable‹«, in: BBC News, 22. Juni 2004.
475 Thomas H. Palmer, Teacher’s Manual (1840), belegt in The Oxford Dictionary of Proverbs, 2009.
476 Abramson, »The ALOHA System«.
477 Ebd. Tatsächlich ist der Wert genau die Hälfte des Werts von oder »37 Prozent mit dem wir uns
in Zusammenhang mit dem optimalen Stoppen (Kapitel 1) beschäftigt haben.
478 Jacobson, »Congestion Avoidance and Control«.
479 Für eine Bewertung des HOPE-Programms vgl. Hawken zu Kleiman, Managing Drug Involved Proba-
tioners.
480 Für mehr Information vgl. z. B. »A New Probation Program in Hawaii Beats the Statistics«, in: PBS
NewsHour, 2. Februar 2014.
481 Jacobson, »Congestion Avoidance and Control«.
482 Jacobson, »Van Jacobson: The Slow-Start Algorithm«, Interview mit Charles Severance (2012), https://
www.youtube.com/watch?v=QP4A6L7CEqA.
483 Dieses anfängliche Verfahren – vorsichtige Übermittlung von einem Paket, gefolgt von einer Beschleu-
nigung auf das Doppelte – wird als Slow Start bezeichnet. Die Bezeichnung ist nicht ganz zutreffend:
Slow Start ist »langsam«, weil er mit einem einzelndn Paket beginnt, aber das anschließende exponen-
tielle Wachstum ist alles andere als langsam.
484 Vgl. z. B. Gordon, »Control without Hierarchy«.
485 Für die Forschung, in der ein Zusammenhang zwischen der Nahrungssuche von Ameisen und
Flow-Control-Algorithmen wie Slow Start hergestellt wird, vgl. Prabhakar, Dektar und Gordon, »The
Regulation of Ant Colony Foraging Activity without Spatial Information«.
486 Peter und Hull, Das Peter-Prinzip.
487 Dieser vielzitierte Aphorismus liest sich im spanischen Original so: »Todos los empleados públicos debe-
rían descender a su grado inmediato inferior, porque han sido ascendidos hasta volverse incompetentes.«
488 Das Cravath-System ist auf der Website der Firma dokumentiert: http://www.cravath.com/cravathsys-
tem/. Die »Rauf oder raus«-Komponente des Systems wird dort nicht explizit behandelt, wird jedoch
andernorts beschrieben, z. B. von der amerikanischen Anwaltskammer (American Bar Association): »In
den Zwanzigerjahren war Cravath, Swaine & Moore nachweislich die erste Anwaltsfirma, die begann,
Anwälte an den Universitäten anzuwerben, und zwar mit dem ausdrücklichen Übereinkommen, dass
es viele dieser jungen Anwälte nicht schaffen würden, als Partner in die Firma aufgenommen zu wer-
den. Es wurde davon ausgegangen, dass jene Mitarbeiter, denen keine Partnerschaft angeboten würde,
die Firma wieder verlassen würden. Hingegen durften jene, die als Jahrgangsbeste eingestuft wurden,
die gestellten Aufgaben bewältigten und über den erforderlichen Zeitraum hinweg Leistung brachten,
damit rechnen, zu Teilhabern gemacht zu werden, Gehaltserhöhungen zu bekommen und ihr Leben
lang in der Firma zu bleiben.« (Janet Ellen Raasch, »Making Partner – or Not: Is It In, Up or Over in
the Twenty-First Century?«, in: Law Practice 33, 4, Juni 2007.)
489 Vgl. z. B. Rostker u. a., Defense Officer Personnel Management Act of 1980.
490 Vgl. z. B. Michael Smith, »Army Corporals Forced Out ›to Save Pension Cash‹«, in: The Telegraph, 29.
Juli 2002.
491 Wie Bavelas, Coates und Johnson, »Listeners as Co- Narrators«, schreiben: »Der Zuhörer spielt in
den meisten Theorien bestenfalls eine untergeordnete Rolle. Im Extremfall wir er als inexistent oder
irrelevant betrachtet; entweder erwähnt ihn die Theorie nicht oder sie behandelt ihn als peripher. Diese

390
Anmerkungen

Auslassung dürfte teilweise auf die implizite Verwendung geschriebener Texte als Prototyp für jeden
Sprachgebrauch zurückzuführen sein.«
492 Yngve, »On Getting a Word in Edgewise«.
493 Bavelas, Coates und Johnson, »Listeners as Co- Narrators«.
494 Tolins und Fox Tree, »Addressee Backchannels Steer Narrative Development«.
495 Jackson Tolins, persönliche Korrespondenz, 15. Januar 2015.
496 Nichols und Jacobson, »Controlling Queue Delay«.
497 Das heißt HTTP 1.1, beschrieben im Dokument RFC 2616 (Juni 1999), zugänglich unter: http://
tools.ietf.org/html/rfc2616.
498 Jim Gettys, »Bufferbloat: Dark Buffers in the Internet«, Google Tech Talk, 26. April 2011.
499 Dieser oft zitierte Satz wird Isaac Asimov zugeschrieben, aber in Wahrheit ist seine Herkunft ungeklärt.
Anscheinend tauchte er erstmals – samt Verweis auf Asimow – im UNIX-Programm »Fortune« auf,
das Zitate und Redensarten als Glückskekse darstellt. Vgl. http://quoteinvestigator.com/2015/03/02/
eureka-funny/. Asimov schrieb tatsächlich einen Essay über das »Heureka-Phänomen«, in dem dieser
Satz jedoch nicht vorkommt.
500 Vgl. Nichols und Jacobson, »Controlling Queue Delay«.
501 Das US Census Bureau schätzte die Bevölkerung Kaliforniens im Jahr 2015 auf 39 144 818 Menschen.
Vgl. http://www.census.gov/popest/data/state/totals/2015/index.html.
502 Ray Tomlinson im Interview mit Jesse Hicks, »Ray Tomlinson, the Inventor of Email: ›I See Email
Being Used, by and Large, Exactly the Way I Envisioned‹«, in: Verge, 2. Mai 2012, http://www.thever-
ge.com/2012/5/2/2991486/ray-tomlinson-email-inventor-interview-i-see-email-being-used.
503 Einen solchen Zugang wählte zum Beispiel der Kognitionsforscher Tom Stafford von der Universität
Sheffield. In seinem Sabbatjahr 2015 lautete die Botschaft in seiner automatischen E-Mail-Antwort:
»Ich bin bis zum 12. Juni im Forschungsjahr. An t.staford@shef.ac.uk geschickte Email wurde ge-
löscht.«
504 Das RFC-Dokument (Request for Comments) für ECN ist Ramakrishnan, Floyd und Black, The
Addition of Explicit Congestion Notification (ECN) to IP, eine überarbeitete Version von Ramakrishnan
und Floyd, A Proposal to Add Explicit Congestion Notification (ECN) to IP. Obwohl der ursprüngliche
Vorschlag aus den Neunzigerjahren stammt, wurde ECN bis heute nicht in der standardmäßigen Netz-
werkausrüstung implementiert (Persönliches Interview mit Stuart Cheshire, 26. Februar 2015).
505 Persönliches Interview mit Jim Gettys, 15. Juli 2014.
506 Das Zitat stammt aus Cheshires berühmter »Tirade« aus dem Jahr 1996: »It’s the Latency, Stupid«.
Vgl. http://rescomp.stanford.edu/~cheshire/rants/Latency.html. Zwanzig Jahre später ist seine Ein-
schätzung zutreffender denn je.
507 Steve Jobs im Interview mit Gary Wolf, in: Wired, Februar 1996.
508 Die Braut des Prinzen, Drehbuch: William Goldman; 20th Century Fox, 1987.
509 Das Zitat wird Keynes zugeschrieben in Gregory Bergman, Isms, Adams Media, 2006.
510 John M. Keynes, Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes, 8. Aufl., Berlin: Dun-
cker & Humblot, 2000, S. 131f.
511 Persönliches Interview mit Dan Smith, 11. September 2014.
512 Das Spiel fand im Rahmen der »Full Tilt Poker Durrrr Million Dollar Challenge« (17.–19. November
2009) im Les Ambassadeurs Club in London statt und wurde von Sky Sports übertragen.

391
Anmerkungen

513 Vanessa Rousso, »Leveling Wars«, https://www.youtube.com/watch?v=Yt5ALnFrwR4.


514 Persönliches Interview mit Dan Smith, 11. September 2014.
515 Das spieltheoretische Konzept des Gleichgewichts – und damit die Spieltheorie selbst – formulierten
John von Neumann und Oskar Morgenstern in Theory of Games and Economic Behavior.
516 Für eine anschauliche Darstellung von Schere-Stein-Papier-Turnieren einschließlich eines Glossars
der verschiedenen »Eröffnungen« des Spiels – z. B. »Lawine« (Schere-Schere-Schere), »Bürokrat« (Pa-
pier-Papier-Papier) und »Handvoll Dollar« (Schere-Papier-Papier) – empfehlen wir http://worldrps.
com. Für eine Einführung in SSP-Computerspiele vgl. die Rock Paper Scissors Programming Competi-
tion: http://www.rpscontest.com.
517 Eine Strategie wie diese, die Zufälligkeit beinhaltet, wird als »gemischte« Strategie bezeichnet. Die
Alternative ist eine »reine« Strategie, die darin besteht, immer genau dieselbe Option zu wählen – was
bei Schere-Stein-Papier offensichtlich nicht lange gutgehen würde. Gemischte Strategien sind in vielen
Spielen Teil des Gleichgewichts, zum Beispiel in »Nullsummenspielen«, bei denen die Gewinne und
Verluste der Spieler einander gegenseitig aufheben.
518 Nash, »Equilibrium Points in N-Person Games«; Nash, »Non- Cooperative Games«.
519 Um es genau zu sagen, bewies Nash, dass es in jedem Spiel mit einer endlichen Zahl von Spielern und
einer endlichen Zahl von Strategien bei gemischten Strategien zumindest ein Gleichgewicht gibt.
520 Myerson, »Nash Equilibrium and the History of Economic Theory«.
521 Papadimitriou, »Foreword«.
522 Tim Roughgarden, »Algorithmic Game Theory, Lecture 1 (Introduction)«, Herbst 2013, https://www.
youtube.com/watch?v=TM QFmQUVA.
523 Gilboa und Zemel, »Nash and Correlated Equilibria«.
524 Genau gesagt stellte sich heraus, dass die Nash-Gleichgewichte zu einer Problemklasse gehören, die
als PPAD bezeichnet werden. Die Probleme in dieser Komplexitätsklasse werden (wie NP) allgemein
als schwer handhabbar betrachtet. Den Zusammenhang zwischen Nash-Gleichgewichten und PPAD
stellten Daskalakis, Goldberg und Papadimitriou, »The Complexity of Computing a Nash Equilib-
rium«, sowie Goldberg und Papadimitriou, »Reducibility Between Equilibrium Problems«, her; Chen
und Deng, »Settling the Complexity of Two-Player Nash Equilibrium«, weiteten die Erkenntnisse
auf Spiele mit zwei Spielern aus; und Daskalakis, Goldberg und Papadimitriou, »The Complexity
of Computing a Nash Equilibrium« verallgemeinerten sie weiter. PPAD steht für »Polynomial Parity
Arguments on Directed graphs« (Polynomiale Paritätsargumente für gerichtete Graphen); Papadimit-
riou, der diese Klasse in »On Complexity as Bounded Rationality« benannte, besteht darauf, dass jede
Ähnlichkeit mit seinem Namen zufällig ist. (Persönliches Interview mit Christos Papadimitriou, 4.
September 2014.)
Die Komplexitätsklasse PPAD beinhaltet noch weitere interessante Probleme, darunter zum Beispiel
das Schinken-Sandwich-Problem: Kann man bei n Mengen von 2n Punkten in n Dimensionen eine
Ebene finden, die jede Menge von Punkten genau in der Hälfte teilt? (Wenn n = 3, so muss der Weg
gefunden werden, dem ein Messer folgen müsste, um drei Mengen von Punkten in der Hälfte zu
teilen; wenn diese Mengen von Punkten zwei Scheiben Brot und einer Scheibe Schinken entsprechen,
ist das Resultat ein exakt in der Hälfte geteiltes Sandwich.) Das Finden von Nash-Gleichgewichten
ist tatsächlich PPAD-vollständig, was bedeutet, dass dann, wenn es einen effizienten Algorithmus
für seine Lösung gäbe, alle anderen Probleme in dieser Komplexitätsklasse ebenfalls effizient gelöst
werden könnten (darunter jenes, die vollkommensten Sandwiches der Welt zu schneiden). Aber die
PPAD-Vollständigkeit ist nicht ganz so schlimm wie die NP-Vollständigkeit. P, die Klasse der effizient
lösbaren Probleme, könnte PPAD entsprechen, ohne NP zu entsprechen. Ein endgültiges Urteil darü-

392
Anmerkungen

ber steht noch aus: Es ist theoretisch möglich, dass jemand einen effizienten Algorithmus zur Bestim-
mung von Nash-Gleichgewichten entwickelt, aber die meisten Experten halten es nicht für möglich.
525 Christos Papadimitriou, »The Complexity of Finding Nash Equilibria«, in: Nisan u. a., Algorithmic
Game Theory.
526 Aaronson, »Why Philosophers Should Care About Computational Complexity«.
527 Christos Papadimitriou, »The Complexity of Finding Nash Equilibria«, in: Nisan u. a., Algorithmic
Game Theory, S. 30.
528 Das Gefangenendilemma geht auf Merrill Flood (der durch das Sekretärinnenproblem und das Pro­
blem des Handelsreisenden berühmt wurde) und Melvin Drescher von der RAND Corporation zu-
rück. Im Januar 1950 organisierten sie ein Spiel zwischen Armen Alchian von der University of Cali-
fornia in Los Angeles und John D. Williams von der RAND Corporation, in dem die Belohnungen
ähnlich waren wie im Gefangenendilemma (Flood, »Some Experimental Games«). Albert Tucker von
der Universität Princeton war fasziniert von diesem Experiment und siedelte es für einen Vortrag in
Stanford im Mai jenes Jahres im Gefängnis an und gab ihm den heute gebräuchlichen Namen. Eine
genaue Beschreibung der Ursprünge der Spieltheorie und ihrer Entwicklung in der RAND Corpora-
tion findet man bei Poundstone, Prisoner’s Dilemma.
529 Roughgarden und Tardos, »How Bad Is Selfish Routing?«. Roughgarden befasste sich auch in seiner
Doktorarbeit (2002) an der Cornell University mit der Frage des »Selfish routing«.
530 Cabell, The Silver Stallion.
531 Hardin, »The Tragedy of the Commons«.
532 Persönliches Interview mit Avrim Blum, 17. Dezember 2014.
533 Scott K. Johnson, »Stable Climate Demands Most Fossil Fuels Stay in the Ground, but Whose?«, in:
Ars Technica, 8. Januar 2015.
534 »In Search of Lost Time«, in: Economist, 20. Dezember 2014.
535 Die Studie wurde von Glassdoor durchgeführt. Vgl. ebd.
536 Mathias Meyer, »From Open (Unlimited) to Minimum Vacation Policy«, 10. Dezember 2014, http://
www.paperplanes.de/2014/12/10/from-open-to-minimum-vacation-policy.html.
537 Nicole Massabrook, »Stores Open on Thanksgiving 2014: Walmart, Target, Best Buy and Other Store
Hours on Turkey Day«, in: International Business Times, 26. November 2014.
538 Ice-T, »Don’t Hate the Playa«, The Seventh Deadly Sin, 1999.
539 Der Pate, Drehbuch: Mario Puzo und Francis Ford Coppola, Paramount Pictures, 1972.
540 Dieses Zitat taucht in mehreren Quellen auf, darunter Binmore, Natural Justice, sowie Binmore, Game
Theory. Kants »kategorischer Imperativ« hat seinen Ursprung in Grundlegung zur Metaphysik der Sitten
(1785) und wird in Kritik der praktischen Vernunft (1788) ausgearbeitet.
541 Libin erklärt die Beweggründe für die Einführung dieser Prämie unter anderem in einem Interview mit
Adam Bryant, »The Phones Are Out, but the Robot Is In«, in: New York Times, 7. April 2012.
542 Im Finanzsektor ist der verpflichtende Urlaub bereits üblich, wenn auch weniger aus Fürsorglichkeit
gegenüber den Beschäftigten, sondern als Mittel zur Betrugsbekämpfung. Für mehr über verpflichten-
den Urlaub und Betrug vgl. z. B. Philip Delves Broughton, »Take Those Two Weeks Off – or Else«, in:
Wall Street Journal, 28. August 2012.
543 Rebecca Ray, Milla Sanes und John Schmitt, »No-Vacation Nation Revisited«, Center for Economic
Policy and Research, Mai 2013, http://www.cepr.net/index.php/publications/reports/no-vacation-na-
tion-2013.

393
Anmerkungen

544 Der Autor ist Donald E. Knuth.


545 Smith, Theorie der ethischen Gefühle, S. 5.
546 Wie es in Pascal, Pensées sur la religion et sur quelques autres sujets, §277 heißt: »Le coeur a ses raisons, que
la raison ne connaît point.«
547 Dawkins, Die Schöpfungslüge, S. 424.
548 Ingram u. a., »Mice Infected with Low-Virulence Strains of Toxoplasma Gondii«.
549 Nietzsche, Die fröhliche Wissenschaft 116, https://www.textlog.de/21275.html.
550 Frank, Passions within Reason.
551 Ebd.
552 Persönliches Interview mit Robert Frank, 13. April 2015. Dieses Argument erläutert Frank in »If
Homo Economicus Could Choose«, wobei er einräumt, dass er auf Arbeiten wie Schelling, The Stra-
tegy of Conflict, Schelling, »Altruism, Meanness, and Other Potentially Strategic Behaviors«, Akerlof,
»Loyalty Filters«, Hirshleifer, »On the Emotions as Guarantors of Threats and Promises«, Sen, »Goals,
Commitment, and Identity«, und Gauthier, Morals by Agreement aufbaut. Für eine ausführliche Aus-
einandersetzung mit diesen Konzepten vgl. Frank, Passions within Reason.
553 Shaw, Mensch und Übermensch. Zürich: Artemis, 1946.
554 Aus Googles Aktionärsbericht geht hervor, dass sich die Werbeeinnahmen des Unternehmens im Jahr
2014 auf 59,6 Milliarden US-Dollar beliefen, was rund 90,3 Prozent der Gesamteinnahmen von
66 Milliarden US-Dollar entsprach. Vgl. https://investor.google.com/financial/tables.html.
555 Bei der AWS-3-Auktion, die am 29. Januar 2015 geschlossen wurde, gaben die siegreichen Bieter
Gebote über insgesamt 44,90 Milliarden US-Dollar ab. Vgl. http://wireless.fcc.gov/auctions/default.
htm?job=auction_factsheet&id=97.
556 Die Gleichgewichtsstrategie bei einer Erstpreisauktion mit zwei Bietern besteht darin, genau die Hälfte
des Werts zu bieten, den das Objekt in unseren Augen hat. Allgemein sollten wir in diesem Auktions-
format mit n Teilnehmern genau des Betrags bieten, den das Objekt in unseren Augen wert ist.
Zu beachten ist, dass diese Strategie das Nash-Gleichgewicht, aber keine dominante Strategie ist; das
bedeutet, dass keine Strategie besser ist, wenn alle anderen dasselbe tun, aber sie ist nicht zwangsläufig
unter allen Umständen optimal. Keine Gewähr. Wenn wir die Zahl der an der Auktion teilnehmen-
den Bieter nicht kennen, wird die optimale Strategie auch rasch kompliziert; vgl. z. B. An, Hu und
Shum, »Estimating First-Price Auctions with an Unknown Number of Bidders: A Misclassification
Approach«. Tatsächlich setzen sogar die scheinbar klaren Resultate – – einige starke Annahmen
voraus, nämlich die, dass die Bieter nicht »risikoneutral« sind und dass die verschiedenen Bewertungen
des Auktionsgegenstands gleichmäßig über eine gegebene Bandbreite verteilt sind. Das Resultat
stammt aus Vickrey, »Counterspeculation, Auctions, and Competitive Sealed Tenders«, der uns warnt:
»Wenn wir nicht von homogenen Geboten ausgehen, wird eine vollständige Berechnung schwer hand-
habbar.«
557 Für genauere Informationen über die Blumenauktion in Aalsmeer vgl. http://www.floraholland.com/
en/about-floraholland/visit-the-flower-auction/.
558 Manchmal handelt es sich um buchstäbliche Klippen. Beispielsweise berichtete die New York Times
über den Tod mehrerer erfahrener Tiefschneefahrer in Washington State. Die Berichte der Überleben-
den zeigen, dass eine Gruppe ausgezeichneter Skifahrer etwas tat, was fast allen individuellen Mitglie-
dern der Gruppe nicht gefiel.
»Hätte ich selbst entscheiden können, wäre ich nie mit zwölf Personen zu einer solchen Tour aufgebro-
chen«, erklärte einer der Überlebenden. »Das sind einfach zu viele. Aber das war eben die Gruppen-

394
Anmerkungen

dynamik – ich wollte nicht derjenige sein, der sagte: ›He, diese Gruppe ist zu groß, wir sollten das nicht
tun.‹«
Ein anderer sagte sich: »Wie sollte diese Gruppe in ihrer Gesamtheit eine dumme Entscheidung fällen?
Natürlich ist es in Ordnung, wenn wir alle mitmachen. Es wird schon klappen.«
Ein drittes Mitglied der Gruppe sagte: »In meinem Kopf schrillten die Alarmglocken, ich wollte ihnen
Einhalt gebieten.«
Ein anderer Teilnehmer erinnerte sich: »Ich dachte: Meine Güte, das ist ein gefährlicher Ort. Es ist
gefährlich, mit so vielen Leuten in einem solchen Gelände zu fahren. Aber ich sagte nichts. Ich wollte
nicht der Spielverderber sein.«
Der Berichterstatter der Times fasste zusammen: »Alle Mitglieder der Gruppe glaubten zu wissen, was
die anderen dachten. Sie wussten es nicht. Vgl. Branch, »Snow Fall«.
559 Bikhchandani, Hirshleifer und Welch, »A Theory of Fads«. Vgl. auch Bikhchandani, Hirshleifer und
Welch, »Learning from the Behavior of Others«.
560 Persönliches Interview mit David Hirshleifer, 27. August 2014.
561 Der Preis dieses Buchs bei Amazon fiel dem Biologen Michael Eisen von der Universität Berkeley auf;
vgl. »Amazon’s $23,698,655.93 book about flies« in Eisens Blog It is NOT junk, 23. April 2011, http://
www.michaeleisen.org/blog/?p=358.
562 Vgl. z. B. die Analyse des Ökonomen Rajiv Sethi von der Columbia University auf den Flashcrash:
Sethi, »Algorithmic Trading and Price Volatility«.
563 Das können wir auch in Mechanismus-Design und Evolution einordnen. Im Durchschnitt ist es für
jedes Individuum besser, ein angepasstes Herdentier zu sein, aber alle Mitglieder der Herde profitieren
davon, wenn einzelne Mitglieder eigensinnige Außenseiter sind. Daher kann übermäßiges Selbstver-
trauen als eine Form von Altruismus betrachtet werden. Für mehr zum »sozial optimalen Anteil« sol-
cher Gruppenmitglieder vgl. Bernardo und Welch, »On the Evolution of Overconfidence and Entre­
preneurs«.
564 Der Ausdruck »algorithmischer Mechanismus-Design« wurde von Nisan und Ronen, »Algorithmic
Mechanism Design«, in die technische Literatur eingeführt.
565 Vgl. Vickrey, »Counterspeculation, Auctions, and Competitive Sealed Tenders«.
566 »Strategiesichere« Spiele werden auch als »anreizkompatibel« bezeichnet; vgl. Noam Nisan, »Introduc-
tion to Mechanism Design (for Computer Scientists)«, in: Nisan u. a. (Hg.), Algorithmic Game Theory.
567 Unter spieltheoretischen Gesichtspunkten ermöglicht die Zweitpreisauktion eine »anreizkompatible
dominante Strategie« (sie ist dominant-strategy incentive-compatible, DSIC). Und ein wichtiges Ergeb-
nis in der algorithmischen Spieltheorie, das als »Myerson-Lemma« bezeichnet wird, besagt, dass nur
ein DSIC-Bezahlmechanismus möglich ist. Das bedeutet, dass die Vickrey-Auktion nicht einfach eine
Methode ist, um strategisches, rekursives oder unaufrichtiges Verhalten zu vermeiden, sondern sie ist
die einzige Methode. Vgl. Myerson, »Optimal Auction Design«.
568 Das Erlös-Äquivalenz-Theorem wurde von Vickrey, »Counterspeculation, Auctions, and Competitive
Sealed Tenders« eingeführt und von Myerson, »Optimal Auction Design«, sowie Riley und Samuelson,
»Optimal Auctions«, verallgemeinert.
569 Tim Roughgarden, »Algorithmic Game Theory, Lecture 3 (Myerson’s Lemma)«, veröffentlicht am
2. Oktober 2013, https://www.youtube.com/watch?v=9qZwchMuslk.
570 Persönliches Interview mit Noam Nisan, 13. April 2015.
571 Persönliches Interview mit Paul Milgrom, 21. April 2015.
572 Sartre, Geschlossene Gesellschaft.

395
Anmerkungen

573 Flood, »What Future Is There for Intelligent Machines?«


574 Russell, »The Elements of Ethics«.
575 Vgl. z. B. Baltzly, »Stoicism«.
576 Zufällig ist es auch der Unterschied zwischen P und NP. Für eine reizvolle philosophische Ausein-
andersetzung mit diesen Fragen vgl. Aaronson, »Reasons to Believe«, sowie Wigderson, »Knowledge,
Creativity, and P versus NP«.
577 Solche Szenarien werden manchmal als »Abilene-Paradox« bezeichnet; vgl. Harvey, »The Abilene Para-
dox«.
578 Darauf weist auch Tim Ferriss hin, der schreibt: »Fragen Sie nicht mehr nach der Meinung anderer
und fangen Sie an, Lösungen vorzuschlagen. Beginnen Sie mit kleinen Dingen. Wenn jemand fragt:
›In welches Restaurant wollen wir gehen?‹, ›Welchen Film wollen wir sehen?‹, ›Was wollen wir heute
Abend machen?‹ oder irgendetwas in der Art, dann fragen Sie nicht zurück: ›Tja, was würdest du/
würden sie denn vorschlagen …?‹ Bieten Sie eine Lösung an. Machen Sie Schluss mit dem Hin und Her
und treffen Sie eine Entscheidung.« Ferriss, Die 4-Stunden-Woche, S. 102.
579 Im Idealfall möchte man wissen, welchen Wert die einzelnen Mitglieder der Gruppe allen Optionen
beimessen, und ausgehend davon einen vernünftigen Weg zu einer Entscheidung wählen. Ein mög-
licher Zugang besteht darin, einfach die Option auszuwählen, die das Produkt der von den Gruppen-
mitgliedern zugewiesenen Werte maximiert – wobei auch jeder Beteiligte sein Veto gegen eine Option
einlegen kann, indem er ihr den Wert 0 zuweist. Es gibt volkswirtschaftliche Erkenntnisse, die darauf
hindeuten, dass dies eine gute Strategie ist, beginnend mit denen von John Nash. Vgl. Nash, »The
Bargaining Problem«.
580 Shallit, »What This Country Needs Is an 18¢ Piece«.
581 Lueker, »Two NP-Complete Problems in Nonnegative Integer Programming«, hat gezeigt, dass es
unter bestimmten Annahmen NP-schwer ist, die geringste Zahl von Münzen für das Wechselgeld zu
finden. Das gilt, wenn die Münzen binär oder in den vertrauten Dezimalen denominiert sind, nicht
jedoch, wenn sie unär denominiert sind; in diesem Fall gibt es eine effiziente Lösung. Vgl. Wright,
»The Change-Making Problem«. Für mehr zur Komplexität der Berechnung von Wechselgeld vgl.
Kozen und Zaks, »Optimal Bounds for the Change-Making Problem«.
582 Cassady und Kobza, »A Probabilistic Approach to Evaluate Strategies for Selecting a Parking Space«,
vergleichen die Algorithmen »Pick a Row, Closest Space« (PRCS, »Wähle eine Reihe, nächster Stell-
platz«) und »Cycling« (CYC, »Kreisen«) für die Parkplatzsuche. Der kompliziertere CYC-Algorithmus
beinhaltet eine Regel für das optimale Stoppen, während PRCS beim Bestimmungsort beginnt, sich
von ihm entfernt und einfach den ersten freien Platz wählt. Anhand des aggressiveren CYC-Verfahrens
findet man im Durchschnitt bessere Stellplätze, aber der einfachere PRCS-Algorithmus ist gemessen
am Zeitaufwand besser. Autofahrer, die das CYC-Verfahren anwenden, verbringen mit der Suche nach
besseren Parklücken mehr Zeit als sie an Gehzeit zum Ziel einsparen. Die Autoren merken an, dass
die Forschung auf diesem Gebiet für die Gestaltung von Parkplätzen nützlich sein könnte. Für Be-
rechnungsmodelle für die Parkplatzsuche vgl. z. B. Benenson, Martensu Birfir, »PARKAGENT«: An
Agent-Based Model of Parking in the City«.
583 Für eine genauere Auseinandersetzung mit diesem Thema vgl. z.b. Boguslavsky u. a., »Optimal Strate-
gies for Spinning and Blocking«. (Dies ist derselbe Leonid Boguslavsky, dem wir in Kapitel 1 bei einem
Wasserskiausflug begegnet sind.)

396
336 Seiten
22,00 € (D) | 22,70 € (A)
ISBN 978-3-7423-0860-3

Toby Walsh Bis zum Jahr 2062 werden wir Maschinen entwi-
2062 ckelt haben, die so intelligent sind wie wir, prog-
nostiziert Toby Walsh, einer der weltweit führenden
Das Jahr, in dem die Wissenschaftler auf dem Feld der künstlichen Intel-
künstliche Intelligenz uns ligenz. In seinem Buch macht er deutlich, welche
ebenbürtig sein wird Auswirkungen dieser Wendepunkt auf unser Leben,
unsere Arbeit, aber auch die Gesellschaft insgesamt
und die Politik haben wird. Werden Roboter ein
Bewusstsein entwickeln? Werden wir am Ende gar
selbst zu Maschinen werden? Und wie werden wir
in Zukunft Kriege führen? Dieses Buch beantwor-
tet einige der drängendsten Fragen, mit denen wir
bereits heute konfrontiert sind. Es zeigt auf, welche
Entscheidungen wir heute treffen müssen, damit
das Leben auch in Zukunft ein positives für uns
Menschen bleibt.
256 Seiten
19,99 € (D) | 20,60 € (A)
ISBN 978-3-7423-0718-7

Armin Grunwald Alle reden von Digitalisierung. Wunderbare Zu-


Der unterlegene kunftsperspektiven werden entworfen. Komfort
und Wohlstand, mehr Gesundheit und möglicher-
Mensch weise die digitale Unsterblichkeit warten auf uns.
Die Zukunft der Menschheit Diese neuen Annehmlichkeiten sind aber nur die
im Angesicht von eine Seite der Medaille. Zunehmende Abhängigkeit
Algorithmen, künstlicher von digitalen Technologien, das Risiko totaler Über-
wachung, massenweise Übernahme menschlicher
Intelligenz und Robotern
Arbeitsplätze durch Roboter, die Manipulation öf-
fentlicher Meinung, der drohende Kontrollverlust
des Menschen über die Technik – diese andere Sei-
te zeigt bedrohliche Züge. In diesem Buch entwirft
der Physiker, Philosoph sowie Deutschlands führen-
der Technikfolgenabschätzer Armin Grunwald ein
kritisches Bild der Welt von morgen und zeigt auf,
womit wir zu rechnen haben, wenn wir die Digita-
lisierung nicht bewusst gestalten und uns selbst
komplett ersetzbar machen.
Interesse an
Wenn Sie
unseren Büchern haben,
z. B. als Geschenk für Ihre Kundenbindungsprojekte,

fordern Sie unsere attraktiven Sonderkonditionen an.

Weitere Informationen erhalten Sie bei unserem

Vertriebsteam unter +49 89 651285-154

oder schreiben Sie uns per E-Mail an:

vertrieb@rivaverlag.de

Das könnte Ihnen auch gefallen