Sie sind auf Seite 1von 3

Prognose-Dystopie

Demokratie als Risikofaktor


Von Adrian Lobe, SZ 18.12.2019

Die jüngsten Fortschritte haben es für Regierungsbehörden möglich gemacht, Probleme zu


antizipieren und vorherzusagen, anstatt auf sie zu reagieren: unter anderem
durchGesichtserkennung

• Neue Techniken sollen künftig politische Probleme vorhersagen und selbstständig Lösungen
entwickeln. Regieren wird so zum reinen Prozessmanagement.
• Neben dem nützlichen Potenzial entsteht so auch eine Gefahr für den demokratischen
Prozess: Wer politische Probleme und deren diskursive Bearbeitung präventiv ausschließen
will, will letztlich auch die Teilhabe am System verhindern.

Digitale Konzerne sind besessen davon, menschliches Verhalten vorherzusehen. Die


Autokorrektur weiß, welches Wort wir als nächstes tippen. Amazon weiß, welches
Buch wir als nächstes kaufen werden. Unter dem Stichwort "predictive analytics"
versuchen seit geraumer Zeit aber auch Regierungen, das Verhalten ihrer Bürger mit
algorithmischen Prognosetechniken vorherzusagen.
In zahlreichen Ländern setzen Polizeibehörden sogenannte Predictive-Policing-
Software ein, die aus Daten eine Wahrscheinlichkeit für Verbrechen in der Zukunft
vorhersagt. In den USA hat die Stadt Chicago einen Algorithmus entwickelt, um
Hygieneverstöße in Restaurants vorherzusagen. In Großbritannien versuchen
Behörden mit Big-Data-Analysen Missbrauchsfälle von Kindern zu prognostizieren.
Und in Deutschland will die Bundeswehr mithilfe eines KI-Systems "potenzielle"
Krisen noch vor ihrer Entstehung vorhersagen.
Die Unternehmensberatung Deloitte hat vor einigen Monaten einen Bericht
publiziert, in dem verschiedene "Regierungstrends" beschrieben werden. Der
interessanteste Punkt ist der des "antizipativen Regierens" (anticipatory government).
"Die jüngsten Fortschritte in Neuro-Linguistischem Programmieren, maschinellem
Lernen sowie Sprach- und Bilderkennung haben es für Regierungsbehörden möglich
gemacht, Probleme zu antizipieren und vorherzusagen, anstatt auf sie zu reagieren",
heißt es da. Von Kriminalitätsbekämpfung über Obdachlosenhilfe bis hin zur
Unfallprävention ließen sich Probleme vermeiden. Regieren wird zu einem
technokratischen Risiko- und Prozessmanagement: Input, Output, fertig.
In New Orleans errechnete eine Software, wer ein Verbrechen begehen könnte
Das Bemerkenswerte an diesem neuen Politikmodus ist nicht nur, dass Herrschaft auf
eine neue Legitimationsgrundlage (nämlich Daten) gestellt wird, sondern dass über
die deterministischen Formeln auch neue Regeln festgesetzt werden. Denn was als
krisenhaft gilt, definieren ja nicht mehr der Entscheider oder der politische Souverän,
sondern die Entwickler der Software. Wenn eine IBM- oder SAP-Software wie im
Fall der Bundeswehr eine wie auch immer geartete Krise identifiziert, auf die die
Politik reagieren soll, dann ist dies letztlich eine Lobby-Meinung, die im Gewand
eines vermeintlich evidenzbasierten Systems Eingang in das politische System findet.
Diese Privatisierung und Technisierung des Politischen ist die Fortsetzung libertärer
Staatsutopien, deren Vordenker schon vor Jahrzehnten von "marktförmigen"
Regierungsstrukturen redeten.
Dem liegt auch ein völlig anderes Politikverständnis zugrunde: Einem politisches
Problem wird schon vor der Politisierung die Legitimität abgesprochen. Der Ansatz
vorausschauender Regierungsarbeit besteht im Kern darin, soziale Phänomene wie
Kriminalität, Obdachlosigkeit oder Arbeitslosigkeit zu unterbinden, als wären sie die
Folge einer verspäteten oder ineffektiven Politikbearbeitung.
Wer politische Probleme ausschließen will, will letztlich auch Teilhabe am System
verhindern
Hier zeigt sich die depolitisierende Wirkung einer Herrschaftstechnik, die mit einer
mathematischen Rationalität den Sauerstoff aus dem politischen System zieht.
Politische Probleme sind ja, zumindest nach einem demokratischen Verständnis, kein
Problem in dem Sinn, dass sie "stören". Vielmehr sind sie Ausgangspunkt eines
politischen Aushandlungsprozesses, der nach dem klassischen Modell des
Politikzyklus mit der Benennung (Problemdefinition) beginnt und in den nächsten
Stufen mit dem Agenda-Setting, der Politikformulierung, und -Implementierung
fortgesetzt wird. Eine Politikterminierung kennt der politische Prozess gewiss auch -
sie ist aber nicht mit einer Entpolitisierung gleichzusetzen. Wer also politische
Probleme ausschließen will, will letztlich auch Teilhabe am System verhindern.

Man muss sich deswegen von dem Gedanken befreien, das Gemeinwesen sei so
etwas wie ein Thermostat, den man auf Wohlfühltemperatur regulieren könne.
Demokratie ist immer ein unfertiges System. Gerade darin besteht das Politische, also
das öffentliche Aushandelbare und Veränderbare. Die präemptive Politikvermeidung
ist mit ihrer Zukunftsfixiertheit eine strukturkonservative Gegenwartsversessenheit.
Alles soll so bleiben, wie es ist. Im kybernetischen Verständnis sind politische
Probleme Störungen im Betriebsablauf.
Es gibt natürlich auch im Verwaltungsstaat Störungen im polizeirechtlichen Sinn
(zum Beispiel eine Ruhestörung oder ein falsch parkendes Auto), die es zu beseitigen
gilt. Und auch bei der Frage, ob eine Demonstration eskaliert, muss die Polizei eine
Prognose über den hypothetischen Geschehensablauf anstellen. Sie tut dies aber nicht
mit Computern, sondern nach menschlichem Ermessen und Erfahrungen. Genau das
ist der Unterschied zum präemptiven Regierungs- und Verwaltungshandeln, das in
der Zeitachse viel früher ansetzt und bestimmte Abläufe gar nicht erst zulässt. Darin
offenbart sich das autoritäre Potenzial dieser Instrumente.
Das autoritäre Potenzial solcher Regierungsformen liegt darin, bestimmte Abläufe
nicht mehr zuzulassen
Einmal angenommen, eine Softwarefirma entwickelt ein Computerprogramm, das
anhand von Variablen wie Teilnehmerzahl, Aggressivität geobasierter Tweets und
Lautstärke eine Wahrscheinlichkeit berechnet, mit der eine Demonstration in Gewalt
umschlägt. Wenn eine Polizeibehörde diese Software einsetzt und auf Basis der
Berechnung eine Demonstration untersagt - wäre diese computergestützte Prognose
dann im rechtsstaatlichen Sinne gültig? Könnte man die Entscheidung der Software
auf verwaltungsrechtlichem Wege anfechten? Und wenn der Computer einen
erratischen Score errechnet - sind die Amtswalter dann weisungsgebunden? Das sind
nur einige, rechtlich völlig unklare Fragen, die deutlich machen, wie der
Programmcode die Verfahrensregeln des Rechtsstaats überschreibt.
So hat beispielsweise die ominöse Datenfirma Palantir in New Orleans eine
Predictive-Policing-Software getestet, von deren Einsatz nicht mal der Stadtrat
wusste. Das Vorhersagemodell nutzte eine Netzwerkanalyse, die Verbindungen
zwischen Personen, Orten, Autos, Waffen und Social-Media-Posts herstellte und
anhand weiter Daten ein Risiko errechnete, wer ein Verbrechen begehen oder diesem
zum Opfer fallen könnte. Wer von der Software als Gefährder eingestuft und wer auf
Listen steht, erfährt die Öffentlichkeit nicht. Algorithmen sind eine Black Box.

Was an diesem datengetriebenen, deterministischen Governance-Modellen irritiert, ist


ja nicht nur die materielle Aushöhlung des Politischen und Ausschaltung diskursiver
Verfahren, sondern auch, dass die Zukunft nicht mehr als gestaltbarer
Möglichkeitsraum begriffen wird, sondern als latente Bedrohung, ein Risiko, das es
zu "managen" gilt - mit der bitteren Pointe, dass Utopien unter dem Datenregime
unter Ideologieverdacht stehen, weil sie nicht berechenbar sind.