Sie sind auf Seite 1von 334

DuD-Fachbeitrge

Michael Friedewald Jrn Lamla


Alexander Ronagel Hrsg.

Informationelle
Selbstbestimmung
im digitalen Wandel
DuD-Fachbeitrge

Herausgegeben von
H. Reimer, Erfurt, Deutschland
K. Rihaczek, Bad Homburg v.d. Hhe, Deutschland
A. Ronagel, Kassel, Deutschland
Die Buchreihe ergnzt die Zeitschrift DuD Datenschutz und Datensicherheit
in einem aktuellen und zukunftstrchtigen Gebiet, das fr Wirtschaft, ffentliche
Verwaltung und Hochschulen gleichermaen wichtig ist. Die Thematik verbindet
Informatik, Rechts-, Kommunikations- und Wirtschaftswissenschaften.
Den Lesern werden nicht nur fachlich ausgewiesene Beitrge der eigenen Diszi
plin geboten, sondern sie erhalten auch immer wieder Gelegenheit, Blicke ber den
fachlichen Zaun zu werfen. So steht die Buchreihe im Dienst eines interdisziplin
ren Dialogs, der die Kompetenz hinsichtlich eines sicheren und verantwortungs
vollen Umgangs mit der Informationstechnik frdern mge.

Herausgegeben von
Prof. Dr. Helmut Reimer Prof. Dr. Alexander Ronagel,
Erfurt Universitt Kassel
Dr. Karl Rihaczek
Bad Homburg v.d. Hhe
Michael Friedewald Jrn Lamla
Alexander Ronagel
(Hrsg.)

Informationelle
Selbstbestimmung
imdigitalen Wandel
Herausgeber
Dr. Michael Friedewald Prof. Dr. Alexander Ronagel
Fraunhofer Institut fr System- Universitt Kassel
und Innovationsforschung Deutschland
Karlsruhe, Deutschland

Prof. Dr. Jrn Lamla


Universitt Kassel
Deutschland

DuD-Fachbeitrge
ISBN 978-3-658-17661-7 ISBN 978-3-658-17662-4 (eBook)
DOI 10.1007/978-3-658-17662-4

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen National


bibliografie; detaillierte bibliografische Daten sind im Internet ber http://dnb.d-nb.de abrufbar.

Springer Vieweg
Springer Fachmedien Wiesbaden GmbH 2017
Das Werk einschlielich aller seiner Teile ist urheberrechtlich geschtzt. Jede Verwertung, die
nicht ausdrcklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung
des Verlags. Das gilt insbesondere fr Vervielfltigungen, Bearbeitungen, bersetzungen,
Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem
Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche
Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten
wren und daher von jedermann benutzt werden drften.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informa
tionen in diesem Werk zum Zeitpunkt der Verffentlichung vollstndig und korrekt sind.
Weder der Verlag noch die Autoren oder die Herausgeber bernehmen, ausdrcklich oder
implizit, Gewhr fr den Inhalt des Werkes, etwaige Fehler oder uerungen. Der Verlag bleibt
im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in verffentlichten
Karten und Institutionsadressen neutral.

Gedruckt auf surefreiem und chlorfrei gebleichtem Papier

Springer Vieweg ist Teil von Springer Nature


Die eingetragene Gesellschaft ist Springer Fachmedien Wiesbaden GmbH
Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany
Inhaltsverzeichnis
Michael Friedewald, Jrn Lamla, Alexander Ronagel
Einleitung: Informationelle Selbstbestimmung im digitalen Wandel 1

I. Informationelle Selbstbestimmung: Normative Grund-


lagen im Wandel 9
Marion Albers
Informationelle Selbstbestimmung als vielschichtiges Bndel von Rechts-
bindungen und Rechtspositionen 11

Max Winter
Demokratietheoretische Implikationen des Rechts auf informationelle
Selbstbestimmung 37

Ricarda Moll
Die Zukunft des Rechts auf informationelle Selbstbestimmung aus me-
dienpsychologischer Sicht 49

Michael Nagenborg
Informationelle Selbstbestimmung und die Bestimmung des Selbst 65

Dietmar Kammerer
Das mehrfache Selbst der Selbstbestimmung im Kontext elektronischer
Kommunikation: Eine Annherung ber den Umweg der Rhetorik von
Daten 73

II. Privatheitspraktiken und Datenkonomien in der digi-


talen Welt 89
Ramn Reichert
Die Vermessung des Selbst: Self-Tracking in der digitalen Kontrollge-
sellschaft 91
VI Inhaltsverzeichnis

Johannes Wiele, Bettina Weelmann


Anonymitt als soziokulturelle Inszenierung: Ein historisches Modell
informationeller Selbstbestimmung und seine Rahmenbedingungen 109

Niels Brggen, Ulrike Wagner


Recht oder Verhandlungssache? Herausforderungen fr die informatio-
nelle Selbstbestimmung aus der Perspektive von Jugendlichen 131

Carlos Becker
Kritische Theorie des Privaten: Ortbestimmung einer Sozialkritik der
Privatheit und ihre Verteidigung 147

Arnold Picot, Dominik van Aaken, Andreas Ostermaier


Privatheit als Freiheit: Die konomische Sicht 169

Malte Dold, Tim Krieger


Informationelle Selbstbestimmung aus ordnungskonomischer Sicht 181

III. Weiterentwicklung und knftige Ausgestaltung der


informationellen Selbstbestimmung 199
Innokentij Kreknin
Rettung der informationellen Selbstbestimmung durch die Teilung der
digitalen Sphre? Ein Vorschlag aus subjekttheoretischer Perspektive 201

Sven Trpe, Jrgen Geuter, Andreas Poller


Emission statt Transaktion: Weshalb das klassische Datenschutzparadig-
ma nicht mehr funktioniert 227

Clemens H. Cap
Verpichtung der Hersteller zur Mitwirkung bei informationeller Selbst-
bestimmung 249

Max-R. Ulbricht, Karsten Weber


Adieu Einwilligung? Neue Herausforderungen fr die informationelle
Selbstbestimmung im Angesicht von Big Data-Technologien 265

Christian L. Geminn, Maxi Nebel


Internationalisierung vs. Nationalisierung im Zeitalter der digitalen Ge-
sellschaft: Wege aus einer Krise des Rechts und der Demokratie 287
Inhaltsverzeichnis VII

Tobias Matzner, Philipp Richter


Ausblick: Die Zukunft der informationellen Selbstbestimmung 319

Verzeichnis der Verfasserinnen und Verfasser 325

Abkrzungen 331
Vorwort
Um im interdisziplinren Dialog die Herausforderungen des digitalen Wandels fr
die informationelle Selbstbestimmung zu analysieren, verschiedene Bedeutungs-
varianten und Konzepte von Selbstbestimmung in einer digitalen Gesellschaft zu
diskutieren sowie konstruktive Bausteine fr eine zukunftsgerechte Gewhrleistung
von individueller und kollektiver Selbstbestimmung zu errtern, veranstaltete das
Forum Privatheit und selbstbestimmtes Leben in der Digitalen Welt am 26. und
27. November 2015 in Berlin die Konferenz Die Zukunft der informationellen
Selbstbestimmung. Der vorliegende Band prsentiert die wichtigsten Vortrge und
reektiert die Diskussionen zu ihnen.
Das Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt
(http://www.forum-privatheit.de) ist ein vom Bundesministerium fr Bildung und
Forschung gefrdertes Projekt, das ausgehend von technischen, juristischen, ko-
nomischen sowie geistes- und gesellschaftswissenschaftlichen Anstzen an einem
interdisziplinr fundierten, zeitgemen Verstndnis der Rolle von Privatheit ar-
beitet. Hieran anknpfend werden Konzepte zur (Neu-)Bestimmung und Gewhr-
leistung informationeller Selbstbestimmung und des Privaten in der digitalen Welt
erstellt. Das Forum Privatheit versteht sich ber seine Kerndisziplinen hinaus als
eine Plattform fr den fachlichen Austausch und erarbeitet Orientierungswissen fr
den ffentlichen Diskurs in Form wissenschaftlicher Publikationen, Tagungen und
White-Papers. Mitglieder des Forums Privatheit und selbstbestimmtes Leben in der
digitalen Welt sind das Fraunhofer-Institut fr System- und Innovationsforschung
ISI, Karlsruhe, das Fraunhofer-Institut fr Sichere Informationstechnologie SIT,
Darmstadt, das Fachgebiet Soziologische Theorie und die Projektgruppe verfas-
sungsvertrgliche Technikgestaltung (provet), beide Mitglieder des Wissenschaftli-
chen Zentrums fr Informationstechnik-Gestaltung an der Universitt Kassel, der
Lehrstuhl fr Medienpsychologie der Universitt Hohenheim, Stuttgart, das Interna-
tionale Zentrum fr Ethik in den Wissenschaften (IZEW) der Universitt Tbingen,
das Institut fr Wirtschaftsinformatik und neue Medien der Ludwig-Maximilians-
Universitt Mnchen und das Unabhngiges Landeszentrum fr Datenschutz (ULD)
Schleswig-Holstein, Kiel.
Die Herausgeber haben gern die Bitte des Forums aufgenommen, die Publikation
eines Konferenzbandes zu organisieren. Sie danken den Autorinnen und Autoren
fr ihre Bereitschaft, ihre Beitrge fr diese Verffentlichung zu berarbeiten. Sie
danken dem gesamten Team des Projekts Forum Privatheit, insbesondere dem
X Vorwort

Verantwortlichen fr die Konferenzleitung, Peter Zoche (Fraunhofer ISI), und den


weiteren Organisatorinnen und Organisatoren thematischer Konferenzsektionen, aus
denen die Beitrge dieses Bandes hervorgegangen sind: Marit Hansen (ULD), PDin
Dr. Jessica Heesen (Universitt Tbingen), Prof. Dr. Thomas Hess (Universitt
Mnchen), Dr. Carsten Ochs (Universitt Kassel), Dr. Thilo von Pape, Prof. Dr.
Sabine Trepte (beide Universitt Hohenheim) und Prof. Dr. Michael Waidner
(Fraunhofer SIT).
Sie danken auerdem Max Braun (Universitt Hohenheim), Michael Herfert
(Fraunhofer SIT), Dr. Meiko Jensen (Fachhochschule Kiel, ehemals ULD) sowie
Dr. Tobias Matzner (Universitt Tbingen) fr die inhaltliche Untersttzung der
Herausgeber.
Ein besonderer Dank gilt Tanja Bratsch, Julian Flesch, Kristina Hfner, Murat Ka-
raboga und Susanne Ruhm (alle Fraunhofer ISI) sowie Enrico Hrster (Universitt
Kassel) fr die Bearbeitung und Korrektur des Manuskripts.
Schlielich danken sie Ministerialrat Dr. Ulf Lange vom Bundesministerium fr
Bildung und Forschung (BMBF), der fr den Frdergeber die Konferenz und diesen
Band mglich gemacht hat, sowie Dr. Stefan Weber, der fr den Projekttrger
die Forschungsarbeiten des Forums, die Durchfhrung der Konferenz und das
Erscheinen des Bandes untersttzt hat.

Karlsruhe und Kassel, im Dezember 2016 Michael Friedewald


Jrn Lamla
Alexander Ronagel
Einleitung: Informationelle Selbstbestimmung im
digitalen Wandel
Michael Friedewald, Jrn Lamla, Alexander Ronagel

Nicht nur Facebook, Google, Big Data, Cloud Computing, weltweite Geheimdienst-
berwachung und Vorratsdatenspeicherung, auch die Entwicklung des vernetzten
Automobils, des Smart Homes oder der krpernahen vernetzten Sensorik und
andere Anwendungen der Informationstechnik machen deutlich, dass sich nor-
mative Vorstellungen von Freiheit durch informationelle Selbstbestimmung im
heutigen digitalen Zeitalter vor massive Herausforderungen gestellt sehen. Eine
solche Selbstbestimmung ist uerst voraussetzungsreich. Dies gilt sowohl mit
Blick auf das adressierte Individuum und seine pragmatischen Handlungs- und
Entscheidungssituationen. Dies gilt aber auch mit Blick auf die technischen, rechtli-
chen, wirtschaftlichen, sozio-kulturellen und politischen Rahmenbedingungen, etwa
verlsslichen Institutionen oder Konventionen, verfgbaren Handlungsmittel und
Verteilungen des Wissens sowie geeigneten Sanktionspotentiale. Zu bercksichtigen
sind ebenso die Anreizstrukturen, die von den unmittelbaren Vorteilen der Nutzung
von Informationstechnik fr das alltgliche Leben, etwa fr die Bearbeitung von
Arbeitsaufgaben oder fr die Konsum- und Freizeitgestaltung, ausgehen oder sich
in typischen Geschftsmodellen manifestieren. Die zunehmend unbersichtliche
und immer weiter fortschreitende Digitalisierung des sozialen Lebens stellt die
gesellschaftliche Verwirklichung informationeller Selbstbestimmung auf vielen
Feldern vor groe Hrden.
Daher ist es dringend notwendig, konstruktiv und gestaltungsorientiert, aber
auch kritisch und richtungsoffen ber die Zukunft der informationellen Selbstbe-
stimmung im digitalen Wandel zu diskutieren. Nur im interdisziplinren Dialog
lassen sich Fragen klren, wie weit die durch das Bundesverfassungsgericht vor-
genommene rechtliche Normierung der informationellen Selbstbestimmung noch
trgt, in welchen informationstechnischen Anwendungsfeldern sie der Ergnzung
oder Erneuerung bedarf und welche Ansatzpunkte sich in der Demokratie oder in
der Verfassungsrechtsprechung selbst hierfr nden lassen. Im digitalen Wandel

* Dr. Michael Friedewald | Fraunhofer-Institut fr System- und Innovationsforschung ISI, Karlsruhe |


michael.friedewald@isi.fraunhofer.de
Prof. Dr. Jrn Lamla, Prof. Dr. Alexander Ronagel | Universitt Kassel | {lamla; a.rossnagel}@uni-
kassel.de

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_1
2 Michael Friedewald, Jrn Lamla, Alexander Ronagel

drngen sich aber auch Fragen auf, welche Rolle informationelle Selbstbestimmung
in der modernen Freiheitsvorstellung und ihrer historischen Entwicklung genau
spielt, welche Bedeutung ihr mit Blick auf den Schutz und die Neugestaltung von
Privatheit eigentlich zukommt und welche Alternativen sich in der Ausdeutung
dieser Zusammenhnge abzeichnen. Hierbei ist zu bercksichtigen, dass in der
Gesellschaft unterschiedliche Vorstellungen und Interpretationen darber bestehen
und aufeinandertreffen, was informationelle Selbstbestimmung genau bedeuten
und in welche Richtung sie sich entwickeln soll. Daneben gilt es, diese normativen
Vorstellungen zu den stark technikgetriebenen empirischen Wandlungsprozessen in
der Wirtschaft, der Politik, den sozialen Netzwerken oder der Kultur ins Verhltnis
zu setzen und zu klren, welche Bedrohungen und Gefahren sich darin fr ein derart
fundiertes individuelles Freiheitsverstndnis abzeichnen, aber auch welche Chan-
cen der digitale Wandel fr dessen gesellschaftliche Realisierung noch bereithalten
knnte.
In der deutschen Verfassungsrechtsprechung gilt das Grundrecht auf informa-
tionelle Selbstbestimmung als eine zeitgeme Weiterentwicklung des Persnlich-
keitsschutzes angesichts der modernen Datenverarbeitung. Um die Risiken der
Datenverarbeitung fr den Schutz der Persnlichkeit zu erfassen hat sich die Ori-
entierung an rumlichem Denken (unterschiedlich schutzwrdige Intim-, Privat-
und ffentlichkeitssphren) nicht mehr als praktikabel erwiesen. In einer virtuellen
Welt ist dies noch weniger mglich. Ausgangspunkt des Persnlichkeitsschutzes
ist vielmehr die Befugnis jedes Einzelnen, selbst darber zu bestimmen, welche
Daten von ihm andere verarbeiten knnen sollen. Grenzen und Grenzziehungen
des geschtzten Handelns ergeben sich nicht mehr aus der Interpretation von Privat
oder ffentlich durch ein Unternehmen, eine Behrde oder einen Richter, son-
dern werden vom Gesetzgeber festgelegt. Die informationelle Selbstbestimmung
soll gewhrleistet werden durch die Datenschutzprinzipien der Transparenz, der
Zweckbindung, der Erforderlichkeit und der Betroffenenrechte. Jedes dieser Prin-
zipien stt jedoch angesichts der neuen Anwendungen der Informationstechnik
an Grenzen. Daher stellt sich die dringende Frage, wie diese Prinzipien angepasst
oder ergnzt werden mssen, um Datenschutz auch im digitalen Wandel zu ge-
whrleisten. Zu klren ist, welche Verwirklichungsbedingungen die informationelle
Selbstbestimmung bentigt und wie diese gesichert werden knnen.
Hierbei gilt es zu bercksichtigen, dass die Normen der Privatheit und der indivi-
duellen Freiheit Gegenstand vielfltiger Auseinandersetzungen in unterschiedlichen
wissenschaftlichen Disziplinen sind, in denen zum einen ihr genauer Gehalt und
ihre Implikationen in verschiedene Richtungen ausgedeutet sowie zum anderen ihre
Folgen fr die gesellschaftliche Entwicklung und umgekehrt, d. h. die Folgen des
historischen Wandels fr die Freiheitsnormen analysiert werden. So gilt es etwa
zu klren, welche Konsequenzen verschiedene Freiheitsbegriffe fr die Konzeptua-
Einleitung: Informationelle Selbstbestimmung im digitalen Wandel 3

lisierung von informationeller Selbstbestimmung haben und wie plausibel die im


Grundrechtsverstndnis des Bundesverfassungsgerichts gemachten gesellschafts-
theoretischen Annahmen (Stichwort: Rollentheorie) heute noch sind. Positive
Freiheitskonzeptionen (z. B. Charles Taylor) fragen danach, welche Voraussetzun-
gen erforderlich sind, um von Freiheit auch adquat Gebrauch machen zu knnen
und sehen darin nicht blo ein Abwehrrecht des Einzelnen (negative Freiheit). Sie
versuchen zum einen, die reexiven Kompetenzen und Voraussetzungen individuel-
ler Selbstbestimmung abzuklren, und thematisieren darber hinaus den komplexen
Kranz an gesellschaftlichen (etwa familiren, wirtschaftlichen, aber auch politisch-
institutionellen und technischen) Verwirklichungsbedingungen (Axel Honneth)
einer in diesem Sinne sozial verstandenen individuellen Freiheit. Mit Blick auf
diese Bedingungen ist kritisch zu fragen, ob sich im historischen Wandel moderner
Gesellschaften Schieagen im Verhltnis der Freiheitsnormen zu ihren institutio-
nellen Realisierungsbedingungen entwickelt haben, die etwa zu einer einseitigen
Belastung der Individuen mit Freiheitszumutungen (Stichwort: Aktivierungsgesell-
schaft) fhren oder zu Ungleichgewichten zwischen den verschiedenen sozialen
Komponenten der Freiheit (Stichwort: bergewicht konomischer Kriterien) bei-
tragen. Fr die Frage, wie informationelle Selbstbestimmung zuknftig normativ
verstanden sowie technisch und sozial ausgestaltet werden kann und sollte sowie
fr die Frage, welchen Pfad ins digitale Zeitalter die moderne Gesellschaft damit
beschreiten wrde, sind solche Analysen und Reexionen von groer Bedeutung.
Solche Untersuchungen enthlt der vorliegende Band. Er prsentiert die wichtigs-
ten Vortrge der Konferenz Die Zukunft der informationellen Selbstbestimmung,
die das Forum Privatheit und selbstbestimmtes Leben in der Digitalen Welt am
26. und 27. November 2015 in Berlin durchgefhrt hat. Die Beitrge analysieren im
interdisziplinren Dialog die Herausforderungen des digitalen Wandels fr die infor-
mationelle Selbstbestimmung. Sie diskutieren verschiedene Bedeutungsvarianten
und Konzepte von Selbstbestimmung in einer digitalen Gesellschaft und errtern
konstruktive Bausteine fr eine zukunftsgerechte Gewhrleistung von individueller
und kollektiver Selbstbestimmung.
Im ersten Teil sind die Beitrge zum Themenkomplex Informationelle Selbstbe-
stimmung: Normative Grundlagen im digitalen Wandel zusammengefasst. Darin
wird das Konzept der Informationellen Selbstbestimmung aus verschiedenen dis-
ziplinren Perspektiven als normative Orientierungsfolie diskutiert. Insbesondere
steht dabei die Frage im Fokus, vor welchen Herausforderungen die informatio-
nelle Selbstbestimmung steht, um ihre Rolle im Kanon der Brgerrechte weiterhin
ausfllen zu knnen.
Marion Albers (Univeritt Hamburg) erlutert in ihrem Beitrag Informationelle
Selbstbestimmung als vielschichtiges Bndel von Rechtsbindungen und Rechts-
positionen zunchst die Grundlagen, Konzeption und Dezite des Rechts auf
4 Michael Friedewald, Jrn Lamla, Alexander Ronagel

informationelle Selbstbestimmung in der Rechtsprechung des Bundesverfassungs-


gerichts. Sie zeigt auf, dass Schutzgut des Datenschutzes nicht Daten sind, sondern
ein komplexes Netzwerk mehrerer Grundelemente auf der Basis der Sozialitt des
Individuums. So lsst sich informationelle Selbstbestimmung als Bndel grundrecht-
licher Bindungen und Schutzpositionen verstehen, auf deren Grundlage vielfltige
und leistungsfhige Regulierungsmuster mglich sind.
Im zweiten Beitrag analysiert Max Winter (Universitt Jena) die Demokratie-
theoretischen Implikationen des Rechts auf informationelle Selbstbestimmung.
Er argumentiert, dass das Recht auf Informationelle Selbstbestimmung in einem
nicht-instrumentellen Demokratieverstndnis grndet, demzufolge eine zwanglose
ffentlichkeit nicht als bloes Mittel zur Erfllung individueller Zwecke gilt, son-
dern als Ausdruck menschlicher Freiheit. Folglich ist die massenhafte Erhebung und
Verarbeitung personenbezogener Daten illegitim, unabhngig davon, ob Einzelne in
sie einwilligen oder nicht; sie ist zuallererst eine Gefahr fr die Demokratie selbst.
In ihrem Beitrag ber Die Zukunft des Rechts auf informationelle Selbstbe-
stimmung aus medienpsychologischer Sicht argumentiert Ricarda Moll (Univer-
sitt Mnster), dass das Recht auf informationelle Selbstbestimmung meist mit
einer deterministischen Vorstellung von Privatheit einhergeht, die im Wesentlichen
Kontrolle ber den potentiellen Zugang anderer Akteure zur eigenen Information
einfordert. Sie diskutiert die Frage, ob Nutzer im Zuge der Digitalisierung nicht
vielmehr ein probabilistisches Verstndnis von Privatheit entwickelt haben. Danach
speist sich dieses Verstndnis aus unsicheren Annahmen darber, wer und wie
viele Personen tatschlich auf die eigenen Informationen zugreifen und mageblich
beeinussen knnten, ob und inwieweit Nutzer Gebrauch von ihrem Recht auf
informationelle Selbstbestimmung machen.
Michael Nagenborg (Universitt Twente, Enschede, Niederlande) geht in seinem
Kapitel der Frage nach, welche Vorstellung vom Selbst in das Konzept der Infor-
mationellen Selbstbestimmung eingeossen ist. Der Autor analysiert die Annahme,
dass dieses Selbst unabhngig von den Technologien zu denken ist, welche dieses
Recht verletzen oder zu verletzen drohen. Er greift dazu auf die Extended Mind
Theory von Clarke und Chalmers zurck und erlutert, was es auch in rechtlicher
und technischer Hinsicht bedeutet, Technikgestaltung als Selbst-Gestaltung ernst
zu nehmen.
Dietmar Kammerer (Universitt Marburg) hinterfragt in seinem Beitrag Das
mehrfache Selbst der Selbstbestimmung im Kontext elektronischer Kommunika-
tion: Eine Annherung ber den Umweg der Rhetorik von Daten schlielich
das Reden ber informationelle Selbstbestimmung aus diskursanalytischer und
kulturwissenschaftlicher Perspektive. Er diskutiert drei diskursive Figuren aus dem
gegenwrtigen Diskurs, nmlich das Selbst als Eigentmer, als Verursacher einer
Spur und als Schatten. Es wird argumentiert, dass in diesen rhetorischen Figuren
Einleitung: Informationelle Selbstbestimmung im digitalen Wandel 5

implizit eine Verschiebung und begrifiche Neubestimmung von Daten stattndet.


Aus den personenbezogenen werden persnliche und schlielich solche Daten,
die selbst mit der Autonomie von Personen auftreten.
Der zweite Teil ist der Analyse von Privatheitspraktiken und Datenkonomien
in der digitalen Welt gewidmet. Technik, konomie und Kultur, so zeigen die
folgenden sechs Beitrge, amalgamieren sich in neuen digitalen Praktiken, die
sich transformierend auf die Grenzziehungen von Privatheit und Selbstbestimmung
auswirken. An diesen Treibern des digitalen Wandels werden die gesellschaftlichen
Bedingungen einer Neubestimmung und Neugestaltung des Rechts auf informatio-
nelle Selbstbestimmung sichtbar.
In seinem Beitrag Die Vermessung des Selbst: Self-Tracking in der digitalen
Kontrollgesellschaft analysiert Ramn Reichert (Universitt Wien), wie Fitness-
Tracker auf spielerischem Wege dazu beigetragen, den Krper als Medienobjekt
geregelter Gestaltung und numerischer Ausdrucksformen zu betrachten. Dabei ver-
folgt der Autor die These, dass Sensortechnologien, GPS-gesttzte Lokalisierungen,
intelligente Messverfahren, automatische Identikationsverfahren und zahlenbasier-
te Wissensmedien die Praktiken der digitalen Selbstvermessung ermglichen und
dabei neue Formen von Steuerungs- und Kontrollwissen hervorbringen. Hierbei
gelte es der wechselseitigen Abhngigkeit zwischen dem technisch-apparativen
Charakter der Medien und den individuellen und kollektiven Praktiken reexiver
Selbstkontrolle Rechnung zu tragen. Ihr volles Wandlungspotential entfalten diese
Medienpraktiken daher erst im Kontext der Sozialen Medien, insbesondere durch
die dort verankerten populrkulturellen Vermittlungen sowie sozialen Dynamiken
des Sharing von Informationen, die den Verwertungsinteressen der Gesundheitsin-
dustrie durchaus entgegenkommen.
In ihrem Beitrag Anonymitt als soziokulturelle Inszenierung: Ein historisches
Modell informationeller Selbstbestimmung und seine Rahmenbedingungen er-
lutern Johannes Wiele und Bettina Weelmann wie in der Republik Venedig (vor
1797) mit Maske und Umhang als Hilfsmitteln und strengen gesellschaftlichen
Regeln die Mglichkeit zu anonymer Kommunikation geschaffen wurde. Sie versu-
chen, dieses historische Beispiel auf die aktuelle Debatte ber die Verwendung von
Anonymisierer im Internet zu bertragen und diskutieren dabei neben technischen,
rechtlichen und wirtschaftlichen vor allem kulturelle Faktoren. Insbesondere pldie-
ren sie dafr, Wege zu erkunden, das aktuelle Misstrauen gegenber Anonymitt
zu berwinden, damit Anonymitt im Web ein interkulturell erfolgreiches Modell
werden kann.
Niels Brggen und Ulrike Wagner (Institut fr Medienpdagogik in Forschung
und Praxis, Mnchen) erlutern in ihrem Betrag Recht oder Verhandlungssache?
Herausforderungen fr die informationelle Selbstbestimmung aus der Perspektive
von Jugendlichen inwieweit die Perspektive von Jugendlichen auf informationelle
6 Michael Friedewald, Jrn Lamla, Alexander Ronagel

Selbstbestimmung als ein Seismograph fr den digitalen Wandel betrachtet werden


kann. Junge Menschen nutzen digitale Dienste intensiv wie auch kreativ und eig-
nen sich dabei in aktuellen Diskursen verbreitete Denkguren zu Freiheiten und
Verantwortung im Umgang mit persnlichen Informationen an. Auf der Grundlage
empirischer Ergebnisse identizieren sie Herausforderungen fr die Realisierung
informationeller Selbstbestimmung im alltglichen Medienhandeln und notwendige
Rahmenbedingungen.
Anschlieend geht es Carlos Becker (Universitt Frankfurt) in seinem Beitrag
Kritische Theorie des Privaten: Ortbestimmung einer Sozialkritik der Privatheit
und ihre Verteidigung um eine sozialtheoretische Ortsbestimmung von Privatheits-
praktiken in der digitalen Welt. Beckers Ausgangpunkt ist die Problematik, dass
Menschen ihre Privatsphre zunehmend freiwillig preisgeben und der Freigabe
ihrer Daten ob nun wissentlich oder unwissentlich selbst zustimmen. Wie sollte
die wissenschaftliche Verteidigung und Analyse der Privatheit darauf reagieren?
Der Autor zeigt zunchst, dass Privatheit immer ein soziales Interaktionsverhltnis
ist und bis in die Tiefen der eigenen Bedrfnisse gesellschaftlich vermittelt ist. Im
Rckgriff auf Positionen der kritischen Sozialtheorie erlutert er, dass private Hand-
lungsmuster rechtfertigungsbedrftig werden, da soziale Machtverhltnisse in diese
Muster eingeschrieben sind und durch diese reproduziert werden. In einem dritten
Schritt pldiert der Autor fr eine disziplinre Aufgabenverteilung der Verteidigung
Kritik der Privatheit.
Arnold Picot (Universitt Mnchen), Dominik van Aaken (Universitt Salzburg)
und Andreas Ostermaier (Technische Universitt Mnchen) setzen sich sodann in
ihrem Beitrag Privatheit als Freiheit: Die konomische Sicht mit der Frage aus-
einander, was es praktisch bedeutet, dass der konomische Liberalismus Privatheit
als eine Form von Freiheit konzeptualisiert. Sie wenden dazu das auf John Stuart
Mill zurckgehende Prinzip der Irreversibilitt von Freiheit (niemand darf seine
Freiheit unwiderruich aufgeben) auf das Konzept der Privatheit an. Durch eine
exemplarische Analyse der Geschftsbedingungen und Datenschutz-Richtlinien
wichtiger Internetunternehmen zeigen sie, dass diese Anforderungen heutzutage in
der Praxis kaum erfllt werden.
Malte Dold und Tim Krieger (Universitt Freiburg) betrachten schlielich in
ihrem Beitrag die Informationelle Selbstbestimmung aus ordnungskonomischer
Sicht mit dem Ziel, Lsungsanstze fr eine wohlfahrtserhhende Weiterentwick-
lung der Regeln fr die Nutzung privater Information abzuleiten. Sie untersuchen,
inwieweit unter Beachtung der informationellen Selbstbestimmung ein Markt ge-
schaffen werden kann und wo die Chancen und Grenzen der Kommerzialisierung
von Daten liegen. Sie pldieren dafr, klare Verfgungsrechte an privaten Infor-
mationen zu denieren, um diese auf Mrkten handelbar zu machen und so die
anfallenden Kosten und Nutzen zu internalisieren und Marktversagen zu verhindern.
Einleitung: Informationelle Selbstbestimmung im digitalen Wandel 7

Der dritte Teil des Bandes ist schlielich der Weiterentwicklung und knftigen
Ausgestaltung der informationellen Selbstbestimmung gewidmet. Diese Aufgaben
richten sich nicht nur an Politik und Technik, sondern erfordern eine disziplinen-
bergreifende Anstrengung, wie die folgenden Beitrge deutlich machen. Sie zeigen
in der Gesamtschau nmlich deutlich, dass Politik und Technik in der Gestaltung
der digitalen Welt gar nicht zu trennen sind.
In seinem Beitrag Rettung der informationellen Selbstbestimmung durch die
Teilung der digitalen Sphre? Ein Vorschlag aus subjekttheoretischer Perspektive
geht Innokentij Kreknin (Technische Universitt Dortmund) der Frage nach, ob
die Idee der der informationellen Selbstbestimmung in einer digitalisierten und
vernetzten Mediengesellschaft noch praktikabel ist. Obwohl er diese Frage aus sub-
jekttheoretischer Perspektive verneint, da aktuell lediglich graduale und relationale
Formen als Balanceakt zwischen Autonomie und Heteronomie umgesetzt werden
knnen, sieht der Autor mgliche Lsung in autoktionalen Poetiken, auf denen
aufbauend er einen Vorschlag zur Weiterentwicklung der informationellen Selbst-
bestimmung durch die Entwicklung von geteilten und abgeschotteten digitalen
Handlungssphren macht.
Im Beitrag Emission statt Transaktion: Weshalb das klassische Datenschutzpa-
radigma nicht mehr funktioniert eruieren Sven Trpe, Andreas Poller (Fraunhofer
SIT, Darmstadt) und Jrgen Geuter (Oldenburg), wie Datenschutz als Werkzeug
zum Schutz des Individuums im Internet of Everything neu ausgestaltet wer-
den kann. Sie argumentieren, dass die Datenbank als klassisches Technik- und
Organisationsparadigma des herkmmlichen Datenschutzes den heute allgegen-
wrtigen vernetzten Systemen und Technologien maschinellen Lernens nicht mehr
angemessen ist. Sie schlagen deshalb die Metapher der Datenemission vor, die
die Folgen fr die Betroffenen erkennbar macht: Jeder sendet fortlaufend Daten
aus wie eine Lichtquelle Photonen. Diese Daten verbreiten sich und werden von
anderen empfangen und verwendet. Unter diesen Bedingungen mssen die Mittel
eines modernen Datenschutzes funktionieren.
Clemens H. Cap (Universitt Rostock) macht in seinem Kapitel Verpichtung
der Hersteller zur Mitwirkung bei informationeller Selbstbestimmung Vorschlge
zur Weiterentwicklung des Datenschutzrechts, bei dem nicht nur die Verantwort-
lichen fr die Datenverarbeitung, sondern auch und vor allem die Hersteller von
Soft- und Hardware strker einbezogen werden. Dazu zeigt Cap, wie dem Benutzer
heute systematisch die Hoheit ber seine Daten genommen und die Wahrnehmung
seines Rechts auf informationelle Selbstbestimmung verweigert wird. Lsungsan-
stze knnten durch eine Emanzipierung der Benutzer im Sinne einer digitalen
Aufklrung gesucht werden; deren Schwche jedoch deutet eher auf regulatorische
Manahmen hin, wie sie der Verbraucherschutz in vielen anderen Branchen lange
kennt.
8 Michael Friedewald, Jrn Lamla, Alexander Ronagel

Max-R. Ulbricht (Technische Universitt Berlin) und Karsten Weber (Ostbaye-


rische Technische Hochschule Regensburg) analysieren in Ihrem Beitrag Adieu
Einwilligung? Neue Herausforderungen fr die informationelle Selbstbestimmung
im Angesicht von Big Data-Technologien die Herausforderungen, die sich bei
der Nutzung neuer Informations- und Kommunikationstechnologien in Hinsicht
auf das etablierte, heute aber weitgehend dysfunktionale Prinzip der informierten
Einwilligung ergeben. Anhand eines konkreten Szenarios werden rechtliche und
technische Problemfelder bei der Nutzung von Big Data-Technologien aufgezeigt,
um ein Konzept zur technisch untersttzten Verwaltung von Einwilligungen und
damit zur Strkung der informationellen Selbstbestimmung im Big Data-Kontext
herzuleiten.
Schlielich beleuchten Christian L. Geminn und Maxi Nebel (Universitt Kassel)
aus rechtswissenschaftlicher Perspektive Internationalisierung vs. Nationalisie-
rung im Zeitalter der digitalen Gesellschaft als Wege aus einer Krise des Rechts und
der Demokratie. Einerseits steht Internationalisierung fr die Grenzenlosigkeit
des Datenverkehrs und die offene, dezentrale Struktur des Internet, die den sozialen
Austausch als Motor gesellschaftlicher Entwicklung immens beschleunigt haben.
Andererseits wird der globale Datenverkehr aber auch von nationalen Strukturen
und Prozessen geprgt. Gleichzeitig hat die mangelnde Durchsetzungskraft des
nationalen Rechts auch zu einer Krise des Rechts und damit auch der Demokratie ge-
fhrt. Der Beitrag zeigt, wie aktuelle Lsungsanstze jeweils einem der beiden Pole
zustreben und bewertet diese unter besonderer Bercksichtigung der Perspektiven
von Recht und Demokratie.
Abschlieend wagen Tobias Matzner (Universitt Tbingen) und Philipp Rich-
ter (Universitt Kassel) eine Zusammenfassung der zweitgigen Diskussionen zur
informationellen Selbstbestimmung im digitalen Wandel. Sie betonen, dass informa-
tionelle Selbstbestimmung zuknftig vor allem als eine kollektive, demokratische
Herausforderung und Aufgabe begriffen werden muss und keineswegs als Privat-
sache der Individuen abgetan werden darf. Dies gelte es nicht zuletzt angesichts
der jngeren Entwicklungen im europischen Datenschutzrecht und angesichts
ungebremster konomischer Interessen an datengetriebenen Geschftsmodellen
fest im Blick zu behalten.
Teil I.

Informationelle Selbstbestimmung:
Normative Grundlagen im Wandel
Informationelle Selbstbestimmung als vielschichtiges
Bndel von Rechtsbindungen und Rechtspositionen
Marion Albers

1. Einleitung
Das Recht auf informationelle Selbstbestimmung gehrt in Deutschland zu den zen-
tralen Leitgedanken des Datenschutzes. Im Anschluss an das Volkszhlungsurteil
des Bundesverfassungsgerichts (BVerfG) ist es in gesellschaftlichen Diskussionen
ebenso wie in verschiedenen Wissenschaftsdisziplinen populr geworden. Mittler-
weile wird es zudem in einigen transnationalen Debatten erwhnt.1
In den Diskussionen ist allerdings oft nicht klar, was informationelle Selbst-
bestimmung genau bedeutet. Meist wird sie mit eher diffusen Vorstellungen ver-
knpft, dass jeder eine gewisse Kontrolle ber seine Daten haben msse. Ihre
breite Popularitt erklrt sich nicht zuletzt damit, dass sie vage und implikations-
reich zugleich ist. Dieser Beitrag beschftigt sich aus rechtlicher Sicht mit ihren
Grundlagen und ihrer Konzeption, den Folgen und den Herausforderungen. Die
Bedeutung und die Funktionen, die (das Recht auf) informationelle Selbstbestim-
mung aus dieser Perspektive hat, erschlieen sich nur im Blick auf bergreifendere
rechtliche Zusammenhnge.
Meine berlegungen mnden in mehrere Ergebnisse. Fr die Entwicklung des
Schutzes einzelner Personen im Hinblick auf den Umgang mit sie betreffenden
Daten und Informationen hat das in seinen Grundzgen im Volkszhlungsurteil
entwickelte Recht auf informationelle Selbstbestimmung (2.1) entscheidende Fort-
schritte gebracht. Das gilt unter anderem, weil es sich durch einen unmittelbaren
Bezug auf die Daten- und Informationsebene auszeichnet, dabei einen relativ hohen
Abstraktionsgrad aufweist und so die Privatsphre als das bis dahin zentrale
Schutzgut abgelst hat (2.2). Privatsphre oder auch Privatheit sind mit he-

* Prof. Dr. Marion Albers | Universitt Hamburg | marion.albers@uni-hamburg.de


1 Z. B. Schwartz, The Computer in German and American Constitutional Law, S. 677ff., 701; siehe
ebenfalls Raab und Goold, Protecting Information Privacy, S. 17; mit differenzierenden berlegun-
gen: Rouvroy und Poullet, The Right to Informational Self-Determination and the Value of Self-
Development, S. 45, 52ff.; zum berblick ber die einschlgigen Grundrechte in europischen
Lndern: Leenes, Koops und De Hert, Constitutional Rights and New Technologies.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_2
12 Marion Albers

terogenen traditionellen Bedeutungsgehalten belastet und in ihren Implikationen


viel zu eng, als dass sie als Leitbeschreibungen des Datenschutzes taugten.2 So
positiv bestimmte Leistungen des Rechts auf informationelle Selbstbestimmung
sind, so sehr ist dessen inhaltliche und rechtsdogmatische Ausgestaltung dezitr
(2.3). Differenzierungen und Weiterentwicklungen in der verfassungsgerichtlichen
Rechtsprechung nach dem Volkszhlungsurteil haben eher zu einigen kontraproduk-
tiven Stabilisierungen, zu Unklarheiten und zu Bruchstellen als zu konzeptionellen
nderungen gefhrt (2.4). Unter anderem arbeitet das BVerfG die informationelle
Selbstbestimmung bis heute mit Hilfe gewohnter dogmatischer Denkmuster ab.
Daten und Informationen sind jedoch eigenstndige Kategorien, die sich strukturell
von den sonst im Grundrechtsdenken prgenden Kategorien, vor allem Entschei-
dung oder Handlung, unterscheiden. berzeugende grundrechtliche Bindungen
und Schutzpositionen setzen deswegen eine gegenstandsgerechte Dogmatik und
an vielen Stellen spezisch zugeschnittene Konstruktionen voraus. Nicht zuletzt
vor dem Hintergrund der Europisierung des Datenschutzes ist es Zeit fr neue
Konzeptionen (3). Die aus grundrechtlicher Sicht wichtigsten Aspekte werden
in drei Abschnitten illustriert. Erstens hat man im Datenschutz nicht allein mit
Daten, sondern mit einem komplexen Netzwerk mehrerer Grundelemente zu tun:
Daten und Informationen, Wissen und Verarbeitungsprozesse, Entscheidungen und
Entscheidungsfolgen (4). Zweitens lsst sich der Datenschutz nicht auf ein ein-
heitliches Schutzgut reduzieren. Aus heutiger Sicht ist es eine geradezu absurde
Idee zu meinen, man knne ein so vielfltiges Feld in nur einem grundrechtlichen
Schutzgut auffangen. Stattdessen verweist der Datenschutz auf ein komplexes Bn-
del von Rechtsbindungen und Rechtspositionen, die auf unterschiedlichen Ebenen
anzusiedeln sind und das Individuum in der Sozialitt schtzen (5). Drittens bedarf
es vielfltiger Regulierungskonzepte, die das Datenschutzrecht angemessen mit
den sachbezogenen Vorschriften im ffentlich- oder im privatrechtlichen Bereich
verzahnen, Muster des Risiko- oder des Technikrechts aufgreifen, bereits bei der
System- und Technikgestaltung ansetzen, individuelle Kenntnis- und Einussrechte
gewhrleisten oder berindividuelle Implementations- und Kontrollmechanismen
institutionalisieren (6). Datenschutzrecht ist alles andere als brokratisch. Es er-
weist sich als modern, als spannend und als ein vielschichtiges, interdisziplinr
ausarbeitungsbedrftiges Feld (7).

2 Ausfhrungen zur Privatheit als Konzept und zu den verschiedenen Relationen zwischen Privatheit
und Recht: Albers, Privatheitsschutz als Grundrechtsproblem, S. 15ff.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 13

2. Konzeption des Rechts auf informationelle


Selbstbestimmung
2.1. Das Volkszhlungsurteil des Bundesverfassungsgerichts
Das Recht auf informationelle Selbstbestimmung ist im Jahre 1983 vom BVerfG im
Volkszhlungsurteil aus Art. 2 i. V. m. Art. 1 GG3 hergeleitet worden.4 Verfahren
und Urteil standen im Fokus ffentlicher Aufmerksamkeit, denn die beabsichtigte
Volkszhlung hatte, hnlich wie heute die Vorratsdatenspeicherung, eine gesell-
schaftsweite Protestbewegung ausgelst. Ein damals innovatives Grundsatzurteil
war das Ergebnis: Jede Person hat, so die vom BVerfG gewhlte Beschreibung des
Schutzbereichs, das Recht, grundstzlich selbst ber die Preisgabe und Verwen-
dung ihrer persnlichen Daten zu bestimmen.5
Genese und Ausgestaltung des Rechts auf informationelle Selbstbestimmung
lassen sich gut erklren. Das Gericht hat zum einen an seine Rechtsprechung
zum Grundrecht auf Achtung der Privatsphre und zum verfassungsrechtlichen
Persnlichkeitsrecht angeknpft und zugleich auf die Kritik an eben dieser Recht-
sprechung reagiert.6 Darber hinaus verarbeitet es Vorarbeiten zum Datenschutz-
recht, die auf der Basis eines relativ schlichten kybernetischen Modells bereits ein
informationelles Selbstbestimmungsrecht entworfen hatten.7 Zum anderen hebt
es Wechselwirkungen zwischen der Selbstbestimmung und der Entscheidungs-
und Verhaltensfreiheit einerseits und dem Schutz persnlicher Daten andererseits
hervor.8 Die Ausdehnung des Grundrechtsschutzes auf den Umgang mit personen-
bezogenen Daten und Informationen gestaltet es dann ganz in Anlehnung an die
Entscheidungs- und Verhaltensfreiheit. Ebenso wie jede Person ihre Handlungen
whlen kann, hat sie das Recht, ber die Verarbeitung ihrer personenbezogenen
Daten selbst zu bestimmen.
Kernelement des Rechts auf informationelle Selbstbestimmung ist danach ein
relativ abstraktes und dadurch weit reichendes individuelles Entscheidungsrecht,
das sich von der Preisgabe bis zur Verwendung personenbezogener Daten erstreckt.
3 Art. 2 Abs. 1 GG lautet: Jeder hat das Recht auf die freie Entfaltung seiner Persnlichkeit [. . . ].
Art. 1 Abs. 1 GG hlt fest: Die Wrde des Menschen ist unantastbar. Sie zu achten und zu schtzen
ist Verpichtung aller staatlichen Gewalt.
4 BVerfGE 65, 1 (42ff.).
5 BVerfGE 65, 1 (43). Zur Analyse der Entscheidung und ihrer Hintergrnde: Albers, Informationelle
Selbstbestimmung, S. 149ff.
6 Dazu sogleich in Abschnitt 2.2 dieses Beitrags
7 Siehe dazu Steinmller u. a., Grundfragen des Datenschutzes, Anl. 1; literarische Quellen des Volks-
zhlungsurteils werden offengelegt bei Heuner (Berichterstatter im entscheidenden Senat), Das
informationelle Selbstbestimmungsrecht in der Rechtsprechung des Bundesverfassungsgerichts,
S. 280f.
8 BVerfGE 65, 1 (42f.).
14 Marion Albers

Im Hintergrund steht das berkommene dogmatische Modell, dass Grundrechte


primr dem Schutz von Individuen gegen Eingriffe des Staates dienen, die im
Ergebnis nicht unzulssig, aber nur dann verfassungsmig sind, wenn sie eine
Reihe verfassungsrechtlicher Anforderungen erfllen. Das hergeleitete Entschei-
dungsrecht ist insofern, passend zum Sachverhalt des Volkszhlungsurteils, als
ein individuelles Abwehrrecht gegen staatliche Eingriffe geschtzt. Aus der Fas-
sung des Schutzbereichs folgt, dass grundstzlich jeder Schritt der Verarbeitung
personenbezogener Daten als Eingriff in das Recht auf informationelle Selbstbe-
stimmung einzustufen ist. Entsprechend den verfassungsrechtlichen Anforderungen
an Eingriffe bedrfen smtliche Datenverarbeitungsschritte einer Rechtsgrundlage,
die unter anderem die Grundstze der Zweckfestlegung und der Zweckbindung, das
Bestimmtheitsgebot und den Verhltnismigkeitsgrundsatz beachtet.9 Auskunfts-
rechte der Grundrechtstrger kommen hinzu, sind aber konzeptionell akzessorisch.

2.2. Leistungen des Rechts auf informationelle Selbstbestimmung


Leistungs- und Funktionsbeschreibungen hngen vom Bezugskontext und von ge-
whlten Perspektiven ab. Einige zentrale Leistungen des Rechts auf informationelle
Selbstbestimmung sollen hervorgehoben werden. Aus gesellschaftspolitischer Sicht
hat es dem Datenschutz breite Aufmerksamkeit verschafft. Aus grundrechtsdogma-
tischer Perspektive ist der Schutz von Personen hinsichtlich des Umgangs anderer
mit personenbezogenen Informationen und Daten seither als selbststndiges Grund-
rechtsthema anerkannt. Ein gewisser Schutz ist zwar bereits vorher aus dem Recht
auf Achtung der Privatsphre und aus dem allgemeinen Persnlichkeitsrecht herge-
leitet worden. In beiden Fllen handelte es sich aber um ein anderweitig abgesttztes
Schutzgut, das sich ber einen Schutz bestimmter Verhaltensweisen hinaus auf die
Daten- und Informationsebene erstreckte. Datenschutz blieb insofern an ein ander-
weitiges Schutzgut gekoppelt und dadurch beschrnkt. Beispielsweise wurde die
zu achtende Privatsphre in der ursprnglichen Rechtsprechung mit Hilfe einer
verrumlichenden Metaphorik als abgeschotteter Bereich verstanden, in dem man
allein oder in Ruhe gelassen werden will.10 Soweit diese Sphre reichte, schtzte
sie in ihr stattndende Verhaltensweisen oder Kommunikationen und schloss ein,
dass Vorgnge oder Dokumente, die in ihr entstanden oder sich in ihr befanden, dem
staatlichen Einblick grundstzlich entzogen blieben. Man musste konkretisieren,
was eigentlich zur Privatsphre zhlte, und der Datenschutz setzte das Vorliegen
einer solchen Sphre voraus. Kritik an diesem Konzept stellte sich schnell ein.

9 BVerfGE 65, 1, 44ff.


10 So konzipiert auch in dem einussreichen Aufsatz von Warren und Brandeis, The Right to Priva-
cy, S. 193ff.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 15

Hinweise auf die Relativitt der Privatsphre11 hoben die Pluralisierung und
Individualisierung des Privatheitsverstndnisses hervor. Grundrechtsdogmatisch
lsst sich diese Kritik aber auffangen, indem man das Selbstverstndnis der ge-
schtzten Personen bei der Konkretisierung des Schutzbereichs so weit wie mglich
bercksichtigt und im brigen, wie es im Recht immer erforderlich ist, typisiert.
Entscheidend war und ist ein anderer Kritikpunkt: Fr Datenschutzerfordernisse
komme es weniger auf die private Sphre als Entstehungskontext bestimmter Daten
als vielmehr darauf an, welche Informationen aus erlangten Daten gewonnen und
wie sie verwendet wrden.12 Dieses Argument lenkt den Blick von Daten auf die
Gewinnung und Verwendung von Informationen und auf deren Folgen fr die
betroffene Person. Es trifft die zentrale Schwche des Privatsphrenkonzepts. In
der Rechtsprechung des BVerfG hat es schnell Flle gegeben, in denen man Infor-
mationen mit Blick auf ihren Aussagegehalt als privat einstufen konnte, ohne
dass sie einer privaten Sphre entstammten. Beispiel ist ein in der Regenbogen-
presse abgedrucktes Interview mit Prinzessin Soraya ber Privatangelegenheiten,
das die Presse frei erfunden hatte.13 Im Volkszhlungsurteil greift das BVerfG
ausdrcklich das Argument auf, dass dem Verwendungszusammenhang fr die
rechtliche Beurteilung von Daten(verarbeitungen) zentrale Bedeutung zukommen
muss. Damit rckt es den Umgang mit personenbezogenen Daten und Informatio-
nen als solchen in den Mittelpunkt. Der darauf gerichtete Grundrechtsschutz wird
exibilisiert und fr vielfltige Schutzerfordernisse geffnet. Die damals wie heute
relevante berwachung von politischen Aktivitten oder von Demonstrationen
beispielsweise lsst sich nicht unter die Privatsphre und bestenfalls mit Mhe
unter eine erweitert verstandene Privatheit qulen. Privatheit mag, angemessen
konzipiert, Teilfacetten des Datenschutzes erfassen; Datenschutz ist aber weitaus
mehr als Privatheitsschutz. Der unmittelbar auf personenbezogene Daten und Infor-
mationen gerichtete Schutz und die ffnung fr vielfltige, gegebenenfalls knftig
erst entstehende Schutzerfordernisse sind ein wichtiger Fortschritt, den das Recht
auf informationelle Selbstbestimmung gebracht hat.

2.3. Dezite des Rechts auf informationelle Selbstbestimmung


Dezite des Rechts auf informationelle Selbstbestimmung lassen sich vor allem
damit erklren, dass das BVerfG den neuartigen Schutzgegenstand unter den konven-
tionellen grundrechtsdogmatischen Zugriff gepresst und vollstndig in Denkmustern
der traditionellen Eingriffsabwehr einzufangen versucht hat. Die traditionelle Ein-
11 So z. B. Schlink, Das Recht der informationellen Selbstbestimmung, S. 242; siehe auch Solove,
The Digital Person, S. 212f.
12 Frhzeitig Simitis, Chancen und Gefahren der elektronischen Datenverarbeitung, S. 680.
13 BVerfGE 34, 269.
16 Marion Albers

griffsabwehr arbeitet aus dogmatischen Grnden mit individualistisch konzipierten


Schutzgtern, die als nicht aus sich heraus strukturell begrenzt gedacht werden
knnen: individuelle Handlungen, die man nach Magabe des eigenen Willens
realisiert, oder individuelles Eigentum an Sachen, ber deren Gebrauch man selbst
entscheidet. Ganz im Sinne dieser Denkweise wird der Schutzgehalt des Rechts
auf informationelle Selbstbestimmung mit einem eigentumsanalogen, allein das
Individuum fokussierenden Ansatz beschrieben14 , nmlich als Verfgungsbefugnis
ber die Preisgabe und dann von anderen vorgenommene Verarbeitung personenbe-
zogener Daten.15
Ein solcher Zugriff wird der eigenstndigen Kategorialitt und den Charakteris-
tika von Daten, Informationen und Wissen aber nicht gerecht. Er bringt ontische
Vorstellungen mit sich, als seien Informationen eine Art Abbild der Realitt oder
Daten eine Art Ball, den man zurckhalten, weitergeben oder verwenden knnte
und der sich bei all dem nicht verndert. Daten und Informationen werden zudem
behandelt, als seien sie Synonyme. Es geht unter, dass an der Verarbeitung perso-
nenbezogener Daten und vor allem an der Gewinnung oder Verwendung der aus
den Daten entwickelten Informationen andere, seien es staatliche Stellen, seien
es andere Private, strukturell mit eigenen (Interpretations- und Verarbeitungs-)
Leistungen beteiligt sind. Vor diesem Hintergrund ist es kein Zufall, dass sich
der Schutzbereich informationeller Selbstbestimmung auf Daten, nicht etwa auf
Informationen bezieht. Ein grundstzlich bestehendes Recht einer Person, darber
zu entscheiden, welche Informationen andere ber sie gewinnen und wie sie sie
verwenden, wirkte eigenartig. Es griffe, soweit es sich um Private handelt, tief in
deren eigene Freiheiten ein, und zwar selbst dann, wenn man diese Freiheiten nicht
als prinzipiell unbegrenzte Freiheiten zur beliebigen Informationsgewinnung und
-verwendung konstruiert. Da sich personenbezogene Informationen im Rahmen
sozialer Zusammenhnge als etwas zwischen Menschen einstufen und auer-
dem nicht ontisch verstehen lassen, geht ein auf individualistische Attributionen
14 Zwar hat das BVerfG auch die oft zitierten Ausfhrungen festgehalten: Der Einzelne hat nicht
ein Recht im Sinne einer absoluten, uneinschrnkbaren Herrschaft ber seine Daten; er ist viel-
mehr eine sich innerhalb der sozialen Gemeinschaft entfaltende, auf Kommunikation angewiesene
Persnlichkeit. Information, auch soweit sie personenbezogen ist, stellt ein Abbild sozialer Reali-
tt dar, das nicht ausschlielich dem Betroffenen allein zugeordnet werden kann., BVerfGE 65, 1
(46). Diese Ausfhrungen stehen aber im Zusammenhang mit den Einschrnkungsvorbehalten und
ndern nichts am Zuschnitt des Schutzbereichs.
15 Die Beschreibung deckt sich mit einigen amerikanischen Konzeptionen von privacy Ende der
1960er/Anfang der 1970er Jahre, vgl. vor allem Westin, Privacy and Freedom, S. 42; Fried, Priva-
cy (A Moral Analysis), S. 428f., bei dem es heit: Privacy is the control we have over information
about ourselves (. . . ), is control over knowledge about oneself. Umfassend zu den berkommenen
und einussreichen amerikanischen Konzeptionen Solove, Conceptualizing Privacy, S. 1099ff.
bergreifender mit Blick auch auf internationale und europische Entwicklungen Gratton, Under-
standing Personal Information, S. 1ff.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 17

beschrnktes Denken fehl. Informationen, aber auch Daten knnen einer Person
selbst dann, wenn sie in ihrem Aussagegehalt auf diese Person verweisen, nicht
grundstzlich16 eigentumshnlich zugeordnet werden.17 Ein solcher Ansatz passt
nicht und er zieht eine Vielzahl weiterer Dezite nach sich.
Der Schutzbereich des Rechts auf informationelle Selbstbestimmung bezieht sich
auf Daten, nher auf das einzelne personenbezogene Datum, und im Weiteren auf
dessen Verarbeitung in einer Abfolge bestimmter Schritte Erhebung, Speicherung,
Vernderung, Nutzung, bermittlung. Damit gelangt man zu einem isolierend auf
einzelne Daten und Verarbeitungsschritte ausgerichteten Blick statt, wie es gegen-
standsgerecht wre, zu einem kontext- und prozessbezogenen Ausgangspunkt, in
dessen Rahmen sich problembezogen bestimmte Verarbeitungsschritte fokussie-
ren lieen. Wegen der Fassung des Schutzgehalts und des daraus resultierenden
Erfordernisses einer gesetzlichen Regelung fr jeden Schritt der Verarbeitung perso-
nenbezogener Daten ist im Laufe der Zeit eine Flle gesetzlicher Vorschriften ent-
standen, die jedoch zum Teil wenig substantiellen Steuerungsgehalt aufweisen und
mit den sachbezogenen Vorschriften des jeweiligen Regelungsfeldes unzureichend
abgestimmt sind. Verrechtlichungsfalle lautet hierzu das Schlagwort. Des weite-
ren kommt nicht hinreichend zum Ausdruck, welch elementare Rolle Kenntnis-,
Einuss- und Partizipationsrechte der betroffenen Personen im Datenschutzrecht
spielen mssen. Sowohl unter inhaltlichen als auch unter grundrechtsdogmatischen
Aspekten greifen die Lsungen des Gerichts zu kurz.

2.4. Weitere Entwicklungen des Rechts auf informationelle


Selbstbestimmung
Nach dem Volkszhlungsurteil hat sich das Recht auf informationelle Selbstbestim-
mung in der Rechtsprechung des BVerfG einerseits in den Grundzgen stabilisiert,

16 Formen der Kommerzialisierung sind unabhngig davon, ob man sie in Teilbereichen fr sinnvoll
hlt oder nicht vgl. dazu Weichert, Die konomisierung des Rechts auf informationelle Selbst-
bestimmung, S. 1464ff.; Wem gehren die privaten Daten?, bes. S. 283ff. immer (nur) eine un-
terverfassungsrechtliche Frage der gesetzgeberischen Gestaltung von Eigentumsrechten. Vgl. auch
den allenfalls in begrenzten Feldern berzeugenden Ansatz bei Buchner, Informationelle Selbstbe-
stimmung im Privatrecht, S. 201ff. Siehe auerdem Buchner, Die Einwilligung im Datenschutz-
recht, S. 39ff. Ebenfalls zur Diskussion, wenn auch nicht immer berzeugend, Unseld, Die Kom-
merzialisierung personenbezogener Daten.
17 Die Kritik daran ist im juristischen Kontext zunehmend verbreitet, vgl. etwa Albers, Zur Neu-
konzeption des grundrechtlichen Datenschutzes, S. 113, 119, 123; Trute, Verfassungsrechtliche
Grundlagen, Kap. 2.5, Rn. 19, 21, 22; Ladeur, Das Recht auf informationelle Selbstbestimmung,
S. 48ff.; Britz, Informationelle Selbstbestimmung zwischen rechtswissenschaftlicher Grundsatz-
kritik und Beharren des Bundesverfassungsgerichts, S. 566ff. Vgl. auch Allen, Privacy As Data
Control, S. 865ff.
18 Marion Albers

andererseits in bestimmtem Umfang weiterentwickelt. Zugleich werden in der


Rechtsprechung zahlreiche Bruchstellen und Unklarheiten erkennbar.18
Bis heute bleibt der Grundansatz des Gerichts der im Volkszhlungsurteil ge-
whlten Beschreibung des Schutzbereichs ebenso verhaftet wie den traditionellen
dogmatischen Denkmustern. Informationelle Selbstbestimmung schtzt, so hlt das
Gericht regelmig fest, die Befugnis des Einzelnen, grundstzlich selbst ber
die Preisgabe und Verwendung seiner persnlichen Daten zu bestimmen.19 In
manchen Entscheidungen nden sich freilich Relativierungen: In der Entscheidung
zur Rasterfahndung hat das Gericht offen gelassen, ob das Recht auf informationel-
le Selbstbestimmung vor der Erhebung jedes einzelnen erfassten Datums schtzt.
Als mageblich hat es angesehen, dass die Datenerhebung und -verarbeitung auf
die Gewinnung von Erkenntnissen ber Verdachtsmomente und gefahrenverstr-
kende Eigenschaften von Personen zielt und Personen in das Visier staatlicher
berwachungsttigkeit gelangen knnen.20 Hier klingt eine Differenzierung von
Daten und Informationen an. Sie scheint auch in anderen Fllen auf21 , dies in der
Regel freilich erst zur Bestimmung der Eingriffsintensitt und im Rahmen der
Abwgung.22 In weiteren Entscheidungen beschreibt das Gericht informationelle
Selbstbestimmung als einen den grundrechtlichen Schutz von Verhaltensfreiheit
und Privatheit ankierenden und erweiternden Schutz, der schon auf der Stufe
der Persnlichkeitsgefhrdung beginne.23 Teilweise sieht es in der Erhebung von
Daten aus ffentlich zugnglichen Quellen keinen Eingriff, soweit sich nicht aus
deren systematischer Erfassung, Sammlung und Verarbeitung die fr das Recht auf

18 Vgl. hierzu bereits ausfhrlich Albers, Umgang mit personenbezogenen Informationen und Da-
ten, 22 Rn. 62ff.
19 Vgl. zuletzt aus der stndigen Rechtsprechung BVerfG, Urteil vom 19.04.2016, 1 BvR 3309/13, Rn.
56, abrufbar unter http://www.bverfg.de.
20 BVerfGE 115, 320 (342ff.). Die Auseinandersetzung mit dem Schutzgehalt des Rechts auf infor-
mationelle Selbstbestimmung liegt bei der Rasterfahndung nahe: Einerseits bedingt diese Methode
der rechnergesttzten Massendatenverarbeitung die Erhebung und Verarbeitung einer Vielzahl ein-
zelner, dabei auch fr sich genommen belangloser personenbezogener Daten, deren Verarbeitung
unter bestimmten Umstnden praktisch folgenlos bleiben kann; andererseits steht dies im Kontext
sicherheitsbehrdlicher Ermittlungen mit deren potenziellen Folgen fr davon Betroffene.
21 Vgl. auch die Reformulierung in BVerfGE 118, 168 (185); 120, 378 (399); 130, 151 (183f.), es ge-
be unter den Bedingungen der elektronischen Datenverarbeitung bzw. angesichts der Verarbeitungs-
und Verknpfungsmglichkeiten kein schlechthin, also ungeachtet des Verwendungskontextes, be-
langloses personenbezogenes Datum (Hervorhebung von M. A.).
22 Vgl. etwa BVerfGE 133, 277 (350ff.).
23 BVerfGE 118, 168 (184f.); 120, 274 (312); 120, 351 (360); 120, 378 (397ff.). Vgl. auch BVerfG
(Kammer), Beschl. vom 24.07.2015, 1 BvR 2501/13, http://www.bverfg.de, Rn. 11: Das Recht auf
informationelle Selbstbestimmung trgt Gefhrdungen und Verletzungen der Persnlichkeit Rech-
nung, die sich fr den Einzelnen aus informationsbezogenen Manahmen ergeben.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 19

informationelle Selbstbestimmung spezische Gefhrdungslage ergibt.24 Dass mit


einer solchen Schutzbegrenzung ein Rckfall in eine viel zu schlichte Differenz
zwischen geschtzter Privatheit und nicht geschtzter ffentlichkeit droht, belegt
die Entscheidung zum Cybercrime-Convention-Gesetz.25 All dies zeigt, dass das
BVerfG den Reformbedarf bei der Beschreibung des Schutzguts zwar sieht;26 es
geht jedoch nicht den Weg hin zu einer grundlegenden und umfassenden konzeptio-
nellen Vernderung, sondern bleibt bei punktuell-eklektizistischen, unterkomplexen
und teilweise verfehlten Modikationen stehen.
Dogmatisch sind die Denkmuster der traditionellen Eingriffsabwehr weiterhin
prgend fr den Zugriff des Gerichts: Den Schutzbereich bestimmt ein individua-
listisch gestaltetes Schutzgut. Eingriffe in den Schutzbereich sind dann, aber auch
nur dann verfassungsmig, wenn sie auf einer gesetzlichen Grundlage beruhen
und das Bestimmtheitsgebot, das bermaverbot sowie alle weiteren einschlgigen
verfassungsrechtlichen Anforderungen einhalten. Dieser Zugriff bewirkt unter an-
derem, dass das bermaverbot als wesentliche Grundlage datenschutzrechtlicher
Anforderungen herhalten muss. Damit wird diese Figur berfordert. Immerhin
wird in einigen Entscheidungen die Gewhrleistung der Kenntnismglichkeiten der
geschtzten Grundrechtstrger von einer zunchst lediglich akzessorischen Schutz-
vorkehrung27 zu einer eigenstndigen Komponente in Gestalt leistungsrechtlicher
Schutzpositionen aufgewertet, welche gegenstands- und problembezogen gesetzlich
ausgestaltet werden mssen.28 Fr die rechtlichen Bindungen im Verhltnis unter
Privaten greift das Gericht auf Schutzpichten und/oder auf die Dogmatik der

24 BVerfGE 120, 274 (344f.); 120, 351 (361f.). Die Ausfhrungen betreffen das bloe behrdliche
Surfen im Internet oder Angaben aus Telefonbchern oder Handelsregistern. Vgl. auch die Aus-
fhrungen in BVerfGE 120, 378 (399). In der Entscheidung zur Online-berwachung verneint das
Gericht einen Eingriff grundstzlich selbst dann, wenn eine staatliche Stelle unter Verschleierung
ihrer Identitt im Rahmen internetvermittelter Kommunikationsbeziehungen zu Grundrechtstrgern
Daten ber diese sammelt, weil es hier von vornherein am Vertrauen hinsichtlich der Identitt der
Kommunikationspartner fehle, BVerfGE 120, 274 (345). Diese Ausfhrung ist in ihrer Pauschalitt
nicht tragfhig und von einer berholten Dichotomie von realer und virtueller Welt geprgt.
25 BVerfG, Beschl. vom 21.06.2016, 2 BvR 637/09, mit Sondervotum Huber, abrufbar unter http:
\\www.bverfg.de.
26 Das liegt auch deshalb nahe, weil sich die genetischen Grundlagen des Rechts auf informationel-
le Selbstbestimmung inzwischen ihrerseits an zentralen Stellen gendert haben, vgl. nher Albers,
Umgang mit personenbezogenen Informationen und Daten, Rn. 64, mit Hinweisen auf die rele-
vanten Entscheidungen.
27 Im Volkszhlungsurteil hat dies wegen der Fallkonstellation ausgereicht.
28 Vgl. BVerfGE 120, 351 (362ff.); BVerfG (Kammer), DVBl 2001, S. 275. Die BKA-Entscheidung,
BVerfG, Beschl. v. 20.04.2016, 1 BvR 966/09 u. a., http:\\www.bverfg.de, Rn. 134ff., ordnet Kennt-
nismglichkeiten demgegenber wiederum dem bermaverbot bei eingriffsabwehrrechtlichem
Ausgangspunkt zu.
20 Marion Albers

mittelbaren Drittwirkung zurck.29 Die Probleme der Grundkonzeption werden


dadurch in dieses Verhltnis bertragen und teilweise verschrft.
Die nheren verfassungsrechtlichen Anforderungen an Gesetze oder an behrd-
liche Manahmen und gerichtliche Entscheidungen sind im Laufe der Zeit dif-
ferenziert und verfeinert worden. Das gilt umso mehr, als der grundrechtliche
Datenschutz nicht nur im Recht auf informationelle Selbstbestimmung aus Art. 2
Abs. 1 i. V. m. Art. 1 Abs. 1 GG, sondern auch in anderen Freiheitsgewhrleistungen
verankert wird. Zu den relevanten Gewhrleistungen gehrt insbesondere die Verbr-
gung des Telekommunikationsgeheimnisses. Das Gericht bezeichnet Art. 10 Abs. 1
GG als eine gegenber dem Recht auf informationelle Selbstbestimmung spezielle
Garantie. Die aus den beiden Grundrechten folgenden Anforderungen werden
partiell parallelisiert.30 Sie reichen von Einschreit- und Verarbeitungsschwellen,
dies teilweise auch in Form eines gestuften Datenzugangs verschiedener Stellen,
ber die Zweckfestlegung und prinzipielle Zweckbindung nebst Kennzeichnungs-
pichten zur Sicherstellung der Zweckbindung bis hin zur Gewhrleistung eines
besonders hohen Standards der Datensicherheit durch Verpichtungen Privater
im Falle der vorsorglich anlasslosen Datenspeicherung.31 Als Grundlage der
entwickelten Anforderungen dienen regelmig das bermaverbot oder die Figur
der organisations- und verfahrensrechtlichen Schutzvorkehrungen.32
Funktionsbeschreibung und Ausgestaltung wichtiger Bausteine knnen allein auf
der Folie des bermaverbots oder der Schutzvorkehrungen aber nicht gelingen.
Das zeigt sich etwa mit Blick auf die Bausteine der Zweckfestlegung, Zweckbin-
dung und Zwecknderung.33 Darber hinaus verweisen sowohl das bermaverbot
als auch die Figur der Schutzvorkehrungen in bestimmtem Umfang auf die in-
haltlichen Aussagen des Schutzbereichs zurck. Diese mssen somit berzeugend

29 BVerfGE 84, 192 (194ff.); BVerfG (Kammer), Beschluss vom 17.07.2013, 1 BvR 3167/08, , Rn. 19,
http:\\www.bverfg.de.
30 Vgl. exemplarisch BVerfGE 100, 313 (358); 109, 279 (325f.); 110, 33 (53); 125, 260 (310).
31 Zu den nheren Magaben etwa BVerfGE 100, 313 (360f.); 109, 279 (379f.); 115, 320 (359ff.);
118, 168 (186ff.); 120, 351 (366ff.); 120, 378 (407ff.); 125, 260 (325ff.); 130, 151 (187ff.); 133, 277
(320ff.); in Form einer begreifenden Zusammenfassung s. auch BVerfG, Beschl. v. 20.04.2016, 1
BvR 966/09 u. a., Rn. 93ff., http://www.bverfg.de.
32 Vgl. zuletzt BVerfGE 130, 151 (187ff.); 133, 277 (320ff.); BVerfG, Beschl. v. 20.04.2016, 1 BvR
966/09 u. a., http:\\www.bverfg.de, Rn. 93ff., bes. 103ff.
33 Nicht treffend hierzu etwa BVerfG, Beschl. v. 20.04.2016, 1 BvR 966/09 u. a., http : / / www .
bverfg . de, Rn. 278ff.: Hier geht das BVerfG davon aus, der Gesetzgeber und die jeweilige Ein-
griffsgrundlage bestimmten den Zweck und die Zweckbindung bestimme sich nach der Reichweite
der Erhebungszwecke in der fr die jeweilige Datenerhebung mageblichen Ermchtigungsgrundla-
ge, anstatt als Ausgangspunkt zugrundezulegen, dass Gesetzgeber und Gesetz einen begrenzenden
und strukturierenden Rahmen setzen, innerhalb dessen die Akteure, hier die Sicherheitsbehrden,
Verwendungszwecke konstellations- oder fallorientiert weiter spezizieren mssen. Vgl. zu diesen
Bausteinen nher: Albers, Informationelle Selbstbestimmung, S. 497ff.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 21

ausgearbeitet sein, damit die Przisierung und Relationierung der jeweils invol-
vierten Interessen oder die funktionalen Erwgungen, mit Hilfe derer die ntigen
Schutzvorkehrungen bestimmt werden, normativ abgesichert sind. Anderenfalls
entsteht die Gefahr, dass Anforderungen hervorgezaubert werden, die im zu ent-
scheidenden Fall durchaus passen mgen, aber normativ nicht stringent hergeleitet
und deswegen nicht hinreichend stabilisierbar sind.
Bislang hat sich das BVerfG noch nicht konsequent genug auf die Charakteristika
und Anforderungen eines gerade informations- und datenorientierten Schutzes ein-
und umgestellt. Insgesamt wird im individualistisch-eingriffsabwehrrechtlichen
Zuschnitt des Rechts auf informationelle Selbstbestimmung nicht deutlich, wie sehr
der Datenschutz auf eine schutzzielgerechte, sich auf mehreren Ebenen bewegende,
vielfltige Bausteine umfassende und miteinander koordinierende Ausgestaltung
im Wege verschiedener Ebenen und Formen des Rechts angewiesen ist.

3. Zeit fr eine Neukonzeption


Seit einiger Zeit ist nicht nur das Datenschutzrecht, sondern auch dessen grund-
rechtliche Basis, das Recht auf informationelle Selbstbestimmung, Gegenstand
von Reformdiskussionen. Hinweise auf vernderte gesellschaftliche und technische
Rahmenbedingungen greifen dabei zu kurz. Vielmehr mssen die grundlegenden
Denkmuster, mit denen man arbeitet, kritisch reektiert und gegenstandsgerecht
angelegt werden. Zukunftsorientierte Lsungen liegen nicht in einer Rckkehr zur
Privatsphre oder in einer Hinwendung zur Privatheit als Leitidee. Sobald deutlich
ist, um welch fundamentale und eigenstndige Kategorien es sich bei Daten und
Informationen handelt, wird erkennbar, dass der grundrechtliche Datenschutz als ein
vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen ausgearbeitet
werden muss.
Fr eine Neukonzeption ist es auch deswegen an der Zeit, weil das Datenschutz-
recht vor einer weit reichenden Europisierung steht. Ab dem Jahr 2018 werden
sowohl die neue Datenschutz-Grundverordnung als auch die neue Datenschutz-
Richtlinie in den Bereichen der Straftatenverhtung, -untersuchung, -aufdeckung
und -verfolgung oder der Strafvollstreckung greifen. Damit wird sich der Grund-
rechtsschutz in Teilen von den nationalen Gewhrleistungen auf die Grundrechte
der Charta der Europischen Union (GrC) verlagern. Wie weit diese Verlagerung rei-
chen wird, hngt von mehreren, partiell klrungsbedrftigen Faktoren ab, etwa von
der Gestaltung des Vorrangs der Verordnung gegenber nationalem Recht oder vom
Aussagegehalt der ffnungsklauseln zu Gunsten der Mitgliedstaaten. Unabhngig
von den insoweit voraussehbaren Streitfragen werden die unionalen Grundrechte
erheblich an Relevanz gewinnen. Ein Recht auf informationelle Selbstbestim-
22 Marion Albers

mung, wie das BVerfG es hergeleitet hat, enthlt die GrC aber nicht, und bereits
aus rechtsmethodischen Grnden darf man deutsche Konzeptionen nicht einfach in
die unionale Charta hineinlesen. Art. 8 Abs. 1 GrC sieht vor: Jede Person hat das
Recht auf Schutz der sie betreffenden personenbezogenen Daten. Art. 8 Abs. 2 und
3 GrC halten das Erfordernis einer Zweckfestlegung, einen Einwilligungs- oder Ge-
setzesvorbehalt, Kenntnis- und Berichtigungsrechte sowie die Datenschutzkontrolle
durch eine unabhngige Stelle fest. Art 7 GrC schtzt in weit gehendem Gleich-
klang mit Art. 8 Abs. 1 der Europischen Menschenrechtskonvention (EMRK) das
Recht jeder Person auf Achtung ihres Privat- und Familienlebens, ihrer Wohnung
sowie ihrer Kommunikation. Eine gefestigte Dogmatik, wie die jeweiligen Inhalte
und die Beziehungen zwischen diesen Rechten zu interpretieren sind, muss sich
erst noch herausbilden.34 In der Entscheidung des EuGH zur Vorratsdatenspeiche-
rung klingt an, dass Art. 8 GrC in einer nicht auf das Privatleben beschrnkten
Weise die Verarbeitung personenbezogener Daten in den Blick nimmt und daran
eigenstndige Anforderungen stellt, whrend Art. 7 GrC in inhaltlicher Akzentu-
ierung dem Schutz des Privatlebens dient.35 Die Grundrechte-Charta enthlt noch
eine Reihe anderer inhaltlicher Freiheiten, etwa die Meinungsuerungs- oder die
Berufsausbungsfreiheit. Auf unionaler Ebene gibt es somit kein Verfgungsrecht,
sondern ein Recht auf Schutz personenbezogener Daten, ergnzt um bestimmte
inhaltliche Mastbe.
In den nchsten Jahren ist mit wechselseitigen Einssen der Aussagegehal-
te unionaler und nationaler Gewhrleistungen aufeinander zu rechnen. Denn das
Recht auf Schutz personenbezogener Daten ist konkretisierungsbedrftig36 und
die Rechtsprechung des EuGH noch nicht ausgefeilt, so dass dieser Art. 8 GrC
knftig mit konkreteren Vorgaben auffllen, sich hier von passenden nationalen
Schutzkonzeptionen anregen lassen und diese dann europisch zuschneiden wird.
Umgekehrt kann man bei der Suche nach einem neuen Konzept fr das deutsche
Recht auf informationelle Selbstbestimmung aufgreifen, dass die unionale Fassung
als ein Recht auf Schutz akzentuiert ist, das ganz abstrakt formuliert und mit sinn-
vollen normativen Magaben anzureichern ist. Damit man nicht immer wieder mit
entscheidungsrelevanten Abgrenzungsschwierigkeiten der Anwendbarkeit entweder
unionaler oder nationaler Grundrechte zu kmpfen hat, ist eine gewisse Konvergenz
der Schutzkonzeptionen bei Eigenstndigkeiten im Detail angezeigt. Fr eine ge-
genstandsgerechte Konzeption ist wichtig, wie der Gegenstand zu erfassen ist, mit
dem man zu tun hat, wie die grundrechtlich geschtzten Interessen zu begreifen und

34 Nher Albers, Umgang mit personenbezogenen Informationen und Daten, Rn. 43ff.
35 EuGH, Urt. v. 8.4.2014, C-293/12 u. C-594/12, Rn. 29f.
36 Vgl. hierzu auch Stentzel, Das Grundrecht auf. . . ?, S. 188ff., hier mit der These, dass (nur) das
Privatleben des Art. 7 GrC schutzgutrelevante Mastbe liefere.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 23

zu konkretisieren sind und wie sich vor diesem Hintergrund Regulierungskonzepte


gestalten mssen.

4. Der Gegenstand des Datenschutzes als Netzwerk mehrerer


Elemente
Datenschutz zielt nicht auf den Schutz von Daten, sondern auf den Schutz der Perso-
nen, auf die sich Daten beziehen. Gegenstand des Schutzes sind dann aber auch gar
nicht personenbezogene Daten als solche.37 Man muss diese isolierte Betrachtung
um mehrere Elemente erweitern: auf basaler Ebene um das Element der Information,
in der Strukturdimension um Wissen, in der Zeitdimension um Verarbeitungsprozes-
se und im weiteren Kontext um Entscheidungen und Entscheidungsfolgen. Daten,
Informationen, Wissen oder Entscheidungen sind grundlegende Kategorien, die
viele Disziplinen benutzen und die disziplinenspezisch in Abhngigkeit von Rah-
mung und Erkenntnisinteressen deniert werden.38 Im hier fokussierten rechtlichen
Zusammenhang kommt es darauf an, sie vor dem Hintergrund normativer Schutz-
und Ausgestaltungserfordernisse angemessen zu erfassen.
Daten lassen sich als Zeichen beschreiben, die auf einem Datentrger festgehalten
und so vergegenstndlicht sind.39 Sie sind immer selektiv und weniger als einzelnes
Datum von Bedeutung, sondern im Rahmen von wissensrelevanten Speicher- und
Verknpfungsformen in der Strukturdimension und Datenverarbeitungsprozessen
in der Zeitdimension. Daten, Speicherformen und Verarbeitungsprozesse werden
durch die verschiedenen Medien, Techniken und Netze geprgt. Aus rechtlicher
Sicht ist entscheidend, dass Daten aufgrund ihrer Vergegenstndlichung einen fass-
baren Anknpfungspunkt fr eine rechtliche Steuerung bieten. Relevanz gewinnen
sie jedoch erst als potentielle Informationen. Ihr Informationsgehalt ist freilich
keine intrinsische Eigenschaft, die den Daten anhaftet.40
Informationen sind Sinnelemente mit einer zweigliedrigen Struktur: Auf der
einen Seite knpfen sie an etwas in der Auenwelt Beobachtetes, an Mitteilungsin-
halte oder an Daten an. Auf der anderen Seite werden sie durch Interpretationsleis-
37 Damit relativiert sich in sinnvoller Weise die rechtliche Bedeutung der Personenbezogenheit.
Diese kann schwer festzustellen sein und ergibt sich nicht selten erst im Kontext oder Ablauf der
Verarbeitungsnetze und -schritte. Dazu Gratton, Understanding Personal Information, S. 21ff., 93ff.
Zudem lsst sich der Datenschutz so besser mit Rechtsbindungen und Schutzpositionen abstimmen,
die man etwa als Diskriminierungsschutz in den Feldern entwickeln muss, in denen es nicht um
personenbezogene Informationen und Daten geht.
38 Vgl. Floridi, Information: A Very Short Introduction, S. 19ff. Zur Diskussion darum, ob es ein
einheitliches begrifiches Ur-Konzept geben kann Floridi, Information, S. 40ff.
39 Ausfhrlich zu Konzepten Kitchin, The Data Revolution, S. 2ff.
40 Siehe mit Bezug auf Kommunikation Ashby, An introduction to Cybernetics, S. 124: The informa-
tion conveyed is not an intrinsic property of the individual message.
24 Marion Albers

tungen vollendet, mittels derer die beobachteten Phnomene, die Mitteilungsinhalte


oder die Daten sinnhaft verstanden werden.41 Informationen bezeichnen also Sinn-
elemente, die als Inhalt einer Beobachtung, einer Mitteilung oder eines Datums mit
Hilfe einer Interpretationsleistung erzeugt werden. Vor diesem Hintergrund sind
Daten und Informationen keine Synonyme, sondern im Gegenteil strikt zu unter-
scheiden. Informationen sind auf elementare Weise kontextabhngig. Indem sie eine
Interpretationsleistung voraussetzen, die im jeweiligen Wissens- und Deutungskon-
text und in Abhngigkeit von den je situativen Interpretationsbedingungen erfolgt,
verweisen sie auf die Strukturen und Prozesse, in deren Rahmen sie berhaupt erst
gebildet werden knnen.
In der Strukturdimension ist Wissen an der Erzeugung von Informationen betei-
ligt.42 Es ermglicht die Interpretationsleistungen und begrenzt die Interpretations-
mglichkeiten. Wissen sttzt sich auf Wissensgrundlagen, zu denen Texte, Akten,
Datenbanken, aber auch institutionelle Arrangements gehren. Es ist nicht etwa als
Vorrat von Erkenntnissen im Hintergrund stets prsent. Vielmehr kann es immer
nur selektiv im jeweiligen sozialen Kontext nach Magabe der darin bestehenden
Erkenntnisinteressen, Handlungsmuster oder Rahmenbedingungen aufgebaut wer-
den. Daher ist es Faktor und Produkt des Kontexts, in dem sich der Umgang mit
Informationen und Daten vollzieht.43 Wissen ist nicht unbedingt etwas gemeinsam
Geteiltes. In komplexeren Zusammenhngen hat man im Gegenteil mit pluralisier-
ten Wissensregimen zu tun.44 Wissen verweist weiter auf Ungewissheit und auf
Nichtwissen als Komplementr- oder Gegenbegriffe, die Interpretationsleistungen
und Informationsproduktion mitbeeinussen.
In der Zeitdimension kommt der Prozesscharakter der Datenverarbeitung und
der Informationssse hinzu. Bei organisiertem und linearem Verlauf sind die
Erhebung, die Speicherung und die Vernderung an der vorgesehenen, mehr oder
weniger bestimmten Nutzung der Daten als Informationen orientiert. Umgekehrt
baut die Nutzung auf der Datenbasis auf, die durch die Erhebung, Speicherung
und Vernderung begrndet wird. Datenverarbeitungsprozesse verlaufen allerdings
regelmig nicht linear: Daten knnen gespeichert, abgerufen und mit verndertem
Gehalt erneut gespeichert werden; die einzelnen Phasen knnen faktisch weitgehend
voneinander entkoppelt werden; Daten knnen in mehrere Verarbeitungszusam-
menhnge einieen. Die rechtliche Bedeutung eines Datenverarbeitungsschritts

41 Siehe ausfhrlich: Albers, Information als neue Dimension im Recht, S. 67ff.


42 Zum Wissen als im Datenschutz relevanter Ebene siehe auch Hildebrandt, Who is Proling
Who?, S. 240ff.
43 Siehe nher Albers, Umgang mit personenbezogenen Informationen und Daten, 22, Rn. 14ff.
Vgl. auch Trute, Wissen Einleitende Bemerkungen, S. 15f. Als stets Kontextualisiertes wird
Wissen von eben den Kontexten geprgt, in denen es aktualisiert wird und zu denen es beitrgt.
44 Ausfhrlich dazu Wehling, Wissensregime, S. 704ff.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 25

erschliet sich nicht in isolierender Betrachtung, sondern erst im Mitdenken der


jeweils zu bestimmenden Verarbeitungszusammenhnge, die die Gewinnung und
Verwendung von Informationen einschlieen. Diese verleihen dem Umgang mit
Daten seine spezische soziale Relevanz. Die bliche Konzentration auf die Da-
tenverarbeitungsprozesse ist deshalb eine verkrzte Perspektive. Man muss die
komplexen Ablufe und Netze in den Blick nehmen, in denen Informationen, Daten
und die verschiedenen Verarbeitungsschritte verwoben sind.
Nicht zuletzt spielen auch die Verknpfungen zwischen Informationen oder
Wissen einerseits und (potentiellen) Handlungen oder Entscheidungen der datenver-
arbeitenden staatlichen oder privaten Stellen andererseits eine Rolle. Informationen
und Wissen sind prgende Faktoren in Entscheidungs- und Handlungszusammen-
hngen; auch dienen sie als Grundlage bestimmter Entscheidungen und Handlungen.
Daran knpfen sich eine Reihe von Folgen an, die sich unter bestimmten Umstnden
als Nachteil fr die Person beschreiben lassen, auf die sich Daten und Informatio-
nen beziehen. Je nach gewhlter Abstraktionsebene und gewhltem Bezugskontext
knnen dies unterschiedliche Nachteile sein, sei es, dass sich Rahmenbedingungen
negativ verndern, sei es, dass (potentielle) Entscheidungen nachteilige Folgen
nach sich zgen, sei es, dass die betroffene Person ein ihr eigentlich zustehendes
Verhalten anpasst, damit sie keine Nachteile erfhrt. Sofern so vermittelte Nachteile
normativ unerwnscht sind45 , ist der Schutz davor oder bereits vor den Risiken,
dass solche Nachteile entstehen einer der Grnde fr Datenschutz.46 Es gibt wei-
tere Grnde, die man bei der Bestimmung geschtzter Interessen ausarbeiten kann,
die sich eben deshalb als Bndel von Schutzpositionen darstellen. An dieser Stelle
soll nur deutlich werden, dass das Verstndnis des Datenschutzes voraussetzt, dass
man relevante Entscheidungs- und Handlungszusammenhnge mitdenkt. Umfang
und Form hngen davon ab, wie relativ lose oder verdichtet die Beziehung zwischen
Daten und Wissen, Handlungen und Entscheidungen in dem fokussierten Kontext
ist.
Schon diese grobe Beschreibung zeigt, dass sich Datenschutz um einen hoch-
komplexen Gegenstand dreht. Er erfordert ein Denken in sozialen Relationen, in
Prozessen und in Kontexten. Man muss mit der Unterscheidung von Daten und
Informationen operieren und das Wissen und die Verarbeitungsprozesse im Kontext
ebenso mitbercksichtigen wie Handlungs- und Entscheidungszusammenhnge
45 Das ist keineswegs bei allen Nachteilen der Fall.
46 Schon da die hier gemeinten Nachteile vielfltig sein und sich in vielfltigen Formen vermitteln
und realisieren knnen, bedeutet dies nicht, dass Datenschutz rein instrumentell-akzessorisch dem
Verhaltensschutz in dem Sinne diente, dass er das eigentlich geschtzte freie Verhalten bereits im
Vorfeld vor Gefhrdungen bewahren soll. Siehe jedoch in diese Richtung, im Einzelnen allerdings
differenziert Britz, Informationelle Selbstbestimmung zwischen rechtswissenschaftlicher Grund-
satzkritik und Beharren des Bundesverfassungsgerichts, S. 569ff.; Poscher, Die Zukunft der in-
formationellen Selbstbestimmung als Recht auf Abwehr von Grundrechtsgefhrdungen, S. 178ff.
26 Marion Albers

und damit verbundene Folgen. Angesichts einer zunehmenden Lsung von Daten-
verarbeitungen aus konkreten Handlungszusammenhngen knnen Handlungs- und
Entscheidungszusammenhnge (oder: Verwendungskontexte) zwar abstrahiert,
typisiert oder als Zukunftsszenarien formuliert, aber nicht vollkommen ausgeblen-
det werden. Daten drfen somit nicht isoliert betrachtet, sie mssen vielmehr in
einem Netzwerk mehrerer Grundbegriffe begriffen werden. In diesem Netzwerk
sind sie ein zentraler Anknpfungspunkt der rechtlichen Regulierung, freilich
nicht der einzige Anknpfungspunkt.47 Datenschutz zielt auf die Regulierung der
Datenverarbeitung, aber eben auch auf die Regulierung der Informations- und
Wissenserzeugung in Handlungs- und Entscheidungszusammenhngen und damit
verbundener nachteiliger Folgen fr die betroffenen Personen.

5. Geschtzte Interessen betroffener Personen


Das leitet ber zum nchsten Punkt: Wie kann man die geschtzten Interessen der
betroffenen Personen beschreiben? Die bisherigen Ausfhrungen erhellen bereits,
dass die Idee individueller Verfgungsbefugnisse ber Daten nicht die zentrale
Leitidee des Datenschutzes sein kann. Vielschichtige, inhaltlich vielfltige und
mehrdimensionale Gewhrleistungen drngen sich auf.
Im Ausgangspunkt muss man sich vergegenwrtigen, dass sich ein grundrecht-
licher Schutz im Hinblick auf den Umgang anderer mit personenbezogenen In-
formationen und Daten von den Schutzgtern des traditionellen Grundrechtsver-
stndnisses unterscheidet. Es gibt zwar den zu schtzenden Grundrechtstrger.
Schutzgegenstand ist aber nicht etwa seine Verhaltensfreiheit. Er soll vielmehr im
Hinblick auf die ihn betreffenden Informationen und Daten geschtzt werden, die
in Wissens- und Deutungskontexten erzeugt und prozediert werden und an denen
staatliche Stellen oder andere Private schon wegen der notwendigen Interpretations-
und Verarbeitungsleistungen beteiligt sind. Darauf gerichtete Schutzpositionen sind
nicht individualistisch, sondern nur als Positionen im Hinblick auf die Sozialitt des
Individuums zu begreifen, denn Schutzpositionen im Hinblick auf Informationen
oder das (potenzielle) Wissen anderer ber einen selbst setzen das Mitdenken der
anderen bereits in der Grundstruktur des Schutzgegenstandes voraus. Warum und in-
wieweit die betroffene Person zu schtzen ist, muss deswegen aus berindividueller
Perspektive mit typisierendem Blick auf den Kontext und auf erwartbare nachteilige
Folgen begrndet werden. Im brigen reicht ein Schutz nicht aus, der allein auf
die Abwehr und das Unterlassen einer Verarbeitung personenbezogener Daten oder

47 Die rechtliche Regulierung muss an mehrere Punkte anknpfen; daher wre es beispielsweise ver-
fehlt, statt auf Daten einfach auf Informationen abzustellen und den einen Begriff durch den anderen
zu substituieren.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 27

einer Gewinnung und Verwendung personenbezogener Informationen gerichtet ist.


Da sich diese Prozesse auf Seiten der anderen, also losgelst von der zu schtzen-
den Person, vollziehen, ist es genauso wichtig, dass diese von den sie betreffenden
Daten- und Informationsverarbeitungen erfhrt und Einuss darauf nehmen kann.
Sie bentigt also nicht nur Abwehr-, sondern weitere Rechte, namentlich Wissens-,
Partizipations- oder Einussrechte und zudem Rechte, die aus Rechtsbindungen
folgen, die eine institutionalisierte Gewhrleistung von Datenschutzanforderungen
vorgeben.
Geht man den Gefahren und Schutzerfordernissen, auf die Datenschutz reagieren
soll, nher nach, erkennt man, dass sie auf unterschiedlichen Ebenen angesiedelt
sind. Auf einer grundlegenden Ebene geht es um die Problematik eines potenzi-
ell allumfassenden, unbegrenzten und intransparenten Umgangs des Staates oder
anderer Privater mit personenbezogenen Informationen und Daten. Schon in den
1970er Jahren war das Schlagwort hierzu: glserner Brger, und mit dem Internet
haben sich die Gefahren gesteigert. Das Erfordernis eines Schutzes vor derartigen
Gefahren ist durch wenn auch in verschiedenen Zeiten und Zusammenhngen
wurzelnde literarische Metaphern und Narrative kulturell verankert und populari-
siert worden, vor allem durch Orwells Big Brother,48 aber auch durch Benthams
Panopticon49 oder durch Kafkas Der Prozess.50 In Ergnzung dieser staats-
zentrierten Werke mag man mit Blick auf soziale Netzwerke jngere treffsichere
Romane hinzunehmen, zum Beispiel Dave Eggers The Circle.51 Daniel Solove
hat aufgezeigt, dass die bekannte Big Brother-Metapher bestimmte Datenschutz-
probleme effektiv einfngt,52 dass es aber die Kafka-Metapher ist, die das Problem
mangelnden Wissens und mangelnden Einusses im Hinblick auf das Wissen ande-
rer ber einen selbst illustriert.53 Gleich der Beginn des Werkes lsst spren, wie
bedrohlich dies sein kann: Jemand musste Josef K. verleumdet haben, denn ohne
dass er etwas Bses getan htte, wurde er eines Morgens verhaftet. Warum denn,
fragt er die Wchter, und erhlt die lapidare Antwort: Wir sind nicht dazu bestellt,
Ihnen das zu sagen.
Art. 2 Abs. 1 i. V. m. Art. 1 Abs. 1 GG kann auf dieser grundlegenden Ebene
passende grundrechtliche Bindungen und Schutzpositionen hergeben. Denn diese
Normenkombination lsst sich dahin auslegen, dass sie essentielle, existentiale

48 Orwell, 1984.
49 Bentham, The Panopticon Writings, S. 29ff.
50 Kafka, Der Prozess.
51 Eggers, The Circle.
52 Solove, Privacy and Power, S. 1399.
53 Ebd., S. 1426.
28 Marion Albers

Voraussetzungen fr die Ausbung jeglicher Freiheit schtzt.54 Rechtsbindungen


und Rechtspositionen richten sich zunchst darauf, dass der Umgang mit personen-
bezogenen Informationen und Daten nicht weitgehend ungebunden, unbegrenzt
und undurchschaubar verluft. Die Entwicklung und die freie Entfaltung der Per-
snlichkeit erfordern eine relative Erwartungs- und Orientierungssicherheit der
Individuen im Hinblick auf ihre soziale Umwelt, die die Mglichkeit eines Vertrau-
ens beispielsweise darauf umfasst, dass gewisse Sichtbarkeitsschranken zwischen
verschiedenen Kontexten und Rollen bestehen, dass nicht berall fehlerhafte Daten-
stze und entsprechend verzerrte Bilder zur eigenen Person kursieren oder dass man
nicht in jeder Situation ohne eine Chance des Vergessens mit einer lngst berholten
Vergangenheit belastet wird. Ein solches Vertrauen und sein Schutz bedeuten nicht,
dass man nicht von unerwartetem Wissen berrascht werden knnte; die Fhigkeit,
enttuschte Erwartungen zu verarbeiten, und die Fhigkeit zur Selbstbehauptung
gehren zur Persnlichkeitsentwicklung und -entfaltung. Knnte man jedoch gar
kein prinzipielles Vertrauen auf kontextuale Integritt55 aufbauen, wren Ver-
unsicherungen, Befangenheiten im Umgang mit anderen und Mechanismen der
erwartungsvermittelten Anpassung des Verhaltens in einem Umfang zu befrchten,
der mit der geschtzten Freiheit der Persnlichkeitsentfaltung unvereinbar wre.56
Die auf eine begrenzende, strukturierende und transparenzsichernde Grundregu-
lierung gerichteten Grundrechtsgarantien werden im Weiteren durch Garantien
ergnzt, aufgrund derer den geschtzten Personen grundstzliche Mglichkeiten
zu erffnen sind, Kenntnis ber die sie betreffenden Datenbestnde und Wissens-
bausteine staatlicher Stellen oder, in relativiertem Umfang, anderer Privater zu
erlangen. Diese Wissenskomponente des Persnlichkeitsschutzes hat Bedeutung
fr die Persnlichkeits- und Identittsbildung, fr das Selbstwertgefhl und die
Selbst-Behauptung, fr die orientierunggebende Einschtzung des Bildes, das die
soziale Umwelt sich bildet, oder fr die Realisierung von Verhaltensoptionen. Die
Prozesse der Verarbeitung personenbezogener Informationen und Daten drfen
auerdem nicht vollstndig an den geschtzten Personen vorbei verlaufen. Art. 2
Abs. 1 i. V. m. Art. 1 Abs. 1 GG verlangt angemessene Einusschancen. Je nach
Wissenskontext braucht man zum Beispiel Mglichkeiten zur Beeinussung der
Datenbestnde, zur Berichtigung oder Lschung bestimmter Angaben oder zur ei-
54 Saladin, Persnliche Freiheit als soziales Grundrecht?, S. 100 (Hervorhebung im Original; fr
die schweizerische Bundesverfassung); zum Ansatz fr das GG Albers, Informationelle Selbstbe-
stimmung, besonders S. 455f.
55 Nissenbaum, Privacy as Contextual Integrity, S. 119ff.; Privacy in Context, S. 129ff.
56 An dieser Stelle (und an anderen Stellen) ieen Folgenerwgungen ein, die empirische Anker
bentigen, allerdings keine rein empirisch zu beurteilende Fragen sind. Das gilt schon deshalb, weil
man im Recht und bei den normativen berlegungen die theoretischen und methodischen Grenzen
einer empirischen Verizierung von Annahmen ber Folgen zumal auf der Grundlagenebene der
Gesellschaft, auf der sich die Folgenerwgungen hier bewegen mitreektieren muss.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 29

genen Stellungnahme oder Gegendarstellung. Darber hinaus sind unterschiedliche


Bausteine einer Gewhrleistung des Datenschutzes durch Institutionen notwendig.
Denn den geschtzten Individuen erschlieen sich viele der Komponenten und
vernetzten Prozesse moderner Datenverarbeitungen angesichts derer Komplexitt
in unaufhebbarer Weise nur begrenzt; ein rein auf die Zuerkennung von Indivi-
dualrechten konzentrierter Ansatz erreicht die Schutzziele nicht. Smtliche dieser
auf der grundlegenden Ebene herleitbaren Rechtsbindungen und Rechtspositionen
sind nicht schlicht auf Staatsabwehr angelegt. Grundrechtsdogmatisch greift ein
Zugriff ber das Konzept der Eingriffsabwehr viel zu kurz. Vielmehr geht es um
komplexe Regulierungsauftrge, denen im Wege der Rechtsetzung und -umsetzung
nachzukommen ist.57
Sofern und sobald diese Grundrechtsvorgaben umgesetzt sind und deswegen
in rechtlich verlsslicher Weise gewhrleistet ist, dass Informations- und Daten-
verarbeitungen in angemessen begrenzter, strukturierter und transparenter Form
verlaufen, kann man bestimmte Verarbeitungskontexte abgrenzen und den Umgang
mit personenbezogenen Informationen und Daten sowie dessen Folgen kontext- und
akteursbezogen noch nher beschreiben. Erst auf der Basis einer Grundregulierung
wird also auf einer zweiten Ebene eine spezischere Beschreibung mglich, in
welchen Kontexten welche Informationen erzeugt und wie sie genutzt werden und
welche nachteiligen Folgen die betroffene Person in konkreten Konstellationen
berhaupt zu erwarten hat.58 Auf dieser zweiten Ebene knnen dann einzelne,
bestimmte Themen und Felder ansprechende Freiheitsgewhrleistungen weitere
Rechtsbindungen und Rechtspositionen an genau der Stelle hergeben, an der ein
Schutzbedarf begrndbar ist. Vor der berwachung der Teilnehmer/innen einer
Versammlung durch den Verfassungsschutz mit ihren nachteiligen Folgen fr die
Versammlungsfreiheit beispielsweise gewhrt Art. 8 GG, das Grundrecht auf Ver-
sammlungsfreiheit, einen substanzhaltigen Schutz. Dieses Grundrecht gibt einen
viel anreicherungsfhigeren und strkeren Schutz her als ein blasses Verfgungs-
recht ber persnliche Daten. Mit Blick auf die inhaltlich differenzierten, viel-
fltigen Freiheitsgewhrleistungen, seien es diejenigen des GG, seien es die der
EU-Charta, kann man auf der zweiten Ebene ein Panorama an Rechtsbindungen und
Schutzpositionen entwickeln, die kontext- und gefhrdungsspezisch zugeschnitten
werden knnen.
57 Ausfhrlich und mit tiefer gehenden Begrndungen zu diesen berlegungen Albers, Informationel-
le Selbstbestimmung, S. 454ff.
58 Hier geht es um einen Zugriff aus verfassungsrechtlicher Perspektive mit dem Erkenntnisinteresse,
eine inhaltlich und dogmatisch angemessene Schutzkonzeption zu entwickeln. Selbstverstndlich
knnte man aus soziologischer Perspektive und insbesondere ex post soziale Grenzen einer Ver-
arbeitung oder Weiterleitung personenbezogener Daten beschreiben. Aus rechtlicher Perspektive
geht es aber darum, inwieweit es verlssliche rechtliche Grenzen im Rahmen einer aus ex ante-
Perspektive zu entwerfenden Schutzkonzeption gibt.
30 Marion Albers

Datenschutz umfasst also ein komplexes Bndel von Rechtsbindungen und


Rechtspositionen, die sich im Rahmen einer Zwei-Ebenen-Konzeption entfalten
lassen.59 Dieses Bndel ist entwicklungsoffen, d. h. es kann immer wieder an neu
entstehende oder erkannte Gefhrdungen angepasst werden.60

6. Regulierung im Datenschutz
Nur noch kurz soll aufgezeigt werden, dass man auf der Basis eines Bndels grund-
rechtlicher Rechtsbindungen und Rechtspositionen im Rahmen einer Zwei-Ebenen-
Konzeption zu einer sinnvollen Regulierung im Feld des Datenschutzes gelangen
kann. Ebenso wie man die Gewhrleistungsinhalte in Gestalt mehrdimensionaler
und vielschichtiger Bindungen und Schutzpositionen entfalten kann, erlauben die
Grundrechtsnormen ein multidimensionales Verstndnis der Gesetzesvorbehalte.
Rechtsnormen erscheinen dann in vielfltigen Funktionen und vielfltiger Gestalt:
Sie knnen Freiheiten beschrnken, aber auch erst herstellen, konkretisieren und
ausgestalten. Damit lassen sich angemessene Regulierungskonzepte an die entwi-
ckelbaren Gewhrleistungsinhalte anknpfen.
Solche Konzepte erfordern statt einer bloen Steuerung der Verarbeitungsschrit-
te eine Vielzahl ineinander greifender, nicht zuletzt mit Figuren des Risiko- und
des Technikrechts operierende Bausteine. Dazu zhlen zum Beispiel Elemente der
Systemgestaltung, Anreize oder Vorgaben zur Technikentwicklung und Technikge-
staltung, neue Formen der Kenntnis- und Einussrechte Betroffener, institutionelle
Qualitts- und Kontrollgewhrleistungen oder auch institutionalisierte Verfahren,
in denen konkrete Schutzstandards fr konkrete Komplexe erst noch ausgearbeitet
und auf die sich darin ergebenden Schutzerfordernisse zugeschnitten werden.61
Hier sind in den letzten Jahrzehnten bereits diverse Komponenten entwickelt wor-
den. Den erarbeiteten Bausteinen fehlt jedoch als Gesamtkonzept eine stimmige
verfassungsrechtliche Rckbindung und sie stehen bislang oft eher nebeneinander
statt passend miteinander verzahnt zu sein. Wie die Bausteine nher auszugestal-

59 Zur Zwei-Ebenen-Konzeption als gegenstandsbedingter und angemessene Schutzkonzeptionen erst


ermglichender Zugriff, Albers, Informationelle Selbstbestimmung, S. 353ff. Die zwei Ebenen erge-
ben sich mit Blick auf die Charakteristika des Gegenstandsfeldes als Grundmodell. Beim Entwurf
nherer Regulierungskonzepte muss man in Abhngigkeit vom Kontext weitere Ebenendifferenzie-
rungen vornehmen.
60 Zum Erfordernis der przisen Beschreibung von Gefhrdungen siehe ebenfalls, wenn auch mit
unterschiedlichen Anstzen, Gratton, Understanding Personal Information, S. 219ff.; Drackert, Die
Risiken der Verarbeitung personenbezogener Daten.
61 Gesetzesrecht fungiert somit nicht nur als Instrument, mittels dessen feststehende Schutzpositionen
gewhrleistet oder auch eingeschrnkt werden. Es kann und muss hier u. a. auch dazu dienen, in-
stitutionelle Arrangements oder Verfahren zu etablieren, in denen konkrete Schutzerfordernisse in
bestimmten Kontexten mit Hilfe angemessener Verfahrensweisen erst noch speziziert werden.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 31

ten, zu kombinieren und zu koordinieren sind, hngt nicht zuletzt von dem in den
Blick genommenen Regelungsbereich ab. Denn als fundamentale Querschnittsdi-
mension und wegen des engen Zusammenhanges zwischen Daten, Informationen,
Wissen, Handlungen und Entscheidungen muss das Datenschutzrecht nicht nur
in sich, sondern auch mit den schon vorhandenen sachlichen Rechtsvorschriften
abgestimmt werden. Dies weist auf die Differenzierungserfordernisse innerhalb des
Datenschutzrechts hin. Etwa muss man grndlich darber nachdenken, in welchen
Hinsichten ein einheitliches Datenschutzrecht fr staatliche und private Bereiche
sinnvoll ist. Auch unterhalb dieser groben Unterscheidung gibt es eine Vielzahl
von Feldern video- oder zunehmend drohnenberwachte ffentliche und private
Rume, rztinnen/Patienten-Beziehungen in Gesundheitssektoren, Arbeitsverhlt-
nisse, soziale Netzwerke, e-commerce, Wearables oder Fitness Tracker , in denen
bestimmte Techniken mit bestimmten Folgen eingesetzt und spezische Risiken
hinsichtlich des Umgangs mit personenbezogenen Daten und Informationen ausge-
lst werden. Das heit nicht, dass man jedes Feld fr sich detailliert regeln msste.
Die Lsung der Frage, wann und inwieweit allgemeine Regelungen passen oder
wann und inwieweit man sektor- oder technikspezische Regelungen bentigt,
gehrt jedoch zu den anspruchsvollsten Herausforderungen, vor denen man im
Datenschutzrecht steht.
Abschlieend kann ein Bogen zurck zur populren Idee der Kontrolle ber
die eigenen Daten geschlagen werden. Man braucht diese Idee nicht fr vollkom-
men obsolet zu halten. Man muss sie aber richtig einordnen. Kontrolle beschreibt
keine Schutzposition, sondern eher in vereinfachender Form eines der Instrumente,
mit denen die anderweitig zu begrndenden vielschichtigen Schutzpositionen der
Betroffenen im Hinblick auf den Umgang mit personenbezogenen Informationen
und Daten in Feldern realisiert werden knnen, in denen die Idee einer individuellen
Kontrolle ber Daten in bestimmtem Umfang passt. Im Verhltnis beispielweise zu
einem Sozialleistungstrger, bei dem jemand Leistungen beantragt, berzeugt diese
Idee nicht, denn Sozialleistungen hngen von der Mitteilung bestimmter Angaben
ab und Grenzen der Mitteilungspichten oder der Weiterleitungsbefugnisse lassen
sich besser auf andere Argumente sttzen. Im Bereich sozialer Netzwerke, im
e-commerce oder bei Wearables und Fitness Trackern kann die Idee aber partiell
geeignet sein und sich etwa in gesetzlich verankerten individuellen Gestaltungs-,
Unterlassungs-, Lschungs- oder Informationsansprchen widerspiegeln. Freilich
knnen Nutzer und Nutzerinnen trotzdem komplexe Techniken und Verarbeitungs-
ablufe, in die Diensteanbieter involviert sind, weder vollstndig berschauen noch
vollkommen kontrollieren. Die Kontrollidee kann somit selbst hier nicht als erschp-
fend begriffen werden. Datenschutz ist weitaus vielschichtiger und inhaltsreicher
auszuarbeiten.
32 Marion Albers

7. Schluss
Im Ergebnis ist die informationelle Selbstbestimmung dann, aber auch nur dann
zukunftsfhig, wenn man sie grundlegend neu konzipiert. Bei Daten, Informationen
oder Wissen hat man es mit einem Netzwerk fundamentaler Kategorien zu tun. In-
formationelle Selbstbestimmung muss als Bndel grundrechtlicher Bindungen und
Rechtspositionen begriffen werden, das sich sowohl inhaltlich als auch dogmatisch
vielschichtig gestaltet. Dies mndet in vielfltige Regulierungskonzepte, die auch
mit einem neuartigen, weniger gesetzeszentrierten Rechtsverstndnis kompatibel
wren. So verstanden ist das Paradigma der informationellen Selbstbestimmung
leistungsfhiger als beispielsweise dasjenige der Privatheit. Informationelle Selbst-
bestimmung wrde nicht nur international anschlussfhig, sondern knnte inter-
nationale Debatten, die oft ihrerseits in berkommenen Mustern verharren, sogar
positiv vorantreiben. Passende rechtliche Ausarbeitungen sind auf die Erkenntnisse
anderer Disziplinen angewiesen, etwa auf Erkenntnisse aus der Sozialwissenschaft,
der Technikwissenschaft oder der Informationswissenschaft. All das macht die Be-
schftigung mit informationeller Selbstbestimmung und mit dem Datenschutzrecht
so spannend.

Literatur
Albers, Marion. Information als neue Dimension im Recht. In: Rechtstheorie
33.1 (2002), S. 6189.
Informationelle Selbstbestimmung. Bd. 6. Studien zu Staat, Recht und Verwaltung.
Baden-Baden: Nomos, 2005.
Privatheitsschutz als Grundrechtsproblem. In: Privatheit. Strategien und Trans-
formationen. Hrsg. von Stefan Halft und Hans Krah. Passau: Stutz, 2013, S. 15
44.
Umgang mit personenbezogenen Informationen und Daten. In: Grundlagen
des Verwaltungsrechts. Band II: Informationsordnung, Verwaltungsverfahren,
Handlungsformen. Hrsg. von Wolfgang Hoffman-Riem, Eberhard Schmidt-A-
mann und Andreas Vokuhle. 2. Mnchen: C. H. Beck, 2012, S. 107234.
Zur Neukonzeption des grundrechtlichen Datenschutzes. In: Herausforde-
rungen an das Recht der Informationsgesellschaft: 26. Tagung der wissenschaft-
lichen Mitarbeiterinnen und Mitarbeiter der Fachrichtung ffentliches Recht.
Hrsg. von Andreas Haratsch, Dieter Kugelmann und Ulrich Repkewitz. Stuttgart
u. a.: Richard Boorberg Verlag, 1996, S. 113139.
Allen, Anita L. Privacy As Data Control: Conceptual, Practical, and Moral Limits
of the Paradigm. In: Connecticut Law Review 32 (2000), S. 861875.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 33

Ashby, W. Ross. An introduction to Cybernetics. 5. Au. London: Chapman & Hall,


1963.
Bentham, Jeremy. The Panopticon Writings. Hrsg. von Miran Boovic. London:
Verso, 1995.
Britz, Gabriele. Informationelle Selbstbestimmung zwischen rechtswissenschaftli-
cher Grundsatzkritik und Beharren des Bundesverfassungsgerichts. In: Offene
Rechtswissenschaft. Hrsg. von Wolfgang Hoffmann-Riem. Tbingen: Mohr,
2010, S. 561596.
Buchner, Benedikt. Die Einwilligung im Datenschutzrecht vom Rechtfertigungs-
grund zum Kommerzialisierungsinstrument. In: Datenschutz und Datensicher-
heit (DuD) 34.1 (2010), S. 3943.
Informationelle Selbstbestimmung im Privatrecht. Tbingen: Mohr, 2006.
Drackert, Stefan. Die Risiken der Verarbeitung personenbezogener Daten: Eine
Untersuchung zu den Grundlagen des Datenschutzrechts. Berlin: Duncker &
Humblot, 2015.
Eggers, Dave. The Circle: A novel. New York: Knopf, 2013.
Floridi, Luciano. Information. In: The Blackwell Guide to the Philosophy of
Computing and Information. Hrsg. von Luciano Floridi. Malden, Mass.: Wiley-
Blackwell, 2004, S. 4062.
Information: A Very Short Introduction. Oxford und New York: Oxford University
Press, 2010.
Fried, Charles. Privacy (A Moral Analysis). In: Yale Law Journal 77.1 (1968),
S. 475493.
Gratton, loise. Understanding Personal Information: Managing Privacy Risks.
LexisNexis, 2013.
Heuner, Hermann. Das informationelle Selbstbestimmungsrecht in der Recht-
sprechung des Bundesverfassungsgerichts. In: Die Sozialgerichtsbarkeit (SGb)
7 (1984), S. 279285.
Hildebrandt, Mireille. Who is Proling Who? Invisible Visibility. In: Reinventing
Data Protection? Hrsg. von Serge Gutwirth u. a. Dordrecht: Springer, 2008,
S. 239252.
Kafka, Franz. Der Prozess. Hrsg. von Max Brod. Berlin: Die Schmiede, 1925.
Kitchin, Rob. The Data Revolution: Big data, Open Data, Data Infrastructures &
their Consequences. Los Angeles: Sage, 2014.
Ladeur, Karl-Heinz. Das Recht auf informationelle Selbstbestimmung: Eine ju-
ristische Fehlkonstruktion? In: Die ffentliche Verwaltung (DV) 62.2 (2009),
S. 4555.
Leenes, Ronald E., Bert-Jaap Koops und Paul De Hert, Hrsg. Constitutional Rights
and New Technologies: A Comparative Study. Bd. 15. Information Technology
and Law Series. Den Haag: T. M. C. Asser Press, 2008.
34 Marion Albers

Nissenbaum, Helen. Privacy as Contextual Integrity. In: Washington Law Review


79.1 (2004), S. 101139.
Privacy in Context. Stanford: Stanford University Press, 2010.
Orwell, George. 1984: Ein utopischer Roman. Rastatt und Zrich: Diana Verlag,
1950.
Poscher, Ralf. Die Zukunft der informationellen Selbstbestimmung als Recht auf
Abwehr von Grundrechtsgefhrdungen. In: Resilienz in der offenen Gesellschaft.
Hrsg. von Hans-Helmuth Gander u. a. Bd. 1. Sicherheit und Gesellschaft. Frei-
burger Studien des Centre for Security and Society. Baden-Baden: Nomos, 2012,
S. 167191.
Raab, Charles D. und Benjamin J. Goold. Protecting Information Privacy. Research
Report 69. Equality und Human Rights Commission, 11. Juli 2011. URL: https:
/ / www. equalityhumanrights . com / sites / default / les / research - report - 69 -
protecting-information-privacy.pdf (besucht am 14. 10. 2016).
Rouvroy, Antoinette und Yves Poullet. The Right to Informational Self-Determina-
tion and the Value of Self-Development: Reassessing the Importance of Privacy
for Democracy. In: Reinventing Data Protection? Hrsg. von Serge Gutwirth
u. a. Dordrecht: Springer, 2009, S. 4576.
Saladin, Peter. Persnliche Freiheit als soziales Grundrecht? In: Le droit social
laube du XXIe sicle. Hrsg. von Alexandre Berenstein. Lausanne: Payot, 1989.
Schlink, Bernhard. Das Recht der informationellen Selbstbestimmung. In: Der
Staat 25 (1986), S. 233250.
Schwartz, Paul. The Computer in German and American Constitutional Law:
Towards an American Right of Informational Self-Determination. In: American
Journal of Comparative Law 37 (1989), S. 675701.
Simitis, Spiros. Chancen und Gefahren der elektronischen Datenverarbeitung. In:
Neue Juristische Wochenschrift (NJW) 24.16 (1971), S. 673682.
Solove, Daniel J. Conceptualizing Privacy. In: California Law Review 90.4
(2002), S. 10871155.
Privacy and Power: Computer Databases and Metaphors for Information Priva-
cy. In: Stanford Law Review 53.6 (2001), S. 1393.
The Digital Person. New York: New York University Press, 2004.
Steinmller, Wilhelm u. a. Grundfragen des Datenschutzes - Gutachten im Auftrag
des Bundesinnenministeriums. Bundestagsdrucksache VI/2826. 1971.
Stentzel, Rainer. Das Grundrecht auf. . . ? Auf der Suche nach dem Schutzgut des
Datenschutzes in der Europischen Union. In: PinG - Privacy in Germany 3.5
(2015), S. 185190. URL: https://www.pingdigital.de/PinG.05.2015.185 (besucht
am 14. 10. 2016).
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 35

Trute, Hans-Heinrich. Verfassungsrechtliche Grundlagen. In: Handbuch des


Datenschutzrechts. Hrsg. von Alexander Ronagel. Mnchen: C. H. Beck, 2003,
S. 157187.
Wissen Einleitende Bemerkungen. In: Wissen Zur kognitiven Dimension
des Rechts. Hrsg. von Hans Christian Rhl. Berlin: Duncker & Humblot, 2010,
S. 1138.
Unseld, Florian. Die Kommerzialisierung personenbezogener Daten. Mnchen:
Herbert Utz Verlag, 2010.
Warren, Samuel D. und Louis D. Brandeis. The Right to Privacy. In: Harvard
Law Review 4.5 (1890), S. 193220.
Wehling, Peter. Wissensregime. In: Handbuch Wissensoziologie und Wissens-
forschung. Hrsg. von Rainer Schtzeichel. Konstanz: UVK Verlagsgesellschaft,
2007, S. 704712.
Weichert, Thilo. Die konomisierung des Rechts auf informationelle Selbstbe-
stimmung. In: Neue Juristische Wochenschrift (NJW) 54.20 (2001), S. 1463
1469.
Wem gehren die privaten Daten? In: Informatik Wirtschaft Recht Regu-
lierung in der Wissensgesellschaft. Hrsg. von Jrgen Taeger und Andreas Wiebe.
Baden-Baden: Nomos, 2004, S. 281298.
Westin, Alan F. Privacy and Freedom. 6. Au. New York: Atheneum, 1970.
Demokratietheoretische Implikationen des Rechts
auf informationelle Selbstbestimmung
Max Winter

Die Probleme bei der rechtlichen und technischen Umsetzung der informationel-
len Selbstbestimmung sind hinreichend bekannt. Zu ihnen zhlen die zahlreichen
Ausnahmeregelungen, mit denen Eingriffe ermglicht werden, die schleppende
Anpassung an neue technische Gegebenheiten und der unbefriedigende Schutz
gegenber privaten Akteuren. Doch diese Probleme knnen nicht ausschlielich
auf mangelnden politischen Willen oder auf neue technische wie soziale Umweltbe-
dingungen zurckgefhrt werden. Denn es bestehen weiterhin Unklarheiten in der
normativen Begrndung des Rechts auf informationelle Selbstbestimmung, die ei-
ner konsistenten Schutzkonzeption im Wege stehen. Im Bemhen um politische wie
technische Anpassung tritt die Frage, warum genau informationelle Selbstbestim-
mung schutzwrdig ist und was dies fr ihre konkrete Auslegung bedeutet, hug
zu schnell in den Hintergrund. Ich mchte im Folgenden die These vertreten, dass
eine Strkung des Rechts auf informationelle Selbstbestimmung es aus normativer
Sicht erforderlich macht, den demokratietheoretischen Begrndungsstrang dieses
Rechts strker in den Vordergrund zu rcken. Denn seine eigentliche Legitimation
erfhrt es nicht, so die Behauptung, durch Verweis auf seine Schutzfunktion in Be-
zug auf das Individuum, sondern durch seine Ermglichungsfunktion in Bezug auf
eine demokratisch verfasste ffentlichkeit. Diesen Gedanken, der in der ursprngli-
chen Begrndung des Volkszhlungsurteils durchaus prominent ist, mchte ich aus
philosophischer Sicht ausbuchstabieren, indem ich ihn auf eine nicht-instrumentelle
Demokratiekonzeption beziehe, um abschlieend seine bertragbarkeit auf die
aktuellen Herausforderungen des Datenschutzes anzudeuten.

1. Individualrechtliche und demokratietheoretische


Begrndung informationeller Selbstbestimmung
Das Bundesverfassungsgericht fhrte in seiner Herleitung des Rechts auf informatio-
nelle Selbstbestimmung im Volkszhlungsurteil von 1983 zwei zu unterscheidende

* Dr. Max Winter | Friedrich-Schiller-Universitt | max.winter@uni-jena.de

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_3
38 Max Winter

Grnde an: eine Gesellschaftsordnung und eine diese ermglichende Rechtsord-


nung, in der Brger nicht mehr wissen knnen, wer was wann und bei welcher
Gelegenheit ber sie wei [. . . ] wrde

1. nicht nur die individuellen Entfaltungschancen des Einzelnen beeintrchtigen,


sondern

2. auch das Gemeinwohl, weil Selbstbestimmung eine elementare Funktionsbe-


dingung eines auf Handlungsfhigkeit und Mitwirkungsfhigkeit seiner Brger
begrndeten freiheitlichen demokratischen Gemeinwesens ist.1

Der erste der beiden angefhrten Grnde, die auch als subjektives Grundrecht und
Objektives Strukturprinzip einer Kommunikationsverfassung diskutiert werden,2
kann als individualrechtlicher, der zweite dagegen als demokratietheoretischer be-
zeichnet werden. Der individualrechtliche verweist auf die Interessen des Einzelnen,
denen eine unkontrollierte Sammlung und Verbreitung persnlicher Informationen
entgegenstehen knnen. Wie das Bundesverfassungsgericht ausfhrt, ist dies etwa
dann gegeben, wenn auf die Beteiligung bei einer Brgerinitiative verzichtet wird,
um mgliche negative Konsequenzen fr die eigene Person zu vermeiden, weil eine
Unsicherheit darber besteht, wer alles von dem betreffenden Engagement erfhrt.
Die Unsicherheit fhrt entsprechend zu einer Beeintrchtigung der Entfaltungs-
chancen des Einzelnen. Das Beispiel der Beteiligung an einer Brgerinitiative ist
jedoch vor allem deshalb so erhellend, weil es bei ihm eben nicht allein um die
Durchsetzung ausschlielich persnlicher Interessen geht. Wrde man stattdessen
an den Fall denken, dass ein Einzelner aus Sorge, mglicherweise dabei entdeckt
zu werden, etwa auf die Lektre bestimmter Schriften oder den Verzehr bestimmter
Speisen verzichtet, so wrde er dabei zwar auch in der Verfolgung seiner Interessen
beeintrchtigt. Doch es fehlte die Perspektive auf die Aktivitten des Einzelnen als
Bestandteil eines funktionierenden Gemeinwesens, wie sie im Beispiel der Brger-
initiative anklingt. Es gbe schlicht weniger brgerschaftliches Engagement, wenn
dieses mit Unwgbarkeiten und potentiellen Risiken fr den Einzelnen verbunden
wre. Und darauf zielt der zweite der beiden Grnde fr die informationelle Selbst-
bestimmung, der die negativen Konsequenzen ihrer Einschrnkung nicht fr den
Einzelnen, sondern fr eine funktionierende Demokratie und damit fr das Gemein-
wohl in den Vordergrund stellt. Selbstbestimmung wird demzufolge gerade nicht als
Selbstzweck im Sinne des Vermgens, frei ber die eigenen Belange verfgen zu
knnen, aufgefhrt, sondern ausdrcklich als unerlssliche Funktionsbedingung
eines demokratischen Gemeinwesens.

1 BVerfGE 65, 1.
2 Doerfel u. a., Informationelle Selbstbestimmung im Web 2.0, S. 24f.
Demokratietheoretische Implikationen 39

Doch obwohl die Rechtsprechung des Bundesverfassungsgerichts diesen zweiten,


demokratietheoretischen Gedanken in der Begrndung des Rechts auf informatio-
nelle Selbstbestimmung wiederholt,3 wird er soweit ich es berschaue im
berwiegenden Teil der Kommentarliteratur sowohl zum Grundgesetz als auch zum
Bundesdatenschutzgesetz entweder ganz unterschlagen oder zumindest nicht weiter
ausgefhrt.4 Stattdessen stehen in der Literatur fast ausschlielich die Freiheit des
Einzelnen und ihr respektiver Schutz im Fokus der Aufmerksamkeit, teils sogar
nur in der stark verkrzenden Diskussion der Frage, wie mgliche Grenzen einer
anzunehmenden Privatsphre sinnvollerweise zu ziehen seien.
Ich mchte hingegen in diesem Beitrag den demokratietheoretische Begrndungs-
strang der informationellen Selbstbestimmung stark machen und aus Sicht einer
normativen Konzeption von Demokratie przisieren. Dazu gilt es zunchst, sich
den Gedankengang des Volkszhlungsurteils noch einmal genauer anzuschauen.
Das entscheidende Argument der Verfassungsrichter dafr, dass eine unkontrol-
lierte Verwendung persnlicher Informationen eine Gefahr fr die demokratische
Gemeinschaft darstelle, beruht auf folgender berlegung: Wer unsicher ist, ob
abweichende Verhaltensweisen jederzeit notiert und als Information dauerhaft ge-
speichert, verwendet oder weitergegeben werden, wird versuchen, nicht durch
solche Verhaltensweisen aufzufallen.5 Zwar liee sich ber die empirische Validi-
tt dieses Urteils, fr das die Richter seinerzeit keine weiteren Belege anfhrten,
sicher streiten. Doch die Annahme, dass Menschen unter den Bedingungen einer
berwachung einem erhhten Konformittsdruck ausgesetzt sind und ihr Verhalten
entsprechend anpassen, hat weiterhin eine hohe Plausibilitt.6
Die Tatsache, dass heutzutage viele Bundesbrger kein erhhtes Interesse an
Fragen des Datenschutzes zeigen, obwohl sptestens seit den Enthllungen Edward
Snowdens von einer fast durchgngigen berwachung zumindest der digitalen
Kommunikation seitens privater und staatlicher Akteure ausgegangen werden muss,
deutet vielmehr das Dilemma der beiden Begrndungsstrnge informationeller
Selbstbestimmung an: Da viele Brgerinnen und Brger bei der Befassung mit

3 Ein von der Grundrechtsausbung abschreckender Effekt fremden Geheimwissens muss nicht nur
im Interesse der betroffenen Einzelnen vermieden werden. Auch das Gemeinwohl wird hierdurch
beeintrchtigt, weil Selbstbestimmung eine elementare Funktionsbedingung eines auf Handlungs-
und Mitwirkungsfhigkeit seiner Brger gegrndeten freiheitlichen demokratischen Gemeinwesens
ist. Vgl. BVerfGE 115, 166 (188): BVerfG, NJW 2006, 976).
4 Siehe u.a. Gola u. a., Bundesdatenschutzgesetz: Kommentar, 1 Rn. 9-13; Maunz und Drig,
Grundgesetz: Kommentar, Art. 2, Rn. 173-178.
5 BVerfGE 65, 1.
6 Vgl. Foucault, berwachen und Strafen, S. 259-161; Zur Relevanz Foucaults fr die gegenwrtige
Diskussion siehe Bauman und Lyon, Daten, Drohnen, Disziplin, S. 70-97; sowie Caluya, The post-
panoptic society?; zu abweichender Internetnutzung unter Bedingungen der berwachung siehe
Berger u. a., berwachung des digitalen Raumes.
40 Max Winter

Fragen des Datenschutzes lediglich die individuellen Konsequenzen im Blick haben,


whrend die Folgen fr das demokratische Zusammenleben weitgehend abstrakt
bleiben, erscheint eine erhhte Sensibilitt unangemessen, solange keine offenkun-
digen Nachteile auf individueller Ebene zu verzeichnen sind. Nur so erklrt sich
die Unbekmmertheit, mit der persnliche Informationen etwa in sozialen Medien
preisgegeben werden. Nur durch die Annahme, nicht in der Verfolgung der eigenen
Interessen betroffen zu sein sondern diese im Gegenteil sogar teils zu befrdern
scheint es einer nicht unbedeutenden Zahl von Brgerinnen und Brgern zwar nicht
gleichgltig zu sein, wer was wann und bei welcher Gelegenheit ber sie wei.
Doch offenbar wgen sie das Interesse am Schutz persnlicher Daten mit ihrem
Interesse an der Teilhabe in sozialen Netzwerken ab und geben letzterem hug
den Vorrang.7 Whrend noch in den 1980er Jahren die staatlichen Volkszhlungen
eine breite ffentliche Debatte und Massenproteste ausgelst hatten, empnden
heute offenbar viele Brgerinnen und Brger weder den staatlichen Zensus noch die
massenhafte Datenerfassung durch private Akteure als schwerwiegenden Eingriff in
ihre Rechte. Worin also wird eingegriffen, wenn E-Mails durchsucht, Kaufverhalten
analysiert und Aktivitten in sozialen Netzwerken registriert werden? Viele Brger
kmmern sich um diese Formen der berwachung nicht nur nicht; sie ermglichen
sie sogar durch sorgloses Einverstndnis in unberschaubare Datenschutzerkl-
rungen und ebenso sorglose Technikverwendung. Denn aus Sicht des Einzelnen
bestehen tatschlich vielfltige Anreize dafr, mit der Weitergabe persnlicher
Daten einverstanden zu sein, um sich auf diese Weise vermeintliche oder tatschli-
che Vorteile zu verschaffen. Zu einer Gefhrdung des Rechts auf informationelle
Selbstbestimmung werden diese Formen der Datenerfassung erst in dem Moment,
in dem wir im Leben des Einzelnen nicht einfach die Befriedigung kontingenter und
sich hug sogar widersprechender Bedrfnisse sehen, sondern es als Ausdruck
eines Anspruchs auf eine im engeren Sinne selbstbestimmte Ttigkeit verstehen,
und zwar einer Ttigkeit, die nicht allein unreektierten Bedrfnissen folgt, sondern
selbst gegebenen Normen im Rahmen einer demokratischen Ordnung. Nur dann
knnen Manahmen der willkrlichen berwachung als Eingriff in die Rechte
aller aufgefasst werden, und zwar unabhngig davon, ob diese mit deren partikula-
rem Einverstndnis geschehen oder nicht. Denn eine Gesellschaft, die sich durch
stndige berwachung weiter Teile des menschlichen Lebens auszeichnet und
den Brgerinnen und Brgern den Eindruck vermittelt, die Preisgabe persnlicher

7 Es ist deshalb nicht unbedingt von einem Paradox der Privatheit auszugehen, wohl aber von einer
niedrigeren Risikosensibilitt in der Abwgung zwischen Datenpreisgabe und sozialer Teilhabe.
Vgl. Barnes, A privacy paradox; Neuere Untersuchungen legen zumindest einen Zusammenhang
zwischen Datenschutzbedenken und Datenpreisgabe nahe. Siehe dazu Spiekermann u. a., Online
Social Networks; Dienlin und Trepte, Is the privacy paradox a relic of the past?; Stutzman,
Capra und Thompson, Factors mediating disclosure in social network sites.
Demokratietheoretische Implikationen 41

Informationen nicht mehr kontrollieren zu knnen, luft Gefahr, ein angstfreies


und zwangloses Engagement zu verunmglichen. Eine solche Gefhrdung des fr
das demokratische Zusammenleben essentiellen brgerschaftlichen Engagements
wiegt folglich schwerer als die Einschrnkung eines aus dem Grundrecht auf freie
Persnlichkeitsentfaltung ableitbaren Rechts des Einzelnen, ber die Verwendung
seiner persnlichen Daten frei verfgen zu knnen.8 Sie wiegt auch schwerer als
ein Eingriff in das Grundrecht auf Vertragsfreiheit, durch das die privatrechtliche
Einwilligung in umfangreiche Allgemeine Geschftsbedingungen zum Datenschutz
gerechtfertigt wird.9
Gerade angesichts des Doppelbefundes einer massenhaften Speicherung und
einer in weiten Teilen unkontrollierten Weitergabe und Verwendung persnlicher
Daten einerseits sowie der mangelnden Sensibilitt vieler Brgerinnen und Brger
andererseits erscheint eine Rckbesinnung auf den demokratietheoretischen Be-
grndungsstrang des Rechts auf informationelle Selbstbestimmung erforderlich.
Der Verweis auf die private Freiheit des Einzelnen wird in dem Mae problema-
tisch, in dem eine Mehrheit der Brger den vielfltigen Eingriffen in diese Freiheit
stillschweigend oder explizit zustimmt. Unter diesen Bedingungen lsst sich die
informationelle Selbstbestimmung nur dann befriedigend rechtfertigen, wenn dabei
statt des Schutzes des Einzelnen der Schutz der Demokratie in den Fokus gerckt
wird. Es bedarf deshalb einer an der Analyse heutiger Bedingungen geschrften, nor-
mativen Legitimation des Rechts auf informationelle Selbstbestimmung mit Blick
auf die Mglichkeiten seiner demokratietheoretischen Begrndung. Im Gegensatz
zu denjenigen Strategien, die primr auf den Eingriff in individuelle Freiheiten
abheben, basiert sie auf der berzeugung, dass informationelle Selbstbestimmung
gerade nicht mit dem Schutz der Daten vor Eingriffen gleichgesetzt werden darf.
Schon allein der Terminus Selbstbestimmung deutet an, dass es hier nicht um privacy
im Sinne der liberalen Tradition eines right to be let alone gehen kann.10 Ebenso
wenig sollte sie kurzerhand auf eine Besonderheit der deutschen Rechtstradition in
dem Sinne zurckgefhrt werden, dass die in ihr enthaltene Abgrenzung zu einer
als negatives Schutzrecht verstandenen privacy letztlich beliebig weil willkrlich
wre. Der zweite der beiden im Volkszhlungsurteil angefhrten Grnde verweist

8 Eine Einwilligung, die auf der Vorstellung beruht, ausschlielichen ber persnliche Daten ver-
fgen zu knnen, ist nicht zuletzt deshalb realittsfern, weil ein Groteil der anfallenden, perso-
nenbezogenen Daten mehrrelational sind und daher gerade nicht ausschlielich einem Eigentmer
zugeordnet werden knnen. Vgl. Steinmller, Informationstechnologie und Gesellschaft, S. 216ff.
9 Entsprechend knnen restriktive Anforderungen an privatrechtliche Vertrge im Sinne einer AGB-
Kontrolle nicht allein mit Verweis auf die Vertragsfreiheit abgelehnt werden, da ein solcher Ver-
weis zum einen das demokratietheoretische Ziel des Schutzes informationeller Selbstbestimmung
verkennt und zum anderen der Vorstellung einer individuellen Verfgbarkeit ber personenbezoge-
ne Daten verpichtet bleibt.
10 Warren und Brandeis, The Right to Privacy, S. 193.
42 Max Winter

dagegen auf einen Begriff der Selbstbestimmung, der politische Partizipation und
demokratische Selbstregierung impliziert.

2. Informationelle Selbstbestimmung als Element eines


nicht-instrumentellen Demokratieverstndnisses
Die Entscheidung dafr, das Recht auf informationelle Selbstbestimmung nicht
ber den Weg eines negativen Schutzrechts zu legitimieren, sondern mit Verweis auf
seine Bedeutung fr eine lebendige Demokratie, setzt ein bestimmtes Verstndnis
von Demokratie voraus, und zwar ein nicht-instrumentelles. Wie die Begrndung
des Volkszhlungsurteils herausstellt, dient ein freiheitlich-demokratisches Gemein-
wesen nicht als bloes Mittel zur Durchsetzung individueller Rechte und Interessen;
im Gegenteil bleibt die individuelle Selbstbestimmung in den Rahmen einer auf Mit-
wirkung angelegten Demokratie eingespannt. Ein Verstndnis der Demokratie aber,
das der aktiven Teilhabe der Brgerinnen und Brger an ffentlichen Debatten und
politischen Entscheidungsprozessen einen eigenen Wert jenseits ihrer spezischen
Resultate zuschreibt, ist genauer als ein nicht-instrumentelles zu fassen.
Wenn hier also von einem nicht-instrumentellen Demokratiebegriff die Rede
sein soll, so ist dabei zu bercksichtigen, dass die Mehrzahl gegenwrtiger Theore-
tiker weiterhin instrumentelle Argumente zugunsten der Demokratie prferiert.11
Sie laufen vereinfacht gesagt darauf hinaus, den Wert der Demokratie nicht in
ihr selbst, sondern in der Befrderung anderer Werte oder Gter zu sehen. Ein
Vorteil wre aus dieser Sicht etwa, dass demokratisch verfasste Gesellschaften ber
einen institutionellen Rahmen verfgen, der es ihren Brgern ermglicht, mglichst
weitgehend ihren persnlichen Bedrfnissen und Prferenzen nachgehen zu knnen,
unabhngig davon, um welche es sich im Einzelnen handelt. Die einzige norma-
tive Annahme wre entsprechend, dass es wnschenswert ist, Menschen eine je
eigene Prferenzbefriedigung zu gewhren, ohne inhaltliche Wertungen zwischen
unterschiedlichen Prferenzen vorzunehmen. Andere Theorien dagegen sehen den
Vorteil von Demokratien darin, dass sie soziale und politische Ungleichheiten redu-
zieren, und sprechen ihnen damit ebenfalls eine instrumentelle Funktion in Bezug
auf einen externen Wert zu, in diesem Fall den der Gleichheit.
Instrumentelle Theorien haben also gemeinsam, dass ihnen Demokratie letztlich
Mittel zum Zweck der Befrderung anderer Werte ist und nicht als intrinsisch wn-
schenswert erscheint.12 Dem widersprechen Vertreter einer nicht-instrumentellen
Legitimation der Demokratie, insofern sie demokratische Strukturen unabhngig

11 Anderson, Democracy: Instrumental vs. Non-Instrumental Value.


12 Siehe zur Verteidigung eines instrumentellen Demokratiebegriffs: Arneson, The Supposed Right
to a Democratic Say.
Demokratietheoretische Implikationen 43

von den durch sie gegebenenfalls herbeigefhrten, vorteilhaften Konsequenzen


fr erstrebenswert halten. Wir sollten demzufolge eine demokratische Staatsform
nicht deshalb vor anderen bevorzugen, weil ihre Ergebnisse Vorteile versprechen;
sondern sie ist deshalb vorzuziehen, weil wir Freiheit streng genommen nur in
einer demokratischen Ttigkeit und Lebensweise selbst realisieren. Im Folgenden
mchte ich dieses Demokratieverstndnis in groben Zgen skizzieren, mgliche
Einwnde diskutieren und abschlieend auf seine Konsequenzen fr ein Recht auf
informationelle Selbstbestimmung eingehen.
Der Grundgedanke einer nicht-instrumentellen Legitimation von Demokratie
lsst sich am einfachsten anhand der Frage verdeutlichen, ob wir Mitglieder einer
Gesellschaft ohne politische Mitwirkungsrechte, die gleichwohl ein hohes Ma
individueller Entfaltungsrume bietet, einen hohen Lebensstandard ermglicht und
starke soziale Ungleichheiten vermeidet, als frei bezeichnen wrden (dass es sich
dabei nicht um eine gnzlich abstrakte Mglichkeit handelt, liee sich an verschiede-
nen Beispielen autoritrer Staaten zeigen). Whrend Vertreter eines rein negativen,
vorpolitischen Freiheitsbegriffes diese Frage unter Umstnden bejahen knnten,
mchte ich im Anschluss an einen auf Rousseau und Kant zurckgehenden Begriff
von Freiheit behaupten, dass wir dies nicht knnen. Der Grund ist in erster Linie
darin zu sehen, dass Menschen nicht dann als frei anzusehen sind, wenn sie von
niemandem an der Verfolgung ihrer naturgem vielfltigen Bedrfnisse gehindert
werden; vielmehr knnen sie gerade in der unbeschrnkten Bedrfnisbefriedigung
in besonderer Weise unfrei sein, insofern ihnen ein Kriterium zur Unterscheidung
der Relevanz unmittelbarer Bedrfnisse fehlt und sie gerade in Abhngigkeit von
eigenen Bedrfnissen geraten knnen.13 Frei sind sie streng genommen nur dann,
wenn sie dabei Normen folgen, und zwar solchen Normen, die sie sich selbst gege-
ben haben. Erst diese Form der Ausarbeitung und Befolgung von Normen erlaubt es,
von freien Menschen im Sinne selbstbestimmter, autonomer Personen zu sprechen.
Nun knnte eingewandt werden, es sei fr ein freies Leben nicht zwingend erfor-
derlich, auch selbst an der Ausarbeitung geltender Normen beteiligt zu sein, sondern
es reiche, den potentiellen Gefahren vorzubeugen, die blicherweise mit Formen
der Fremdbeherrschung einhergehen, indem strukturell sichergestellt wird, dass
niemand Opfer willkrlicher Entscheidungen werden kann.14 In der Konsequenz
liefe dies darauf hinaus, zwar Gesetzesherrschaft als Bedingung fr Freiheit anzu-

13 Eine Reihe klassischer Einwnde gegen einen rein negativen Freiheitsbegriff ndet sich bereits bei
Taylor, Der Irrtum der negativen Freiheit.
14 Diesen Ansatz vertreten insbesondere Philip Pettit und Quentin Skinner. Beide bestehen darauf, re-
publikanische Freiheit lediglich als rule of law bzw. als non-domination oder independence from
arbitrary power zu fassen und nicht im Sinne einer positiven Freiheit der self-mastery oder Au-
tonomie im Sinne selbst auferlegter Gesetze. Vgl. Pettit, Republicanism; und Skinner, A Third
Concept of Liberty.
44 Max Winter

sehen, nicht notwendig aber die Herrschaft durch selbst gegebene Gesetze. Erst der
letztere Umstand aber, nmlich nicht nur Adressat von Gesetzen zu sein, sondern
an der Ausarbeitung dieser Gesetze auch aktiv beteiligt und insofern auch ihr Autor
zu sein, unterscheidet die wohlwollende Technokratie von der gelebten Demokra-
tie. Anders gesagt: Es ist wenig sinnvoll, die politische Ttigkeit der Menschen
als notwendiges bel zur Durchsetzung rein privater Interessen anzusehen, das
ihnen in einer paternalistischen, nicht-demokratischen Gesellschaft erspart bliebe.
Whrend Vertreter des politischen Liberalismus dazu tendieren, Demokratie als
(bestgeeignetste) Organisationsform zu verstehen, um den Zweck des negativen
Schutzes privater Interessen zu sichern, lsst sich der Grundgedanke von Vertretern
eines nicht-instrumentellen Demokratieverstndnisses eben so beschreiben, dass
Selbstbestimmung und mithin Freiheit nur als aktive Teilhabe an demokratischen
Deliberationsprozessen berhaupt vorgestellt werden kann.15 Es geht mit anderen
Worten um die Ausbung von Freiheit und nicht um deren formale Prservation,
was weitreichende Auswirkungen auf das Bild der Brgerschaft hat, die sich in
demokratischer Partizipation und in zivilgesellschaftlichem Engagement erst ver-
wirklicht. Dies hat also durchaus eine Abkehr von demjenigen Paradigma zur Folge,
das Freiheit in der mglichst ungehinderten Befriedigung privater, vorpolitischer
Prferenzen sieht.16
Eine so verstandene, nicht-instrumentelle Demokratietheorie in diesem starken
Sinne hat nun zwar einen in vieler Hinsicht gehaltvolleren und plausibleren Frei-
heitsbegriff anzubieten als ihr Gegenpart, ist aber ihrerseits wieder mit spezischen
Problemen behaftet. Denn der gehaltvolle Begriff von Freiheit als Autonomie ist
innerhalb des demokratischen Prozesses nur so lange reibungslos anwendbar, wie
von mehr oder minder konsensualen Systemen ausgegangen wird. In Fllen strit-
tiger Mehrheitsentscheidungen dagegen wird eine Minderheit stets von Regeln
beherrscht, die sie sich streng genommen nicht selbst gegeben hat und die sich
aus der Sicht des Einzelnen nicht notwendig von Regeln unterscheiden, die ihm
innerhalb autoritrer Systeme auferlegt wrden. Selbst minimal pluralistische Ge-
sellschaften aber werden schon beim Versuch der Klrung selbst sehr grundlegender
Fragen des Zusammenlebens keinen Konsens erzielen. Ein mglicher Ausweg be-
steht darin, die Anforderungen an legitime demokratische, freiheitsverbrgende
Normen zu senken. Wenn es nicht im strengen Sinn Normen sein knnen, die alle
sich faktisch gemeinsam auferlegen, so mssen es zumindest Normen sein, die sich
erstens in Form von Gesetzen, und das heit so formulieren lassen, dass sie univer-
salisierbar sind und damit fr alle gelten knnen. Dieses Kriterium etwa schliet
willkrliche Beschrnkungen auf bestimmte Personenkreise aus. Und zweitens
15 Vgl. Rostbll, The Non-instrumental Value of Democracy, S. 272.
16 Vgl. zum Begriff sozialer Freiheit im Kontext der demokratischen Willensbildung Honneth, Das
Recht der Freiheit, S. 470-612.
Demokratietheoretische Implikationen 45

muss sichergestellt sein, dass sich an der Aushandlung solcher Regeln potentiell
alle Brgerinnen und Brger gleichermaen beteiligen drfen. Dieses Kriterium
etwa schliet jede Form der Geheimverhandlung allgemeinverbindlicher Regeln
aus, wie sie derzeit im Fall des TTIP-Abkommens zu beobachten ist.

3. Schlussfolgerungen fr den Zweck und die Auslegung des


Rechts auf informationelle Selbstbestimmung
Ein nicht-instrumentelles Verstndnis von Demokratie in dem hier skizzierten
Sinne hat weitreichende Konsequenzen sowohl fr die Begrndung als auch fr
die konkrete Auslegung des Rechts auf informationelle Selbstbestimmung. Der
Grundgedanke meiner bisherigen Argumentation ist es gewesen, die abnehmen-
de Sensibilitt fr die Erfassung und Weiterverwendung persnlicher Daten zum
Anlass zu nehmen, den demokratietheoretischen Begrndungsstrang des Rechts
auf informationelle Selbstbestimmung anstelle des individualrechtlichen stark zu
machen. Die Bedeutung, die schon das Volkszhlungsurteil der informationellen
Selbstbestimmung fr ein auf aktive Mitwirkung angelegtes, demokratisches Ge-
meinwesen zuspricht, kann demzufolge als Hinweis auf ein nicht-instrumentelles
Demokratieverstndnis gelesen werden, dem demokratische Strukturen nicht als
bloes Mittel zur Erfllung individueller Zwecke gelten, sondern als Ausdruck
menschlicher Freiheit.
Freiheit in diesem bestimmten, nicht-instrumentellen Sinne einer Befolgung von
Normen, die potentiell alle Brgerinnen und Brger sich selbst in einem offenen
Prozess der Willensbildung geben, ist nur unzureichend realisierbar in einer Gesell-
schaft, in der sich bedeutende Teile unseres alltglichen Informationsaustauschs der
demokratischen Kontrolle entziehen und Regeln folgen, die hug weder Aususs
allgemeiner Mitwirkung noch universalisierbar sind. Diese Freiheitseinschrnkung
besteht und das ist der aus meiner Sicht entscheidende Punkt gnzlich unab-
hngig davon, ob sich einzelne oder sogar die Mehrheit der Brger von solchen
Umstnden persnlich in ihrer Freiheit eingeschrnkt sehen oder nicht. Eine Ge-
sellschaft, in der einzelne private oder staatliche Akteure ber persnliche Daten
nahezu aller Brger verfgen, beschrnkt die Mglichkeiten der aktiven Mitgestal-
tung des Gemeinwesens und der ffentlichen Meinungsuerung selbst dann, wenn
kein aktiver Gebrauch von derartigem Herrschaftswissen gemacht wird. Der Schutz
des Rechts auf informationelle Selbstbestimmung ist zuallererst Schutz einer auf
aktiver Mitwirkung basierenden Demokratie und erst mittelbar Schutz der Rechte
einzelner Brger.
Aus der demokratietheoretischen Begrndung des Rechts auf informationelle
Selbstbestimmung ergeben sich Konsequenzen fr den Zweck und die Ausge-
46 Max Winter

staltung datenschutzrechtlicher Manahmen, von denen abschlieend drei kurz


angedeutet werden sollen:

Der Schutz vor Erfassung und Verwendung persnlicher Daten hat nicht so
sehr im Interesse der Individuen zu erfolgen (denen an einer Preisgabe persn-
licher Daten aus partikularen Motiven sogar gelegen sein kann), sondern stellt
ein eminent ffentliches Interesse dar. Beschrnkungen der informationellen
Selbstbestimmung sind nicht so sehr eine Gefahr fr Einzelne (fr die sie hug
irrelevant sind bzw. gar nicht bemerkt werden), sondern fr die Demokratie, ver-
standen nicht als Mittel, sondern als eigenstndiger Zweck individueller Freiheit.
Ihrem Schutz hat sich das partikulare Interesse an einer individuellen Einwilli-
gung in die Preisgabe persnlicher Daten zur Teilhabe an sozialen Netzwerken
oder aus monetren Interessen unterzuordnen.

Oberstes Ziel datenschutzrechtlicher Manahmen ist daher nicht etwa die voll-
stndige, individuelle Verfgbarkeit ber persnliche Daten (die nicht zuletzt
aufgrund der Mehrrelationalitt solcher Daten obsolet erscheint), sondern die Ge-
whrleistung eines ffentlichen, digitalen Raums mit ffentlichen, demokratisch
ausgehandelten und stets neu verhandelbaren Regeln. Selbstbestimmt sind Br-
ger nicht dann, wenn sie frei ber ihre persnlichen Daten verfgen knnen,
sondern nur in einer Gesellschaftsordnung, die eine politische Willensbildung
ohne verzerrende Einsse von ngsten oder Einschchterungen gewhrleistet,
wie sie mit einer extremen Informationsasymmetrie einhergehen.

Daraus folgen weitreichende staatliche Pichten, auch und gerade im Umgang


mit privaten Dritten, wie etwa die Aufgabe des Abbaus bzw. der Regulierung
einer privatrechtlich verfassten Scheinffentlichkeit, in der die Regeln des Dis-
kurses selbst nicht zur Disposition stehen, sondern in pauschal zu akzeptierenden
Geschftsbedingungen und Datenschutzerklrungen versteckt sind oder gem
konomischem Kalkl zur Wahl gestellt werden. Ein Mittel dazu bestnde darin,
auf demokratischem Wege restriktive Anforderungen an privatrechtliche Ver-
trge bezglich der Datennutzung zu etablieren. Aber auch die Entwicklung
und die Vorgabe verbindlicher technischer Standards sind erforderlich, um die
Brgerinnen und Brger zu einer eigenstndigen Nutzung ihrer Gerte und
Kommunikationskanle zu ermchtigen. Analog zum privacy by design wre
hierbei an die verstrkte ffentliche Frderung quelloffener Softwareinfrastruk-
turen zu denken, die sich unter dem Schlagwort eines participation by design
zusammenfassen lieen.
Demokratietheoretische Implikationen 47

Literatur
Anderson, Elizabeth. Democracy: Instrumental vs. Non-Instrumental Value. In:
Contemporary Debates in Political Philosophy. Hrsg. von Thomas Christiano
und John Philip Christman. Contemporary debates in philosophy. Malden, MA:
Wiley-Blackwell, 2009, S. 213227.
Arneson, Richard J. The Supposed Right to a Democratic Say. In: Contemporary
Debates in Political Philosophy. Hrsg. von Thomas Christiano und John Philip
Christman. Malden, MA: Wiley-Blackwell, 2009, S. 197212.
Barnes, Susan B. A privacy paradox: Social networking in the United States. In:
First Monday 11.9 (2006). DOI: 10.5210/fm.v11i9.1394.
Bauman, Zygmunt und David Lyon. Daten, Drohnen, Disziplin: Ein Gesprch ber
chtige berwachung. Berlin: Suhrkamp, 2013.
Berger, Peter A. u. a. berwachung des digitalen Raumes: Verhaltensnderungen
von Internetnutzern. In: Soziale Welt 65 (2014), S. 221245.
Caluya, Gilbert. The post-panoptic society? Reassessing Foucault in surveillance
studies. In: Social Identities 16.5 (2010), S. 621633. DOI: 10.1080/13504630.
2010.509565.
Dienlin, Tobias und Sabine Trepte. Is the privacy paradox a relic of the past?
An in-depth analysis of privacy attitudes and privacy behaviors. In: European
Journal of Social Psychology 45 (2015), S. 285297. DOI: 10.1002/ejsp.2049.
Doerfel, Stephan u. a. Informationelle Selbstbestimmung im Web 2.0: Chancen und
Risiken sozialer Verschlagwortungssysteme. Berlin und Heidelberg: Springer
Berlin Heidelberg, 2013. DOI: 10.1007/978-3-642-38056-3.
Foucault, Michel. berwachen und Strafen: Die Geburt des Gefngnisses. Frankfurt
a. M.: Suhrkamp, 1977.
Gola, Peter u. a. Bundesdatenschutzgesetz: Kommentar. 12., berarb. und erg. Au.
Mnchen: Beck, 2015.
Honneth, Axel. Das Recht der Freiheit: Grundri einer demokratischen Sittlichkeit.
Berlin: Suhrkamp, 2011.
Maunz, Theodor und Gnter Drig, Hrsg. Grundgesetz: Kommentar. 55. Ergn-
zungslieferung. Mnchen: Beck, 2009.
Pettit, Philip. Republicanism: A theory of freedom and government. Oxford: Oxford
University Press, 1997.
Rostbll, Christian F. The Non-instrumental Value of Democracy: The Freedom
Argument. In: Constellations 22.2 (2015), S. 267278. DOI: 10.1111/1467-
8675.12159.
Skinner, Quentin. A Third Concept of Liberty. In: Proceedings of the British
Academy 117 (2002). Hrsg. von F.M.L. Thompson, S. 237268.
48 Max Winter

Spiekermann, Sarah u. a. Online Social Networks: Why We Disclose. In: Journal


of Information Technology 25.2 (2010), S. 109125. DOI: 10.1057/JIT.2010.6.
Steinmller, Wilhelm. Informationstechnologie und Gesellschaft: Einfhrung in
die Angewandte Informatik. Darmstadt: Wissenschaftl. Buchgesellschaft, 1993.
Stutzman, Fred, Robert Capra und Jamila Thompson. Factors mediating disclosure
in social network sites. In: Computers in Human Behavior 27.1 (2011), S. 590
598.
Taylor, Charles. Der Irrtum der negativen Freiheit. In: Negative Freiheit? Hrsg.
von Charles Taylor. Frankfurt am Main: Suhrkamp, 1999, S. 118144.
Warren, Samuel D. und Louis D. Brandeis. The Right to Privacy. In: Harvard
Law Review 4.5 (1890), S. 193220.
Die Zukunft des Rechts auf informationelle
Selbstbestimmung aus medienpsychologischer Sicht
Ricarda Moll

1. Einleitung
Das Recht auf informationelle Selbstbestimmung gewhrleistet, dass jeder Mensch
grundstzlich selbst ber die Preisgabe und Verwendung seiner persnlichen Daten
und damit darber bestimmen kann, wer was wann bei welcher Gelegenheit ber
ihn wei (BVerfG NJW 1984, S. 419 [422]). Das Grundrecht auf informationelle
Selbstbestimmung ist damit ein grundlegender Baustein einer auf der Freiheit und
Autonomie des Einzelnen beruhenden Kommunikationsordnung.1
Die Hervorhebung der Autonomie des Einzelnen macht insbesondere deutlich,
dass das Recht auf informationelle Selbstbestimmung eine individualpsychologi-
sche Dimension beinhaltet, in der Personen Kontrolle darber haben sollen (und
somit Verantwortung dafr bernehmen knnen), fr welche Personenkreise ihre
Informationen zugnglich sind.2 Dies entspricht einussreichen psychologischen
Theorien zum individuellen Umgang mit der eigenen Privatheit.3 So denierte
Irwin Altman bereits in den 1970er Jahren Privatheit als einen dynamischen Prozess,
bei dem Personen ihre interpersonalen Beziehungen darber regulieren, dass sie
Informationen mehr oder minder zugnglich machen.4 Privatheit setzt innerhalb die-
ser Modellvorstellung die auch dem Recht auf informationelle Selbstbestimmung
zugrunde liegen scheint voraus, dass Personen kontrollieren knnen, wer Zugriff
auf ihre Informationen hat. Das zugrundeliegende Privatheitsmodell kann auch als
deterministisch bezeichnet werden, da Privatheit und informationelle Selbstbestim-
mung ber eine wenn-dann-Beziehung zweier Parameter zustande kommen kann
* Dr. Ricarda Moll | Westflische Wilhelms-Universitt Mnster | ricarda.moll@uni-muenster.de
Teile der in diesem Beitrag prsentierten Inhalte sind in dieser oder hnlicher Form bereits in den
folgenden Publikationen erschienen: Moll, (Meta-)Cognitive Parameters of Privacy Regulation;
Moll, Pieschl und Bromme, Trust into Collective Privacy?
1 Culmsee, Prinzipien des Datenschutzrechts.
2 Kontrolle wird in diesem Beitrag in erster Linie unter sozialwissenschaftlichen Aspekten behandelt.
Die Darstellungen erheben keinen Anspruch auf juristische Gltigkeit.
3 Fr einen berblick siehe z. B. Margulis, Three Theories of Privacy.
4 Altman, Privacy a conceptual analysis.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_4
50 Ricarda Moll

(zugespitzt formuliert: wenn man kontrollieren kann, wer potentiell Zugriff auf die
eigenen persnlichen Informationen hat, dann kann man zu einem gewissen Aus-
ma Privatheit erlangen).5 Aus medienpsychologischer Perspektive schliet sich
jedoch unmittelbar die Frage an, ob auch NutzerInnen selbst mit dem Konzept der
Privatheit deterministisch umgehen, indem sie sich beispielsweise ihrer Privatheit
beraubt fhlen, wenn sie keine Kontrolle ber das Publikum ausben (knnen).
Hierzu muss zunchst die Frage beantwortet werden, auf welcher Informationsbasis
NutzerInnen berhaupt Wissen ber die eigene Privatheit erlangen knnen, auf
Basis dessen sie wiederum die eigene Privatheit regulieren. Die Kernthese hierbei
ist, dass dieses Wissen im Wesentlichen auf Informationen ber das Publikum
als Empfnger der eigenen Informationen zurckgeht. Unterschieden wird zwi-
schen zwei verschiedenen Publikumskategorien, die die Wahrnehmung der eigenen
Privatheit beeinussen knnen.

1. Informationen ber das potentielle Publikum, d. h. diejenigen Akteure, die


ber kontextabhngige Mechanismen Zugang zu den offenbarten Informationen
haben,

2. Informationen ber das tatschliche Publikum, d. h.diejenigen Akteure, die ber


die bloe Zugriffsberechtigung hinaus die Informationen auch tatschlich lesen
und verstehen.

Die im Folgenden errterten theoretischen Anstze und empirischen Befunde be-


ziehen sich grtenteils auf den Kontext sozialer Medien, in denen NutzerInnen mit
anderen NutzerInnen kommunizieren (Netzwerkpublikum; Informationen werden
unter Aufwand kognitiver Ressourcen gelesen) und dabei in Relation zu automati-
siert erhobenen personenbezogenen Daten bewusst Informationen ber sich selbst
preisgeben. Aus dieser Kommunikationssituation lassen sich anschlieend Implika-
tionen fr weitere Kontexte ableiten: So offenbaren NutzerInnen ihre Informationen
nicht nur ihrem Netzwerkpublikum, sondern machen sie gleichermaen zugnglich
fr Unternehmen und Behrden (institutionelles Publikum; Informationen werden
unter Einsatz technischer Rechenkapazitt verarbeitet), die sich der individuellen
Privatheitsregulation weitestgehend entziehen und die auch auerhalb des Kontextes
sozialer Medien personenbezogene Informationen speichern und verarbeiten.
Abschnitt 2 behandelt zunchst zwei theoretische Anstze innerhalb derer privat-
heitsbezogene Entscheidungen oftmals konzeptualisiert werden. Darauf aufbauend
wird diskutiert, inwieweit und auf welche Art und Weise NutzerInnen Wissen
ber ihr potentielles (Abschnitt 3) und tatschliches Publikum (Abschnitt 4) haben

5 Fr eine kritische Auseinandersetzung mit der Beziehung zwischen Kontrolle und Privatheit siehe
Ben-Zeev, Privacy, Emotional Closeness, and Openness in Cyberspace.
Medienpsychologische Sicht 51

knnen. Anschlieend wird unter Rckbezug auf die Vorstellung eines determinis-
tischen Modells von Privatheit (s.o.) diskutiert, inwieweit dies der individuellen
Wahrnehmung von Privatheit entspricht (Abschnitt 5).

2. Modellvorstellungen zu privatheitsbezogenem Verhalten


Kommunizieren NutzerInnen online, benden sie sich stets in einem Dilemma, da
Selbstoffenbarung dialektisch mit einem Privatheitsverlust verbunden ist:6 Wird
eine Information offenbart, ist sie automatisch zugnglich fr weitere Akteure,
was wiederum mit bestimmten Risiken verbunden ist. Whrend Selbstoffenbarung
gegenber dem Netzwerkpublikum das Risiko negativer Bewertungen und Cyber-
bullying (Mobbing mit Hilfe elektronischer Kommunikationsanwendungen)7 birgt,
ermglicht die Weiterverarbeitung dieser Daten durch das institutionelle Publikum
die Erstellung digitaler Dossiers, die wiederum personalisierte Werbung und syste-
matische Diskriminierung zulassen. Dies wiederum bedeutet, dass NutzerInnen sich
zumindest theoretisch stndig mit dem Spannungsverhltnis zwischen den Vorteilen
von Informationspreisgabe (Selbstoffenbarung) und den damit verbundenen Risiken
auseinandersetzen mssen. Zwei Anstze, wie dieses Spannungsverhltnis gelst
wird, sollen an dieser Stelle kurz skizziert werden.
Ein eher situationsbezogener Ansatz ist der des sogenannten Privacy Calculus.
Dieser grndet in der verhaltenskonomischen Vorstellung eines prinzipiell rational
agierenden Menschen, der die Vor- und Nachteile seiner (privatheitsbezogenen)
Entscheidungen zunchst sorgfltig abwgt, und sich dann fr diejenige Option
entscheidet, die ihm die grten Vorteile erbringt.8 Analog zu einer Rechenglei-
chung fllt die Entscheidung zugunsten einer Selbstoffenbarung, wenn die Vorteile
grer als die Nachteile sind. Die Vorstellung dieser rationalen Abwgung in online-
Kontexten ndet sich explizit oder implizit in einer groen Anzahl multidiszipli-
nrer Arbeiten wieder, die sich mit den Kontextbedingungen privatheitsbezogener
Entscheidungen beschftigen. So wird beispielsweise oftmals versucht, den Einuss
verschiedener situations- sowie personenimmanenter Variablen auf die Bereitschaft
zur Selbstoffenbarung zu bestimmen. Dies sind im Wesentlichen Variablen, die
die Risikowahrnehmung beeinussen, wie beispielsweise die Wahrnehmung von
Kontrollmglichkeiten, Wahrnehmung der Vertrauenswrdigkeit verschiedener
Situationsparameter, und generelle Privatheitssorgen.9
6 Petronio, Boundaries of Privacy.
7 Li, Cyberbullying in Schools; Pieschl u. a., Relevant dimensions of cyberbullying.
8 Z. B. Dinev und Hart, An Extended Privacy Calculus Model for E-Commerce Transactions; Wil-
son und Valacich, Unpacking the Privacy Paradox.
9 Z. B. Taddei und Contena, Privacy, Trust and Control; fr einen berblick: Acquisti, Brandimarte
und Loewenstein, Privacy and Human Behavior in the Age of Information.
52 Ricarda Moll

Kritik an der Grundidee des Privacy Calculus wurde zwar frh geuert, hat
aber der Beliebtheit des Ansatzes als wissenschaftliche Denkkategorie keinen
prinzipiellen Abbruch getan: So wandte Acquisti Erkenntnisse aus verhaltensko-
nomischer Forschung auf den Kontext privatheitsbezogener Entscheidungen an
und schlussfolgerte, dass NutzerInnen zu einer rationalen Abwgung von Vorteilen
und Risiken nicht in der Lage seien, da ihnen die relevanten Informationen fr den
Abwgungsprozess entweder fehlten, oder unsichere und in der Zukunft liegende
Risiken der Informationspreisgabe geringer werteten als damit sicher verbundene
und unmittelbare verfgbare Vorteile (hyperbolic discounting).10 Der innerhalb des
Privacy Calculus stattndende Abwgungsprozess wre entsprechend ber eine Un-
terreprsentation von Risiken verzerrt, zugunsten der Bereitschaft, Informationen
preiszugeben.
Eine zweite Kategorie von Anstzen geht ber die Vorstellung von situativen
Entscheidungen des Privacy Calculus Modells hinaus. Innerhalb von Selbstregulati-
onsmodellen werden privatheitsbezogene Entscheidungen vor dem Hintergrund pro-
zeduraler Mechanismen verstanden, innerhalb derer NutzerInnen den Ist-Zustand
ihrer Privatheit (Status Quo; z. B.: was habe ich bereits offenbart, fr wen sind
meine Informationen zugnglich) mit dem Soll-Zustand (Privatheitsbedrfnisse;
z. B.: was mchte ich, dass andere von mir erfahren knnen), vergleichen.11
Selbstregulation dieser Art stellt NutzerInnen vor die Herausforderung, die eigenen
kognitiven Zustnde und Prozesse zu berwachen eine kognitive Aktivitt, die als
metakognitives Monitoring bezeichnet wird.12
Analog zum Privacy Calculus stellt sich auch in Zusammenhang mit Selbstregu-
lationsmodellen die Frage, wie valide und zielfhrend diese Selbstregulation sein
kann. Entscheidend dafr ist, dass NutzerInnen nicht nur eine klare Vorstellung da-
von haben, was genau ihre Privatheitsbedrfnisse sind, sondern auch, dass sie eine
akkurate kognitive Reprsentation des Status Quo ihrer Privatheit haben. Nur dann
kann eine mglicherweise vorhandene Diskrepanz zwischen Ist- und Soll-Zustand
aufgedeckt und reguliert werden.
blicherweise haben Personen das Wissen um den Status Quo ihrer Privatheit
(so wie jedes Wissen um nicht direkt beobachtbare Merkmale)13 nicht unmittelbar,
sondern mssen dieses Wissen aus mehr oder minder validen Umgebungsinfor-
mationen herleiten. In Bezug auf die eigene Privatheit liegt es nahe, dass dazu
Informationen ber die Empfnger der eigenen Informationen, d. h. Informationen
ber das Publikum, relevant sind. Eine Eigenschaft digital vermittelter Kommunika-
tion ist jedoch, dass Informationen ber das Publikum hug uneindeutig sind und
10 Acquisti, Privacy in Electronic Commerce and the Economics of Immediate Gratication.
11 Petronio, Boundaries of Privacy; Dienlin, The Privacy Process Model.
12 Pieschl, Metacognitive Calibration.
13 Brunswik, Representative Design and Probabilistic Theory in a Functional Psychology.
Medienpsychologische Sicht 53

es entsprechend unklar ist, welche Publikumsinformationen fr Inferenzen ber


die eigene Privatheit relevant sind. So kann einerseits das potentielle Publikum als
Empfngerkreis wahrgenommen werden, d. h. diejenigen Akteure, die ber Einstel-
lungen und Hintergrundprozesse Zugriff auf die nutzergenerierten Informationen
haben. Davon zu unterscheiden ist das tatschliche Publikum, das als Teilmenge des
potentiellen Publikums ber die bloe Zugriffsberechtigung hinaus auch Gebrauch
von dieser Berechtigung macht und die offenbarten Inhalte tatschlich verarbeitet
und kontextualisiert.
Im Folgenden wird der Frage nachgegangen, wie valide Wissen ber diese
Publikumsformen in digitalen Kontexten sein kann und entsprechend auch, wie
akkurat NutzerInnen eigentlich den Status Quo ihrer Privatheit als Grundlage fr
ihr privatheitsregulierendes Verhalten abbilden knnen.

3. Wissen ber das potentielle Publikum


Um den Ist-Zustand der eigenen Privatheit in Form von Wissen ber ihr potentielles
Publikum ableiten zu knnen, mssten NutzerInnen in erster Linie zutreffendes
Wissen darber haben, fr wen ihre Informationen zugnglich sind (potentielles
Publikum). Inwieweit sie dies leisten knnen, wurde in eigenen Untersuchungen fr
den Kontext sozialer Netzwerkseiten untersucht.14 In standardisierten Interviews
wurden SchlerInnen (N = 45; 20 weiblich; mittleres Alter 16,53 Jahre) zu ihrer
Facebook-Nutzung befragt. Sie machten fr 16 inhaltliche Prolkategorien Anga-
ben dazu, ob sie eine Information in den verschiedenen Prolkategorien offenbart
hatten, und fr wen der entsprechende Inhalt sichtbar war. Fr jede Angabe stuf-
ten die SchlerInnen zustzlich ihre subjektive Sicherheit ein, dass die gemachte
Angabe korrekt war. Im Anschluss loggten die SchlerInnen sich in ihren Facebook-
Account ein, sodass die Interviewer dokumentieren konnten, in welchen Kategorien
tatschlich Informationen preisgegeben wurde und fr wen sie tatschlich sichtbar
waren.
Die Ergebnisse zeigten, dass die SchlerInnen in der berwiegenden Anzahl
der Flle korrekte Angaben bezglich ihrer Prolinhalte machen konnten. Die
Angaben zu der entsprechenden Publikumseinstellung bereiteten hingegen groe
Schwierigkeiten. ber alle SchlerInnen und Prolkategorien hinweg waren le-
diglich rund 50 % der Annahmen ber die Publikumseinstellungen korrekt. Dabei
gingen die SchlerInnen nicht systematisch davon aus, dass ihre Inhalte privater
seien als sie es tatschlich waren. Stattdessen gab es gleichermaen hug Flle,
in denen SchlerInnen grere ffentlichkeit fr Informationen erwarteten, deren
Sichtbarkeit sie tatschlich jedoch eingeschrnkt hatten.
14 Moll, Pieschl und Bromme, Competent or Clueless?
54 Ricarda Moll

Das fehlende Wissen der SchlerInnen zeigte sich ebenso auf metakognitiver
Ebene. Berechnet wurde hier ein intraindividuelles Zusammenhangsma zwischen
der subjektiven Sicherheit der SchlerInnen in die Korrektheit ihrer eigenen Antwor-
ten, und der tatschlichen Korrektheit ihrer Angaben (metakognitive Akkuratheit).
Dieser Zusammenhang war nur geringfgig vorhanden fr die Angaben zu offen-
barten Prolinhalten, und fehlte fr die Angaben zu den Publikumseinstellungen
vollstndig. Dieses Ergebnis impliziert, dass NutzerInnen nicht nur nicht wissen,
wer potentiell Zugang zu ihren Informationen hat, sondern sich selbst darber
hinaus auch nicht bewusst ber diese Wissenslcke sind.
Im Kontext der Kommunikation auf sozialen Netzwerkseiten ist das potenti-
elle Publikum vergleichsweise unkompliziert zu kontrollieren. Auch wenn das
Interface-Design der verschiedenen Angebote variiert, so ist es doch in der Regel
mglich, Kontrolle darber auszuben, welche anderen Personen Zugang zu den
eigenen Informationen haben. Dennoch ben NutzerInnen diese Form der Kontrolle
kaum aus, zum Beispiel ber das Erstellen spezischer Empfngerlisten,15 und
haben kaum Wissen darber, welche anderen NutzerInnen auf ihre Informationen
zugreifen knnen. Mit anderen Worten haben sie keine validen Anhaltspunkte fr
das potentielle Publikum, aus denen sie den Status Quo ihrer Privatheit ableiten
knnten. Dies und das darber hinaus festgestellte eingeschrnkte Bewusstsein ber
dieses fehlende Wissen macht eine funktionale Privatheitsregulation zumindest
unwahrscheinlicher.
Im Gegensatz zur Kommunikation mit dem Netzwerkpublikum, gibt es im Kon-
text der institutionellen Datenverarbeitung durch Unternehmen und Behrden kaum
eine Mglichkeit, einen berblick ber die potentiellen Empfnger zu erlangen
oder den Zugriff auf Informationen in efzienter Form einzuschrnken. Darber
sind sich NutzerInnen durchaus bewusst, worauf folgendes Zitat aus einer qualitati-
ven Untersuchung von Kang, Dabbish, Fruchter, und Kiesler hinweist: I think it
goes everywhere. Information just goes, well say like the earth. I think everybody
has access.16 NutzerInnen knnen entsprechend kein akkurates Wissen ber ihr
potentielles, institutionelles Publikum haben. Die geschilderten empirischen Befun-
de implizieren darber hinaus, dass selbst wenn NutzerInnen den Zugriff auf ihre
Informationen durch Unternehmen und Behrden granular beschrnken knnten,
sie dies vor groe Herausforderungen stellen wrde.

15 Vitak, The Impact of Context Collapse and Privacy on Social Network Site Disclosures.
16 Kang u. a., My Data Just Goes Everywhere, S. 45.
Medienpsychologische Sicht 55

4. Wissen ber das tatschliche Publikum


4.1. Imagined audiences
In der alltglichen Kommunikation, auch in nicht-digitalisierten Kontexten, ist es
in der Regel ausschlaggebend fr die Beziehung zwischen Personen, was Perso-
nen tatschlich miteinander teilen und voneinander wissen. Beispielsweise ist es
unwahrscheinlich, dass Menschen einen Privatheitsverlust gegenber Personen
empnden, die sich zum Zeitpunkt der Selbstoffenbarung zwar im selben Raum
benden, die mitgeteilte Nachricht jedoch aufgrund der Lautstrke im Raum nicht
mitbekommen haben. Insofern kann auch fr digitalisierte Kontexte die These auf-
gestellt werden, dass fr die kognitive Reprsentation des Ist-Zustands der eigenen
Privatheit nicht alleine ausschlaggebend ist, welche Akteure potentiell Zugang zu
den selbstoffenbarten Informationen haben, sondern auch, ob diese Akteure diese
Information auch aktiv rezipieren, verstehen, und dazu nutzen, um sie in ihr Wissen
ber die andere Person zu integrieren (tatschliches Publikum).
Whrend es in nicht digitalisierten Kontexten jedoch relativ einfach ist, zu erken-
nen, wer Bestandteil der gerade stattndenden interpersonellen Kommunikation
ist, ist dies in online-Kontexten aufgrund der Persistenz digitaler Informationen nur
eingeschrnkt mglich.17 Insofern knnen NutzerInnen in vielen Situationen kein
sicheres Wissen bezglich ihres tatschlichen Publikums haben. Nichtsdestotrotz
scheinen sie eine Vorstellung davon zu haben, wer ihr tatschliches Publikum ist
(imagined audience).18 So konnte verschiedentlich gezeigt werden, dass Blogge-
rInnen auch ohne konkrete Hinweise auf ihre Leserschaft, davon ausgehen, dass
sie einen substantiellen Teil ihres Publikums persnlich kennen.19 Diese Annahme
scheint mageblich dafr zu sein, wie sich BloggerInnen und NutzerInnen sozialer
Netzwerkseiten online darstellen, und entsprechend auch wie sie ihre Privatheit regu-
lieren.20 Dementgegen konnten Bernstein et al. zeigen, dass Facebook-NutzerInnen
die Gre ihrer tatschlichen Leserschaft um den Faktor 4 unterschtzen.21 Die
AutorInnen konnten mit anderen Worten zeigen, dass NutzerInnen unabhngig
von der zumeist recht umfassenden Kontaktliste nicht davon ausgingen, dass diese
Leute auch alle ihre Informationen lesen.
Da Vorstellungen ber das (tatschliche) Publikum das Privatheitsempnden
von NutzerInnen beeinussen kann - und damit auch die Art und Weise, wie sie

17 boyd, Taken Out of Context.


18 Litt, Knock, Knock. Whos There?
19 Vigas, Bloggers Expectations of Privacy and Accountability; Schmidt, (Micro)blogs.
20 Litt und Hargittai, The Imagined Audience on Social Network Sites.
21 Bernstein u. a., Quantifying the Invisible Audience in Social Networks.
56 Ricarda Moll

ihre Privatheit regulieren scheint es wichtig zu klren, warum NutzerInnen ihre


Leserschaft derart unterschtzen.

4.2. Implizite Theorien


Ein Erklrungsansatz fr die in Abschnitt 4.1 beschriebene (Fehl-)Annahme ist,
dass NutzerInnen implizite Theorien dazu haben, wie sich andere Personen in Bezug
auf digitale Informationen generell verhalten.
Der Begriff der impliziten Theorie (auch Laien-, subjektive, naive, oder intuitive
Theorie) stammt aus dem Bereich der Entwicklungs- sowie kognitiven Psychologie
und beschreibt eine Mglichkeit, wie menschliches Wissen strukturiert sein knnte.
Da Menschen zumeist unter fundamentaler Unsicherheit urteilen und handeln ms-
sen,22 ziehen sie oftmals Inferenzen auf Basis ihrer eigenen Alltagserfahrungen.
Diese Inferenzen knnen derart miteinander verknpft sein, dass sie eine Hierarchie
von Aussagen und Argumenten bilden,23 die zusammengenommen Verkettungen
von Kausalerklrungen nicht beobachtbarer Zusammenhnge bilden. Mit anderen
Worten entstehen aus verschiedenen grundlegenderen impliziten Annahmen komple-
xere Erklrungen fr nicht beobachtbare Phnomene. Derlei implizite Theorien und
Annahmen sind im Vergleich zu wissenschaftlichen Theorien jedoch selten formal,
bewusst, oder kohrent, und werden auch so gut wie nie einer systematischen empi-
rischen Testung unterzogen.24 Vielmehr erhhen sie die Wahrscheinlichkeit, dass
die Umwelt in einer Form rezipiert wird, die die bereits vorhandenen Annahmen
sttzen. Insofern stellen implizite Annahmen und Theorien die Rahmenbedingun-
gen fr alle weiteren Wahrnehmungen und Verhaltensweisen dar.25
Angewandt auf die Annahmen, die NutzerInnen in Bezug auf ihr tatschliches
Publikum haben, scheint insbesondere eine Alltagserfahrung prgnant im Um-
gang mit digitalen Medien zu sein und insofern auch relevant fr die Entwicklung
impliziter Annahmen ber das tatschliche Publikum: NutzerInnen scheinen in
Zusammenhang mit digitalen Medien immer regelmiger die Erfahrung der Infor-
mationsberladung (Information Overload) zu machen, das heit also die Erfahrung,
Zugriff auf mehr Informationen zu haben oder mehr Informationen zu erhalten
als kognitiv verarbeitet werden knnen.26 Um mit dieser Informationsberladung
umzugehen, haben NutzerInnen Strategien entwickelt, die Hargittai et al. als einen
sophisticated mix of attention and inattention bezeichnen.27 Dies wird beispiels-
22 Tversky und Kahneman, Judgement under Uncertainty.
23 Bromme, On the Limitations of the Theory Metaphor for the Study of Teachers Expert Knowled-
ge.
24 Gelman und Noles, Domains and Naive Theories.
25 Dweck, Chiu und Hong, Implicit Theories and their Role in Judgments and Reactions.
26 Eppler und Mengis, The Concept of Information Overload.
27 Hargittai, Neuman und Curry, Taming the Information Tide.
Medienpsychologische Sicht 57

weise gesttzt durch Befunde aus einer Eyetracking-Studie, die das Leseverhalten
von Twitter-Nutzern untersuchte. Hier zeigte sich, dass die Nutzer sich jedem
Tweet nur sehr kurz widmen und sich hinterher nur an einen Teil der gelesenen
Inhalte erinnern.28 Insgesamt scheinen NutzerInnen also als Konsequenz aus ihrer
Informationsberladung ihre begrenzte Aufmerksamkeits- und Verarbeitungskapa-
zitt konomisch einzusetzen, in dem sie berssige Informationen systematisch
ausblenden.29
Diese alltglichen Erfahrungen und Strategien knnen bedeutend fr implizite
Theorien und Annahmen ber das Publikum sein. So benutzen Menschen ihre
eigenen Erfahrungen und Verhaltensweisen oft als ein Standard-Modell, wenn sie
Annahmen ber andere Menschen bilden.30 bertragen auf die beschriebene Er-
fahrung knnte dies entsprechend dazu fhren, dass NutzerInnen aufgrund ihrer
eigenen Informationsberladung davon ausgehen, dass auch andere Akteure nur
begrenzte Aufmerksamkeits- und Verarbeitungskapazitten haben und daher sorgfl-
tig selektieren mssen, welchen Informationen sie Beachtung schenken. Lundblad
argumentierte in diesem Zusammenhang, dass NutzerInnen auf Basis dieser An-
nahme eine kollektive Privatheitserwartung entwickeln: Auch wenn Informationen
grundstzlich ffentlich zugnglich seien, knnten sie als privat wahrgenommen
werden, da die berwltigende Masse aller vorhandenen Informationen es unwahr-
scheinlich macht (wenn auch nicht ausschliet), dass sich nur wenige Leute die
Mhe machen, einzelne Informationen zu kontextualisieren und ihnen somit erst
Bedeutung zu geben.31 Insofern scheint es seitens der NutzerInnen zumindest ein
latentes Bewusstsein dafr zu geben, dass andere Akteure die in numerischem
Format vorliegenden Daten nur unter Aufwand begrenzter Verarbeitungsressour-
cen in tatschliches Wissen umwandeln knnen. Die skizzierten berlegungen
zum tatschlichen Publikum implizieren ein probabilistisches Grundmodell von
Privatheit, da es auf Wahrscheinlichkeitsaussagen ber das Publikum basiert. Dies
steht in Kontrast zur deterministischen Ausrichtung des Rechts auf informatio-
nelle Selbstbestimmung, innerhalb derer Personen tatschliche Kontrolle darber
ausben knnen sollen, wer ihr Publikum ist.

4.3. Empirische Hinweise


Empirische Hinweise auf die beschriebene Inferenzstruktur ber das Publikum
sind einerseits in wissenschaftlichen Debatten um privatheitsbezogenes Verhalten

28 Counts und Fisher, Taking It All In?


29 Franck, konomie der Aufmerksamkeit; Klapp, Opening and Closing.
30 Nickerson, How we Know and Sometimes Misjudge What Others Know.
31 Lundblad, Privacy in the Noise Society.
58 Ricarda Moll

zu nden. So interpretieren Frye und Dornisch,32 dass der fehlende Zusammen-


hang zwischen Privatheitssorgen und tatschlichem Privatheitsverhalten (Privacy
Paradox) dadurch zustande kme, dass erfahrene Nutzer nicht wirklich davon
ausgehen, dass sie berwacht werden, auch wenn dies prinzipiell mglich wre.
Ebenso diskutieren Hoadley, Xu, und Rosson33 das Konzept der illusory control in
Zusammenhang mit dem Widerstand, der unter Facebook-NutzerInnen gegen die
Einfhrung der Newsfeed-Funktion im Jahr 2006 aufkam. Dieser machte ber eine
Push-Funktion die Aktivitten der NutzerInnen leichter aufndbar, nicht jedoch
zugnglich fr ein greres Publikum. Dennoch interpretierten NutzerInnen die
vereinfachte Aufndbarkeit ihrer Informationen als eine erhhte Wahrscheinlich-
keit fr ein Eindringen in ihre Privatssphre. Interessanterweise wurde in diesem
Zusammenhang erst der Moment, in dem andere Personen eine Information auch
tatschlich beachten, als Eindringen in die Privatssphre gesehen, und nicht, dass
diese Personen ohnehin schon Zugang zu dieser Information hatten.
Systematische Hinweise auf die beschriebene implizite Theorie sind vereinzelt
vorhanden. So wurden in einer Experimentalserie Informationen zur Informati-
onsberladung des Publikums variiert. Wurde eine hohe Informationsberladung
des Publikums suggeriert, hielten es die Teilnehmenden fr unwahrscheinlicher,
dass eine bestimmte Person auf ihre Informationen zugreift, und erwarteten von
einem prozentual geringerem Anteil des Publikums, die eigenen Informationen
auch tatschlich zu lesen.34
Whrend sich diese Befunde auf das Netzwerkpublikum beziehen, gibt es eben-
falls Anhaltspunkte fr die Existenz dieser Annahmen in Bezug auf Unternehmen
und Behrden. So zeigen qualitative Untersuchungen, dass NutzerInnen kaum eine
Vorstellung von den Mglichkeiten Algorithmen-basierter, automatisierter Daten-
auswertung haben, und auch in diesem Kontext von begrenzten Ressourcen des
Publikums ausgehen. So uerte sich eine Studienteilnehmerin in der Untersuchung
von Gebel, Schubert, und Wagner (2016) folgendermaen: Ich glaube nicht, dass
sie wirklich jede, von jedem Einzelnen die Nachrichten lesen, das wre ja bertrie-
ben.35 An diesem Beispiel wird deutlich, dass probabilistische Annahmen ber
das tatschliche Publikum nicht nur keine Garantie fr das gewnschte Ma an
Privatheit bieten, sondern darber hinaus auch auf falschen Prmissen aufbauen. So
sind Unternehmen und Behrden nur selten durch menschliche Verarbeitungskapa-
zitten begrenzt, was wiederum das Fundament der probabilistischen Erwartung
nach kollektiver Privatheit kompromittiert.

32 Frye und Dornisch, When is Trust not Enough?


33 Hoadley u. a., Privacy as Information Access and Illusory Control.
34 Moll, Pieschl und Bromme, Whoever will Read it.
35 Gebel, Schubert und Wagner, . . . dann sollte man gar nicht erst ins Internet, S. 14.
Medienpsychologische Sicht 59

Zusammengefasst scheinen NutzerInnen nicht nur Erwartungen dahingehend zu


haben, wer ihre Informationen tatschlich liest, sondern auch dazu, warum viele
andere Personen die eigenen Informationen nicht lesen. Aufgrund der Persistenz
digitaler Informationen sind solche Annahmen zum tatschlichen Publikum von
Natur aus probabilistisch. Nichtsdestotrotz knnten Annahmen dieser Art Einuss
darauf haben, wie NutzerInnen ihre eigene Privatheit wahrnehmen und regulieren.
Da die beschriebenen Annahmen jedoch nicht systematisch die Realitt wider-
spiegeln, knnte eine darauf aufbauende Privatheitsregulation nur eingeschrnkt
persnliche Privatheitsbedrfnisse befriedigen.

5. Diskussion: Die Zukunft des Rechts auf informationelle


Selbstbestimmung
Der Ausgangspunkt fr die in Abschnitt 2 bis 4 diskutierten Inhalte war die Fra-
ge nach den kognitiven Rahmenbedingungen, unter denen NutzerInnen Kontrolle
ber ihre eigenen Informationen ausben. Selbstregulationsmodelle legen nahe,
dass NutzerInnen individuelle Privatheitsbedrfnisse im Sinne eines Soll-Zustands
haben, an die der Ist-Zustand ber verschiedene Verhaltensweisen angepasst wird.
In Frage steht jedoch, ob NutzerInnen berhaupt eine akkurate kognitive Repr-
sentation dieses Ist-Zustands der eigenen Privatheit haben, da sich diese mitunter
aus Informationen ber das Publikum speist, deren Validitt unsicher ist. Fr diese
Informationen wurden zwei Publikumskategorien unterschieden, das potentielle
und das tatschliche Publikum.
Die empirischen Hinweise deuten hierbei einerseits darauf hin, dass NutzerIn-
nen im Kontext sozialer Netzwerkseiten nur sehr eingeschrnkt Wissen ber das
potentielle Publikum haben, und zwar obwohl sie dieses ber granulare Privacy
Settings kontrollieren knnten. Diese Kontrolle erfordert jedoch anscheinend zu
viele Ressourcen und wrde die alltgliche Kommunikation auf sozialen Netzwerk-
seiten umstndlicher machen. Darber hinaus gibt es jedoch in vielen digitalen
Kontexten berhaupt keine realistische Mglichkeit fr NutzerInnen, die Spei-
cherung, Weiterverarbeitung und Nutzung ihrer Informationen zu kontrollieren.
Ressourcenknappheit und mangelnde Verhaltensalternativen knnten letztendlich
dazu fhren, dass NutzerInnen die Grundidee, Kontrolle ber ihre Informationen im
Sinne des Rechts auf informationelle Selbstbestimmung auszuben und den Zugang
zu ihren Informationen zu determinieren, langfristig aufgeben. Das deterministische
Modell von Privatheit, das zumindest implizit auch dem Recht auf informationelle
Selbstbestimmung zugrunde liegt, knnte insofern auf lange Sicht hin nicht mehr
den Kategorien entsprechen, in denen NutzerInnen in Bezug auf Privatheit denken.
Anstelle dessen knnte fr NutzerInnen vielmehr ein probabilistisches Modell von
60 Ricarda Moll

Privatheit getreten sein, innerhalb dessen sie Privatheit nicht auf Basis tatschli-
cher Kontrolle darber ableiten wer was wann bei welcher Gelegenheit ber ihn
wei,36 sondern auf Basis unsicherer Annahmen ber ihr tatschliches Publikum
(s. 4).
In Bezug auf das institutionelle Publikum, das ber die automatisierte Erhe-
bung und Speicherung personenbezogener Daten kaum kontrolliert werden kann,
scheinen NutzerInnen hnliche Erwartungen und Mastbe anzulegen, wie im
Kontext der Kommunikation mit anderen NutzerInnen: Klassisch hierfr ist die
Aussage, man htte vor datensammelnden Unternehmen und Behrden nichts
zu verbergen.37 Innerhalb eines probabilistischen Modells von Privatheit wrde
diese Aussage keinesfalls bedeuten, dass Personen ihre Privatheit gleichgltig ist,
sondern lediglich, dass sie diese anders denieren: Ihre (unsicheren) Annahmen
und Theorien zum tatschlichen Publikum suggerieren, dass ihre Informationen
privat genug bleiben nicht weil sie den Zugang wirklich kontrollieren knnen
(deterministisches Modell), sondern weil sie nicht davon ausgehen, dass tatsch-
lich viele Akteure sich die Mhe machen sie zu lesen (probabilistisches Modell).
An dieser Stelle offenbart sich der fehlerhafte Charakter eines probabilistischen
Privatheitsmodells, der sich schon im Kontext der Kommunikation mit anderen
NutzerInnen andeutete. Die grundlegende Annahme, der Zugriff auf die eigenen
Informationen sei ber die knappen Aufnahme- und Verarbeitungskapazitten an-
derer Akteure begrenzt, trifft im Kontext des institutionellen Publikums kaum zu.
Anstelle menschlicher Verarbeitungskapazitten stehen auf Seiten des institutionel-
len Publikums Rechenzentren und Algorithmen, deren Ressourcen nicht natrlich,
sondern hchstens nanziell begrenzt sind.
Was bedeutet dies nun in Bezug auf die Zukunft des Rechts auf informationelle
Selbstbestimmung? Auer Frage steht, dass Mglichkeiten zur rechtlichen und
technischen Umsetzung gefunden werden mssen, die die Durchsetzung des Rechts
auf informationelle Selbstbestimmung erhalten und ermglichen.38 Diese Mg-
lichkeiten sollten bercksichtigen, dass NutzerInnen begrenzte Ressourcen haben,
um sich im Alltag mit diesen Fragen auseinanderzusetzen. Entsprechend sollten
Technologien und Anwendungen dem Prinzip der Datensparsamkeit folgen und
dabei privatheitsfreundliche Grundeinstellungen implementieren. Darber hinaus
sollten Mglichkeiten zur Wahrnehmung dieses Rechts so in das Webseiten- und
Applikations-Interface eingebunden sein, dass Handlungsoptionen simpel, direkt,
und intuitiv sind.
Damit NutzerInnen jedoch auch tatschlich Gebrauch von ihrem Recht auf in-
formationelle Selbstbestimmung machen, mssen sie zunchst darber aufgeklrt
36 Zit. nach Culmsee, Prinzipien des Datenschutzrechts.
37 Solove, Ive got nothing to hide and Other Misunderstandings of Privacy.
38 Z. B. Hoffmann u. a., Legal Compatibility as a Characteristic of Sociotechnical Systems.
Medienpsychologische Sicht 61

werden, warum gerade die deterministische Ausrichtung dieses Rechts, im Sinne ei-
ner Ausrichtung auf tatschliche Kontrolle ber ihre Informationen, fundamental fr
individuelle Freiheit und Autonomie ist. Verinnerlicht werden muss, dass ein proba-
bilistisches Verstndnis von Privatheit nicht gut genug ist, da die dahinterstehenden
Annahmen falsch sein knnen (z. B. wenn begrenzte Verarbeitungsressourcen auf
Seiten des institutionellen Publikums angenommen werden), und unabhngig davon
keine Garantie fr das erwnschte Ma an Privatheit darstellen. Schlielich sollte
bewusst gemacht werden, dass die Bedeutung privatheitsbezogener Entscheidungen
individuelle Risiken bersteigt, indem sie gesellschaftspolitische Einstellungen
transportiert und die damit verbundenen gesellschaftlichen Entwicklungen beein-
ussen kann. Diese zum Teil politisch geprgte Bildung ist die Voraussetzung
dafr, dass es auch in Zukunft Akteure geben wird, die rechtliche und technische
Entwicklungen zugunsten informationeller Selbstbestimmung prgen knnen.

Literatur
Acquisti, Alessandro. Privacy in Electronic Commerce and the Economics of Im-
mediate Gratication. In: Proceedings of the 5th ACM Conference on Electronic
Commerce EC04. New York: ACM, 2004, S. 2129. DOI: 10.1145/988772.
988777.
Acquisti, Alessandro, Laura Brandimarte und Georg Loewenstein. Privacy and
Human Behavior in the Age of Information. In: Science 347.6221 (2015),
S. 509514.
Altman, Irwin. Privacy a conceptual analysis. In: Environment and Behavior
81.1 (1976), S. 730.
Ben-Zeev, Aaron. Privacy, Emotional Closeness, and Openness in Cyberspace.
In: Computers in Human Behavior 19.4 (2003), S. 451467. DOI: 10.1016/S0747-
5632(02)00078-X.
Bernstein, Michael S. u. a. Quantifying the Invisible Audience in Social Networks.
In: Proceedings of the SIGCHI Conference on Human Factors in Computing
Systems CHI13. New York: ACM, 2013, S. 2130. DOI: 10.1145/2470654.
2470658.
boyd, danah m. Taken Out of Context: American Teen Sociality in Networked Pu-
blics. Diss. Berkeley: University of California Berkeley, School of Information,
2008. URL: http://www.danah.org/papers/TakenOutOfContext.pdf (besucht am
23. 06. 2015).
Bromme, Rainer. On the Limitations of the Theory Metaphor for the Study of
Teachers Expert Knowledge. In: Teacher Thinking Twenty Years On: Revisiting
62 Ricarda Moll

Persisting Problems and Advances in Education. Hrsg. von Michael Kompf und
Pam Denicolo. Boca Raton: CRC Press, 2003, S. 283294.
Brunswik, Egon. Representative Design and Probabilistic Theory in a Functional
Psychology. In: Psychological Review 62.3 (1955), S. 193217. DOI: 10.1037/
h0047470.
Counts, Scott und Kristie Fisher. Taking It All In? Visual Attention in Microblog
Consumption. In: Proceedings of the Fifth International AAAI Conference on
Weblogs and Social Media. Barcelona: The AAAI Press, Juli 2011. URL: http:
//www.aaai.org/ocs/index.php/ICWSM/ICWSM11/paper/viewFile/2769/3298
(besucht am 09. 09. 2016).
Culmsee, Thorsten. Prinzipien des Datenschutzrechts. In: Praxishandbuch Big
Data: Wirtschaft, Recht, Technik. Hrsg. von Joachim Dorschel. Wiesbaden: Sprin-
ger Gabler, 2015.
Dienlin, Tobias. The Privacy Process Model. In: Medien und Privatheit. Hrsg.
von Simon Garnett u. a. Passau: Stutz, 2014, S. 105122.
Dinev, Tamara und Paul Hart. An Extended Privacy Calculus Model for E-
Commerce Transactions. In: Information Systems Research 17.1 (2006), S. 61
80. DOI: 10.1287/isre.1060.0080.
Dweck, Carol S., Chi-yue Chiu und Ying-yi Hong. Implicit Theories and their Role
in Judgments and Reactions: A World from Two Perspectives. In: Psychological
Inquiry 6.4 (1995), S. 267285.
Eppler, Martin J. und Jeanne Mengis. The Concept of Information Overload: A
Review of Literature from Organization Science, Accounting, Marketing, MIS,
and Related Disciplines. In: The Information Society 20.5 (2004), S. 325344.
DOI : 10.1080/01972240490507974.
Franck, Georg. konomie der Aufmerksamkeit: Ein Entwurf. Mnchen: Hanser,
1998.
Frye, Nancy E. und Michele M. Dornisch. When is Trust not Enough? The Role
of Perceived Privacy of Communication Tools in Comfort with Self-Disclosure.
In: Computers in Human Behavior 26.5 (2010), S. 11201127.
Gebel, Christa, Gisela Schubert und Ulrike Wagner. . . . dann sollte man gar nicht
erst ins Internet, weil sie da mit Daten machen, was sie wollen. Risiken im
Bereich Online-Kommunikation und Persnlichkeitsschutz aus Sicht Heranwach-
sender. Ausgewhlte Ergebnisse der Monitoringstudie. ACT ON! Short Report
Nr. 2. Mnchen: JFF Institut fr Medienpdagogik in Forschung und Praxis,
2016. URL: http://www.jff.de/act-on (besucht am 09. 09. 2016).
Gelman, S.A. und N. S. Noles. Domains and Naive Theories. In: Wiley Interdis-
ciplinary Reviews: Cognitive Science 2.5 (2011), S. 490502.
Hargittai, Eszter, W. Russel Neuman und Olivia Curry. Taming the Information
Tide: Perceptions of Information Overload in the American Home. In: The
Medienpsychologische Sicht 63

Information Society: An International Journal 28.3 (2012), S. 161173. DOI:


10.1080/01972243.2012.669450.
Hoadley, Cristopher M. u. a. Privacy as Information Access and Illusory Control:
The Case of the Facebook News Feed Privacy Outcry. In: Electronic Commerce
Research and Applications 9.1 (2010), S. 5060. DOI: 10.1016/j.elerap.2009.05.
001.
Hoffmann, Axel u. a. Legal Compatibility as a Characteristic of Sociotechnical
Systems. In: Business & Information Engineering (BISE) 57.2 (2015), S. 103
113. DOI: 10.1007/s12599-015-0373-5.
Kang, Ruogu u. a. My Data Just Goes Everywhere: User Mental Models of the
Internet and Implications for Privacy and Security. In: Eleventh Symposium
On Usable Privacy and Security (SOUPS 2015). Ottawa: USENIX Association,
Juli 2015, S. 3952. URL: https : / / www. usenix . org / conference / soups2015 /
proceedings/presentation/kang (besucht am 09. 09. 2016).
Klapp, Orrin E. Opening and Closing Strategies of Information Adaptation in
Society. Cambridge: Cambridge University Press, 1978.
Li, Qing. Cyberbullying in Schools: A Research of Gender Differences. In:
School Psychology International 27.2 (2006), S. 157170.
Litt, Eden. Knock, Knock. Whos There? The Imagined Audience. In: Journal
of Broadcasting & Electronic Media 56.3 (2012), S. 330345. DOI: 10.1080/
08838151.2012.705195.
Litt, Eden und Eszter Hargittai. The Imagined Audience on Social Network Sites.
In: Social Media and Society 2.1 (2016). DOI: 10.1177/2056305116633482.
Lundblad, Nicklas. Privacy in the Noise Society. In: Scandinavian Studies in Law
47.16 (2004), S. 349371. URL: http://www.scandinavianlaw.se/pdf/47-16.pdf
(besucht am 09. 09. 2016).
Margulis, Stephen T. Three Theories of Privacy: An Overview. In: Privacy
Online. Hrsg. von Sabine Trepte und Leonard Reinecke. Berlin und Heidelberg:
Springer, 2011, S. 917.
Moll, Ricarda. (Meta-)Cognitive Parameters of Privacy Regulation on Social
Networking Sites. Diss. Mnster: Westflische Wilhelms-Universitt Mnster,
2015.
Moll, Ricarda, Stephanie Pieschl und Rainer Bromme. Competent or Clueless?
Users Knowledge and Misconceptions about their Online Privacy Management.
In: Computers in Human Behavior 41 (2014), S. 212219. DOI: 10.1016/j.chb.
2014.09.033.
Trust into Collective Privacy? The Role of Subjective Theories for Self-
Disclosure in Online Communication. In: Societies 4.4 (2014), S. 770784.
DOI : 10.3390/soc4040770.
64 Ricarda Moll

Moll, Ricarda, Stephanie Pieschl und Rainer Bromme. Whoever will Read it
The Overload Heuristic in Collective Privacy Expectations. Unverffentlichtes
Manuskript. Westflische Wilhelms-Universitt Mnster, 2015.
Nickerson, Raymond S. How we Know and Sometimes Misjudge What Others
Know: Imputing Ones Own Knowledge to Others. In: Psychological Bulletin
125.6 (1999), S. 737759.
Petronio, Sandra. Boundaries of Privacy: Dialectics of Disclosure. Albany: State
University of New York Press, 2002.
Pieschl, Stephanie. Metacognitive Calibration: An Extended Conceptualization
and Potential Applications. In: Metacognition and Learning 4.1 (2009), S. 331.
DOI : 10.1007/s11409-008-9030-4.
Pieschl, Stephanie u. a. Relevant dimensions of cyberbullying: Results from two
experimental studies. In: Journal of Applied Developmental Psychology 34.5
(2013), S. 241252. DOI: 10.1016/j.appdev.2013.04.002.
Schmidt, Jan Hinrik. (Micro)blogs: Practices of Privacy Management. In: Privacy
Online. Hrsg. von Sabine Trepte und Leonard Reinecke. Berlin und Heidelberg:
Springer, 2011, S. 159173.
Solove, Daniel J. Ive got nothing to hide and Other Misunderstandings of
Privacy. In: St. Diego Law Review 44 (2007), S. 745772.
Taddei, Stefano und Bastianina Contena. Privacy, Trust and Control: Which Rela-
tionships with Onlineself-Disclosure? In: Computers in Human Behavior 29.3
(2013), S. 821826. DOI: 10.1016/j.chb.2012.11.022.
Trepte, Sabine und Leonard Reinecke, Hrsg. Privacy Online: Perspectives on
Privacy and Self-Disclosure in the Social Web. Berlin und Heidelberg: Springer,
2011.
Tversky, Amos und Daniel Kahneman. Judgement under Uncertainty: Heuristics
and Biases. In: Science 185 (27. Sep. 1974), S. 11241131.
Vigas, Fernanda B. Bloggers Expectations of Privacy and Accountability: An
Initial Survey. In: Journal of Computer-Mediated Communication 10.3 (2005).
DOI : 10.1111/j.1083-6101.2005.tb00260.x.
Vitak, Jessica. The Impact of Context Collapse and Privacy on Social Network
Site Disclosures. In: Journal of Broadcasting and Electronic Media 56.4 (2012),
S. 451470. DOI: 10.1080/08838151.2012.732140.
Wilson, Dave und Joseph S. Valacich. Unpacking the Privacy Paradox: Irrational
Decision-Making within the Privacy Calculus. In: Proceedings of the Thirty
Third International Conference on Information Systems, ICIS 2012, Orlando.
2012. URL: http://aisel.aisnet.org/cgi/viewcontent.cgi?article=1286&context=
icis2012 (besucht am 09. 09. 2016).
Informationelle Selbstbestimmung und die
Bestimmung des Selbst
Michael Nagenborg

1. Einleitung
Eine der Grundannahmen im sogenannten Persuasive Design1 lautet, dass die
Dinge, die wir nutzen, keine wertneutralen Instrumente sind, sondern bestimmte
Nutzungs- und Wahrnehmungsformen nahelegen oder gar einen Anreiz dazu geben,
das Artefakt in dieser oder jener Form zu nutzen.2 Es ist durchaus naheliegend,
diese berlegungen auch bei der Gestaltung von Datenschutz-freundlichen oder
Datenschutz-frderlichen Technologien anzuwenden und beispielsweise Schnittstel-
len so zu gestalten, dass die Wahrscheinlichkeit gesenkt wird, mit der Nutzer(innen)
personenbezogene Daten preisgeben. So hatte Ugo Pagallo (2014) etwa im Rah-
men des Onlife-Projektes der Europischen Kommission vorgeschlagen, Elemente
des persuasive designs in der Gestaltung von Online-Angeboten und der ihnen
zugrundeliegenden Infrastruktur aufzugreifen.3 Die Idee ist auch deswegen nahelie-
gend, weil einige Online-Angebote wie z.B. Facebook anscheinend sehr erfolgreich
darin sind, Menschen zur Daten-Preisgabe anzuregen und deswegen auch in
der einschlgigen Literatur gerne als Beispiele fr effektives Persuasive Design
herangezogen werden.4 Wieso also nicht die gleichen Einsichten dazu nutzen, die
Wahrscheinlichkeit der Daten-Preisgabe zu senken?
Die Idee ist jedoch ebenso naheliegend wie paradox: Denn einerseits soll das
Recht auf informationelle Selbstbestimmung ja gerade das selbstbestimmte Handeln
der Nutzer(innen) von digitalen Medien ermglichen, anderseits wird aber eben

* Dr. Michael Nagenborg | Universitt Twente, Enschede (NL) | m.h.nagenborg@utwente.nl


1 Als Ausgangspunkt der Debatte um Persuasive Design knnen die Arbeiten von B. J. Fogg ange-
sehen werden. Grundlegend: Fogg, Persuasive Technology.
2 In der Tendenz weist die Idee des Persuasive Designs eine enge Verwandtschaft mit dem Ansatz des
Nudging auf. Vgl. hierzu: Thaler und Sunstein, Nudge; zu den Unterschieden zwischen Persuasi-
ve Design und Nudging sowie zu den ihnen gemeinsamen philosophischen Herausforderungen
vergleiche z. B. Dorrestijn und Verbeek, Technology, Wellbeing, and Freedom.
3 Pagallo, Good Onlife Governance.
4 Vgl. z. B. Fogg und Iizawa, Online Persuasion in Facebook and Mixi.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_5
66 Michael Nagenborg

diese Befhigung zum selbstbestimmten Handeln in derartigen Anstzen in Frage


gestellt, indem die Rolle der Gestaltung der zu nutzenden Systeme betont wird.5
In meinem Beitrag mchte ich vor allem auf einen Umstand aufmerksam machen:
Wenn vom Recht auf informationelle Selbstbestimmung die Rede ist, dann wird
in der Regel davon ausgegangen, dass jenes Selbst, das da bestimmen soll,
unabhngig von den Technologien zu denken ist, welche dieses Recht verletzen
oder zu verletzen drohen. Darin grndet m.E. auch das Unbehagen angesichts der
genannten Vorschlge, welche darauf abzielen, die Nutzer(innen) mit technischen
Mitteln zum Schutz der Privatsphre anzuhalten: Sie legen nahe, dass das zu
schtzende Selbst eben nicht unabhngig von der Technik zu denken ist.
Im Folgenden mchte ich deswegen zunchst vorschlagen, die Rolle von Technik
fr die Konstitution des Selbst ernst zu nehmen. Die Grundannahme soll dabei
durch Rckgriff auf die sogenannte Extended Mind Theory in Anschluss an
Clarke und Chalmers (1998) plausibilisiert werden.6 In einem zweiten Schritt werde
ich dann die Relevanz dieser berlegungen fr Datenschutz und informationelle
Selbstbestimmung diskutieren. Eine Konsequenz mchte ich dabei so viel sei
vorab verraten vermeiden: das Recht auf informationelle Selbstbestimmung (oder
gleich die Idee der Autonomie) gnzlich in Frage zu stellen.

2. Extended Mind Theory


Werden wir im Alltag gefragt, wo unser Denken stattndet, so werden wir in der
Regel in Richtung unseres Gehirns deuten und sagen: Na, da drinnen. Dieses
Drinnen bezeichnet dabei nicht das Gehirn als materielles Objekt, sondern ver-
weist darauf, dass wir Denken und somit geistige Ttigkeit als innere Vorgnge
erleben, zu denen wir einen privilegierten Zugang haben und die sich im Prozess
der Introspektion erschlieen. Im Rahmen der Extended Mind Theory wird nun
behauptet, dass unser Geist mitnichten auf diesen Innenraum beschrnkt ist, sondern
sich unter bestimmten Bedingungen in die Welt hinaus erstreckt.7
Zum besseren Verstndnis zwei Anmerkungen vorweg:

5 Vgl. hierzu im Kontext von ubiquitren Computersystemen z. B.: Spiekermann und Pallas, Tech-
nologiepaternalismus.
6 Clark und Chalmers, The Extended Mind; die Plausibilisierung knnte auch durch Rckgriff
auf andere Theorien und Konzepte erfolgen, etwa auf die sog. Post-Phnomenologie. Vgl., z. B.
Verbeek, Moralizing Technology.
7 Hier und im Folgenden beziehe ich mich auf den grundlegenden Beitrag von Clark und Chalmers,
The Extended Mind; der Aufsatz hat eine lebhafte Rezeption erfahren, auf die hier nicht eingegan-
gen werden soll. Eine gute bersicht ber die Debatte des Ansatzes und seiner Weiterentwicklung
ndet sich in bei Aydin, The Artifactual Mind; einen guten berblick zur hnlich gelagerten
Theorie der kognitiven Artefakte bietet: Heersmink, A Taxonomy of Cognitive Artifacts.
Informationelle Selbstbestimmung und die Bestimmung des Selbst 67

1. Die Extended Mind Theory wurde im Rahmen der englischsprachigen analy-


tisch geprgten Philosophy of Mind entwickelt. Mind erweist sich dabei
nicht nur als ein schwierig zu greifender Begriff. Mind lsst sich auch nicht
ohne Weiteres ins Deutsche bersetzen, weil Geist z. B. nicht so eindeutig
individualistisch gedacht wird. Man denke etwa an den Zeitgeist. In der Phi-
losophy of Mind ist es hingegen ganz klar, dass ein Geist (Mind) suberlich
jeweils einem Krper (Body) zugeordnet ist. Das ist dann auch ein Aspekt,
der die Extended Mind Theory in diesem Kontext spannend macht: Dass der
Krper nicht mehr als natrliche Auengrenze des Geistes gedacht wird.

2. Mind umfasst auch diejenigen Ttigkeiten des Geistes, die uns zumindest
temporr nicht zu Bewusstsein kommen. Erinnerungen sind deshalb auch
ein beliebtes Beispiel in der Debatte, weil diese uns zum einen nicht stets
bewusst sind, zum anderen aber im Geist verortet werden. Wenn wir uns an
etwas erinnern, dann verlsst die Erinnerung den nicht-bewussten Bereich des
Geistes und wird uns wieder bewusst. Dieser nicht-bewusste Bereich des Geistes
wird im Rahmen der klassischen Anstze der Philosophy of Mind als Teil des
geistigen Innenraums gedacht. In der Extended Mind Theory hingegen ist es
denkbar, dass Erinnerungen (aber auch andere nicht-bewusste geistige Inhalte
und Ttigkeiten) in die Auenwelt ausgelagert werden. Wohl gemerkt: Wenn der
Geist erweitert wird, so bezieht sich diese Erweiterung auf die nicht-bewussten
Inhalte und Prozesse. Das Bewusstsein wird hingegen nicht erweitert und wir
erfahren auch weiterhin unser Bewusstsein als Zentrum geistigen Erlebens.

Clark und Chalmers8 sprechen in diesem Zusammenhang von coupled systems,


welche aus dem Menschen und einem Artefakt bestehen und die sich u. a. durch
Interaktivitt, Transparenz und Zuverlssigkeit auszeichnen mssen. In dem Aufsatz
ndet sich das folgende Beispiel: Otto verfgt ber ein sehr schlechtes Gedchtnis
und fhrt deswegen ein Notizbuch, in dem er sich alles notiert, und bei Bedarf
nachschlgt. Die Frage, ob dieses Notizbuch ein Teil von Ottos Mind ist, wird von
Clark und Chalmers ausdrcklich bejaht, da das Notizbuch die gleiche Funktion und
auch Funktionalitt wie das natrliche Gedchtnis eines normalen Menschen
hat. Dabei gilt es, die drei genannten Kriterien zu beachten, die von dem Notizbuch
in dem Beispiel erfllt werden: (1) Es ist interaktiv in dem Sinne, dass Otto seine
Erinnerungen speichern und wieder abrufen kann. (2) Es ist transparent, weil
Otto auf seine Erinnerungen ohne merklichen Aufwand zugreifen kann. (3) Es ist
zuverlssig, weil die Aufzeichnungen von Dauer sind und niemand das Notizbuch
manipuliert.

8 Clark und Chalmers, The Extended Mind.


68 Michael Nagenborg

Wenn wir dieser Behauptung in Hinblick auf Ottos Notizbuch zustimmen, dann
ist es naheliegend, das innige Verhltnis, das viele zu ihrem Smartphone haben,
ebenfalls aus dieser Perspektive zu betrachten und Mensch und Technik als cou-
pled system zusammen zu denken.9 Um an dieser Stelle Missverstndnisse zu
vermeiden: Nicht jede Nutzung eines Smartphones (oder einer anderen Informa-
tionstechnologie) berechtigt uns, von einem coupled system zu sprechen. Die
nur sporadische Nutzung ist etwa nicht ausreichend. Auch ist es denkbar, dass nur
bestimmte Aspekte des Smartphones fr das coupled system von Relevanz sind:
Die elektronische Aufgabenliste mag eher dazu gehren als z. B. die Wetter-App.
Vereinfacht ausgedrckt: Je nher die Praxis der Smartphone-Nutzung an das k-
tive Beispiel von Ottos Notizbuch kommt, desto mehr ist es sinnvoll, von einem
coupled system zu sprechen.
Ciano Aydin10 geht noch einen Schritt weiter, indem er die Frage aufwirft, warum
im Rahmen der Extended Mind Theory davon ausgegangen wird, dass es einen
natrlich gegebenen Geist/Mind gibt, der dann erweitert wird. Da er keinen
Anlass sieht, den inneren geistigen Vorgngen oder Inhalten einen Vorrang vor den
uerlichen einzurumen, schlgt er vor, das Modell des Extended Minds noch
weiter zu radikalisieren und spricht vom Artifactual Mind einem Geist, der
ganz wesentlich von den uerlichen Vorgngen geprgt ist. Insbesondere in dieser
radikalisierten Variante sollte die Relevanz dieser berlegungen fr die informatio-
nelle Selbstbestimmung deutlich werden. In dem zweiten Teil des Kapitels mchte
ich deshalb nun nach den mglichen Konsequenzen dieses Befundes fragen.

3. Die Bestimmung des Selbst


Wie bereits eingangs betont, ist es nicht mein Anliegen, die Idee der informationel-
len Selbstbestimmung ad acta zu legen. Mir geht es vielmehr darum, eine andere
Perspektive vorzuschlagen, welche die konstitutive Rolle von Technik fr das Selbst
ernst nimmt. Und in diesem Sinne ist das primre Anliegen meines Beitrages auf
den Umstand hinzuweisen, dass wir bislang dazu tendieren, das zu schtzende
Selbst in der Diskussion um die informationelle Selbstbestimmung als unabhngig
von der Technik zu denken.
Darber hinaus scheinen mir die berlegungen in Anschluss an die Extended
Mind Theory auch durchaus fr den praktischen Datenschutz von Relevanz zu
sein, wenn man sich dieser Auffassung denn anschlieen mchte. So stellt die groe
9 David Chalmers selbst hat inzwischen eine solche Sichtweise selber nahegelegt. Vgl. hier-
zu seinen Vortrag Is your phone part of your mind? (TEDxSydney 2011, online: htt-
ps://www.youtube.com/watch?v=ksasPjrYFTg, besucht am 29.04.16). Vgl. hierzu auch: Clark,
Natural-Born Cyborgs.
10 Aydin, The Artifactual Mind.
Informationelle Selbstbestimmung und die Bestimmung des Selbst 69

Menge an (potenziell) personen-beziehbaren Daten ja durchaus eine praktische


Herausforderung dar. Die Beantwortung der Frage, welche von diesen Daten nun
Teil eines coupled systems sind, knnte dementsprechend hilfreich sein, um zwi-
schen Daten, die personenbezogen, und Daten, die als Teil des Selbst zu betrachten
sind, zu unterscheiden. Diese Unterscheidung wre nicht ohne Folgen, denn um es
ganz deutlich zu sagen Daten, die innerhalb eines coupled systems verarbeitet
werden, sind gem der Extended Mind Theory keine Daten, die auf ein Subjekt
verweisen oder es reprsentieren. Diese Daten und die Daten verarbeitenden Prozes-
se sind Teil des Subjekts. Fr die rechtliche Beurteilung knnte dies weitreichende
Folgen haben, da mentalen Inhalten etwa in der Diskussion ber den Umgang mit
Neuro-Daten als besonders schtzenswert angesehen werden.11
Wenn Informationstechnologien fr das Selbst konstituierend sind, dann gilt es
aber vor allem auch Selbst und Selbstbestimmung anders zu denken und zu
begrnden. Dabei sollte nicht auer Acht gelassen werden, dass diese Technolo-
gie wiederum in einem vorgegebenen rechtlichen Rahmen operieren. Wenn das
Selbst nicht natrlich gegeben ist, dann muss Selbstbestimmung als Selbstge-
staltung gedacht werden und die Ausgestaltung und Umsetzung des Rechts auf
informationelle Selbstgestaltung wird dann zu einem Teil eben dieses Prozesses,
weil bestimmte Formen der Mensch-Maschine-Interaktion unterbunden oder gefr-
dert werden. Das heit, das Selbst, das zur Selbst-Bestimmung ermchtigt werden
soll, ist zum einen als Produkt von Technik und Gesetz zu denken, zum anderen
deswegen aber nicht als knstlich oder gemacht zu kritisieren.
Da es kein natrliches Selbst gibt, gilt es vielmehr danach zu fragen, wie dieses
Selbst gestaltet werden soll. Dazu gilt es u. a. zu diskutieren, welche Formen der
Subjektivierung fr demokratische Gesellschaften notwendig sind und wie demo-
kratische Gesellschaften dazu beitragen knnen, dass sich eben jene Formen des
Selbst ausbilden knnen. Und darin besteht eine nicht zu unterschtzende Heraus-
forderung, da Staat und Gesellschaft in angemessener Art und Weise Autonomie
ermglichen mssen. Es handelt sich auch nicht um eine gnzlich neue Herausfor-
derung. Die Frage danach, wie man Heranwachsende zu autonomen Subjekten,
also mndigen Brger(inne)n, erziehen kann und soll, stellt sich schlielich auch im
Bereich der Bildung. Der Unterschied besteht jedoch darin, dass wir es hier nicht
nur um zu vermittelnde und erfassende Inhalte geht. Es geht hier um die Ausgestal-
tung von Systemen, welche die Infrastruktur fr die uns nicht-bewussten geistigen
Ttigkeiten bilden. Das schliet natrlich auch die Frage ein, wo es wnschenswert
sein mag, den Geist nicht qua Technik zu erweitern.
Dabei gilt es dann, um diesen Punkt noch einmal hervorzuheben Autonomie
nicht als natrliche Eigenschaft des Individuums zu verstehen, sondern Autono-

11 Hallinan u. a., Neurodata and Neuroprivacy.


70 Michael Nagenborg

mie als eine wnschenswerte Form der Freiheit zu begrnden. Auch dies ist nicht
gnzlich neu, weil die Bestimmung der als natrlich gedachten Autonomie
ja ebenfalls einiges an Nachdenken erfordert. Das fngt mit der Frage nach der
Willensfreiheit an, die sich in der Diskussion bestenfalls als notwendige, aber nicht
hinreichende Bedingung fr die Zuschreibung von Autonomie erweisen mag.12
Die Crux ist: Wenn Autonomie nicht lnger als eine gegebene und deswegen scht-
zenswerte Eigenschaft des Menschen gedacht wird, sondern als eine besondere und
zu (auch mit technischen) realisierende Form der Freiheit, dann gilt es zu klren,
warum wir gerade in diesem Sinne frei sein wollen. Was nicht lnger greift, ist der
Einwand, dass dort wo Technik ins Spiel kommt, eine natrliche und schtzenswerte
Eigenschaft des Menschen unterwandert wird.
Was dies bedeuten knnte, mchte ich abschlieend noch einmal am Beispiel
des persuasive designs zur Strkung des Selbstdatenschutzes verdeutlichen. Wenn
wir nicht davon ausgehen, dass das Selbst unabhngig von der Technik existiert,
dann erscheint die Idee der bewussten Gestaltung von Online-Angeboten mit dem
Ziel, bestimmte Verhaltensweisen wahrscheinlicher zu machen, nicht mehr ganz
so skandals. Denn im Rahmen der vorgeschlagenen Betrachtungsweise bedeutet
ein solches Unterfangen nicht, das Verhalten der Benutzer(innen) zu manipulieren,
sondern sie bei der Realisierung einer bestimmten Form der Freiheit in diesem
Fall: Der Freiheit Nein zu sagen zu untersttzen. Zugleich stellt sich die Frage
danach, wer darber entscheiden soll und kann, welche Form von Freiheit in
ihrer Realisierung untersttzt werden soll, mit um so grerer Dringlichkeit. Diese
Frage ist aber unvermeidlich, sofern wir bereit sind, Technikgestaltung als Selbst-
Gestaltung ernst zu nehmen. Es gilt dann nmlich nicht lnger, Freiheit allein
durch die Zurckweisung und Beschrnkung von Technik zu realisieren - sondern
durch die entsprechende Gestaltung zu ermglichen.13 Ein erster Schritt hier knnte
sein, Technologien zu kennzeichnen, die darauf abzielen, ein coupled system zu
konstituieren oder die in der Praxis ein solches ermglichen.

3.1. Zusammenfassung und Schluss


Mit meinem Beitrag mchte ich vor allem auf den Umstand aufmerksam machen,
dass das Selbst in der Diskussion um die informationelle Selbstbestimmung
oftmals als unabhngig von der Technik gedacht wird. Diese Annahme kann, z. B.,
unter Rckgriff auf die Extended Mind Theory hinterfragt werden. Im Rahmen
dieser Theorie wird angenommen, dass mentale Prozesse und Inhalte nicht nur
im geistigen Innenraum zu lokalisieren sind, sondern sich in die Welt erstre-
cken. Dieser Ansatz wurde im Rahmen der Artifactual Mind Theory noch weiter
12 Buss, Personal Autonomy.
13 Dorrestijn und Verbeek, Technology, Wellbeing, and Freedom.
Informationelle Selbstbestimmung und die Bestimmung des Selbst 71

radikalisiert, in deren Rahmen der Geist letztendlich wesentlich als von ueren
Prozessen geprgt erscheint. Diese Anstze haben dabei durchaus Implikationen
fr die Praxis. So wird, beispielsweise, eine Unterscheidung zwischen personenbe-
zogenen Daten und Daten, die Teil eines coupled systems und somit einer Person
sind, ermglicht.
Mir ging es aber gar nicht so sehr darum, diese speziellen Anstze zu verteidigen.
Vielmehr ging es mir darum aufzuzeigen, dass wenn Selbst und Technik
nicht mehr als unabhngig voneinander gedacht werden, Technikgestaltung als
Selbstgestaltung ernst zu nehmen ist.

Literatur
Aydin, Ciano. The Artifactual Mind: Overcoming the InsideOutside Dualism
in the Extended Mind Thesis and Recognizing the Technological Dimension of
Cognition. In: Phenomenology and the Cognitive Sciences 14.1 (2015), S. 73
94.
Buss, Sarah. Personal Autonomy. In: The Stanford Encyclopedia of Philosophy.
Hrsg. von Edward N. Zalta. Winter 2014 Edition. 2014. URL: http://plato.stanford.
edu/archives/win2014/entries/personal-autonomy (besucht am 07. 10. 2016).
Clark, Andrew. Natural-Born Cyborgs: Minds, Technologies, and the Future of
Human intelligence. Oxford: Oxford University Press, 2003.
Clark, Andrew und David Chalmers. The Extended Mind. In: Analysis 58 (1998),
S. 1023.
Dorrestijn, Steven und Peter-Paul Verbeek. Technology, Wellbeing, and Freedom:
The Legacy of Utopian Design. In: Journal of Design 7.3 (2013), S. 4556.
Fogg, B. J. Persuasive Technology: Using Computers to Change What We Think
and Do. San Francisco: Morgan Kaufmann, 2002.
Fogg, B. J. und Daisuke Iizawa. Online Persuasion in Facebook and Mixi: A
Cross-Cultural Comparison. In: Persuasive Technology: Proceedings of the
Third International Conference on Persuasive Technology, Oulu, Finland, June
4-6, 2008. Berlin und Heidelberg: Springer, 2008, S. 3546.
Hallinan, Dara u. a. Neurodata and Neuroprivacy: Data Protection Outdated? In:
Surveillance & Society 12.1 (2014), S. 5572. URL: http://www.surveillance-
and-society.org (besucht am 07. 10. 2016).
Heersmink, Richard. A Taxonomy of Cognitive Artifacts: Function, Information,
and Categories. In: Review of Philosophy and Psychology 4.3 (2013), S. 465
481.
72 Michael Nagenborg

Pagallo, Ugo. Good Onlife Governance: On Law, Spontaneous Orders, and De-
sign. In: The Onlife Manifesto. Hrsg. von Luciano Floridi. Cham: Springer,
2014, S. 161177.
Spiekermann, Sarah und Frank Pallas. Technologiepaternalismus: Soziale Aus-
wirkungen des Ubiquitous Computing jenseits der Privatsphre. In: Die Infor-
matisierung des Alltags: Leben in smarten Umgebungen. Hrsg. von Friedemann
Mattern. Berlin, Heidelberg und New York: Springer, 2007, S. 311325.
Thaler, Richard H. und Cass R. Sunstein. Nudge: Improving Decisions about Health,
Wealth, and Happiness. New Haven: Yale University Press, 2008.
Verbeek, Peter-Paul. Moralizing Technology: Understanding and Designing the
Morality of Things. Chicago: University of Chicago Press, 2011.
Das mehrfache Selbst der Selbstbestimmung im
Kontext elektronischer Kommunikation

Eine Annherung ber den Umweg der Rhetorik von Daten


Dietmar Kammerer

Das Folgende fragt in diskursanalytischer und kulturwissenschaftlicher Perspektive


danach, wie das Selbst in der informationellen Selbstbestimmung zu bestim-
men sei. Diese Frage stellt sich an diesem Begriff in besonderer Dringlichkeit,
insofern Ansprche auf Eigengesetzlichkeit und Autonomie, die diese Rede vom
Selbst zugleich voraussetzt und durchsetzen will, im Kontext der allseitigen und
permanenten Vernetzung (der Medien, der Dinge, der Kommunikationen) zumindest
fragwrdig erscheinen mssen.
Ich werde im Folgenden argumentieren, dass in gegenwrtigen Diskursen (min-
destens) drei verschiedene Vorstellungen oder Figuren des Bezugs zwischen einem
Selbst und den Daten kursieren: Erstens sind Daten die Spuren, die das Subjekt
im Kontext elektronischer, vernetzter Kommunikation hinterlsst; zweitens gelten
sie als sein Eigentum, d. h. als etwas, auf das exklusive Ansprche erhoben werden
drfen; und schlielich drittens werden Daten als Schatten oder Doppelgnger ihrer
Subjekte benannt. Zwischen diesen Figuren oder Denkguren der Datensubjekte
besteht, das will ich aufzeigen, ein Verhltnis der Steigerung, d. h. wenn wir von
einem zum anderen gehen, verdichten sich bestimmte Aspekte und spitzen sich
zu.1 Es geht, anders gesagt, darum, die in den drei genannten Begriffen gleichsam
eingekapselten Erzhlungen darber, was Daten und was ihre Subjekte sind,
aufzuschlsseln.
Wie gehe ich vor? Ich bin weder Jurist noch Soziologie noch Informatiker, ich bin
Medienwissenschaftler und nherhin Medienkulturwissenschaftler. Mich interessie-
ren kulturelle Phnomene und Sachverhalte. Grundlage des folgenden Arguments
sind gegenwrtige (soziologische und juristische, politische und populre) Diskur-
se oder Narrative oder Rhetoriken von Daten. Es handelt sich zwar bei diesen
* Dr. Dietmar Kammerer | Philipps-Universitt Marburg | dietmar.kammerer@staff.uni-marburg.de
Der Verfasser dankt Prof. Dr. Alexander Ronagel sowie PD Dr. Jessica Heesen fr Hinweise,
Kommentare und Anregungen.
1 Vgl. Pschel, Big Data und die Rckkehr des Positivismus.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_6
74 Dietmar Kammerer

Denkguren, das mag man einwenden, nur um Metaphern, um uneigentliche


Redeweisen, die nicht die Wirklichkeit der Sache betreffen. Aber ich bin der ber-
zeugung, dass diese Figuren wirkmchtig und interessant genug sind, uns auch
ausreichend ber die sachliche Dimension zu verraten und unsere Beachtung und
unsere Neugierde verdienen.

1. Was sind Daten?


Daten fhren ein merkwrdiges ontologisches und epistemologisches Dasein. Ob-
gleich sie angeblich folgt man dem Schema der Wissenspyramide2 die Grund-
lage moderner wissenschaftlicher Erkenntnis bilden, ist ihr Status alles andere als
eindeutig. So kann Rob Kitchin seine umfassende Studie The Data Revolution mit
einem Paradox erffnen, ohne dieses als solches zu benennen:

Data are commonly understood to be the raw material produced


by abstracting the world into categories, measures and other repre-
sentational forms numbers, characters, symbols, images, sound,
electromagnetic waves, bits that constitute the building blocks from
which information and knowledge are created.3

Folgt man Kitchin, sind Daten ein Rohmaterial oder natrliche Ressource, das
nicht gefunden, sondern hergestellt (produced) wird, und zwar durch Abstrakti-
on, durch Idealisierung und Verallgemeinerung, durch das Entfernen von Welt.
Daten sind somit Teil der phsis, der vorhandenen Natur und das Ergebnis einer
technisch-handwerklichen Transformation, die die materielle Welt entfernt und
abtrennt. Auch in der nheren Bestimmung rechnet Kitchin die Daten sowohl
dem Bereich der rein formalen oder idealen Gren zu (Zahlen, Zeichen, Symbole
und Bilder) als auch dem Bereich der physikalischen Phnomene (Schallwellen,
elektromagnetische Wellen). Daten sind (in dieser Bestimmung) sowohl der Natur
als auch der Technik zugehrig, sie sind Voraussetzung eines Prozesses und dessen
Ergebnis, sie sind der materiellen und der immateriellen Welt zugehrig.
Begriffsgeschichtlich leiten die Daten sich bekanntlich ab von lat. dare, datum:
das Gegebene. Was mit den Daten jeweils gegeben wird, hat sich im Lauf
der Verwendung des Begriffs allerdings grundlegend verndert, wenn nicht ins
Gegenteil verkehrt. Wie Rosenberg4 nachweist, war data bereits im frhen 18.
Jahrhundert ein im wissenschaftlichen Kontext blicher Begriff, der vor allem
in mathematischen und theologischen Schriften der Epoche zu nden ist. Beides
2 Vgl. Saint-Mont, Die Macht der Daten, S. X.
3 Kitchin, The Data Revolution, S. 1, meine Hervorhebungen.
4 Rosenberg, Daten vor Fakten.
Das mehrfache Selbst der Selbstbestimmung 75

sind Disziplinen, die auf vorgegebenen Prinzipien beruhen: auf mathematischen


Axiomen oder auf Glaubensinhalten einer als heilig angesehenen Schrift. Daten
sind hier all das, was fr ein Argument, eine Schlussfolgerung, eine Abhandlung
vorausgesetzt werden muss, was in einem gegebenen Kontext als selbstverstndlich
gilt5 und von den am Diskurs Beteiligten nicht mehr in Frage zu stellen ist.
Empirische Wirklichkeit, an der Natur gemachte Beobachtungen spielen keinerlei
Rolle fr den zwingenden Charakter dessen, was gegeben ist: Ein Datum hat
zumindest in diesem frhen Verstndnis keinerlei Bezug zur Realitt. So ist
das Datum sowohl vom Faktum als auch der Evidenz zu unterscheiden:
Faktum (von lat. facere, factum: machen, tun) bezeichnet all das, was wirklich
getan wurde oder geschehen ist. Stellt sich ein Faktum als falsch heraus, hrt es
auf, ein solches zu sein. Als Evidenz (von lat. videre: sehen) darf gelten, was
augenscheinlich oder der Wahrnehmung nach der Fall ist, auch wenn es sich durch
berlegung als falsch oder als Tuschung herausstellen kann. Wie Rosenberg
bndig schreibt: Fakten sind ontologisch, Evidenz ist epistemologisch, Daten sind
rhetorisch.6
Mit dem Aufkommen der modernen, durch Empirie und Experiment gesttzten
Naturwissenschaften und des Grundsatzes der Falsizierbarkeit von Aussagen hat
sich der Daten-Begriff freilich grundlegend gendert. Er wurde dafr gebraucht,
um unbersehbare Fakten zu bezeichnen, die durch Experiment, Erfahrung oder
Ansammlung ermittelt worden waren. Es war blich geworden, sich Daten als
Ergebnis einer Untersuchung und nicht als ihre Voraussetzung vorzustellen.7 Die
noch heute gltige Semantik des Wortes entstand also, zumindest ihren Umrissen
nach, schon Mitte des 18. Jahrhunderts.
Schlgt man in aktuellen Handbchern der Informatik nach, ndet man eine
Reihe von Bestimmungen, deren Gemeinsamkeit darin besteht, Daten als Stell-
vertreter fr Informationen oder Sachverhalte in der Welt zu begreifen, die regelhaft
formalisiert oder codiert worden sind, damit sie von Algorithmen in elektronischen
Systemen gespeichert, prozessiert und wieder ausgegeben werden knnen. Nach
DIN 44399 Teil 2 Nr. 2.1.13 sind Daten zu denieren als ein Gebilde aus Zeichen
oder kontinuierlichen Funktionen, die aufgrund bekannter oder unterstellter Abma-
chungen Informationen darstellen, vorrangig zum Zweck der Verarbeitung oder als
deren Ergebnis.8 In dieser technischen Denition sind Daten weder die Sache
(das Medium als Trger und seine physikalischen Qualitten) noch der (immate-
rielle) Inhalt oder die Informationen, die sich damit verbinden lassen. Auerhalb
von Verarbeitungsprozessen kommen Daten berhaupt nicht vor, sie sind nicht
5 Ebd., S. 136.
6 Ebd., S. 136.
7 Ebd., S. 150.
8 Zitiert nach Hoeren, Big Data und Recht, S. 11.
76 Dietmar Kammerer

einmal denkmglich, sie sind ganz dem Inneren und Uneinsehbaren dieser automa-
tisiert ablaufenden Verarbeitungsvorgnge zuzurechnen und es sind diese, denen
das eigentliche Primat zukommt. Daten werden noch nher an den Prozess ihrer
Verarbeitung gerckt und von diesem ununterscheidbar, insofern in der heutzutage
blichen Von-Neumann-Architektur von Rechensystemen die Algorithmen (die
Software) im selben Speicher gehalten werden und genauso adressierbar werden
wie die Daten, die von diesen zu verarbeiten sind.

2. Daten als Ressourcen


Ein ganz anderes Bild von Daten ergibt sich, folgt man der Rhetorik der daten-
verarbeitenden Industrie. Hier sind Daten die quasi-natrlichen Ressourcen, die
mit Mitteln des Bergbaus (data mining) oder der Landwirtschaft (data harvesting)
abgebaut oder geerntet werden. Seit einigen Jahren schon ist im Kontext von Big
Data und data analytics ein Narrativ dominant, das in Daten keine reprsentativen
Zeichen oder formalisierten Elemente eines regelgeleiteten Prozesses sieht, sondern
im Gegenteil etwas, das sozusagen von sich aus vorhanden ist, von dem Fach-
kundigen aufgefunden und mit den richtigen Instrumenten gehoben werden kann.
Wenn Daten ohnehin anfallen, so das Kalkl, knnen sie auch anderen, nicht
vorhergesehenen Zwecken und Systemen der Auswertung zugefhrt werden. Da-
hinter steckt ein Modell des Recycling, der Wiederverwertung von Vorgefundenem,
Weggeworfenem, nicht mehr Genutzten.
Nun ist es zutreffend, dass im Universum vernetzter Medien, in der Gesell-
schaft der Sensoren,9 die uns begleiten und umgeben, Daten bei einer Vielzahl
alltglicher Handlungen und Verrichtungen anfallen, und zwar auch ohne unsere
intentionale oder aktive Mitwirkung oder Einwilligung. Wie natrliche Ressour-
cen (Sonne, Wind, thermische Energie, Mineralien usw.) sind Daten als raw data
immer schon vorhanden. Allerdings ist einzuwenden, dass terminologische Un-
terscheidungen zwischen zweckgebundenen und zweckfreien Daten, zwischen
einem ursprnglich vorgesehenen primren und einem blo abgeleiteten, nach-
trglichen oder sekundren Zweck, zwischen captured data und exhaust data10
letztlich irrefhrend sind. Und zwar genau deshalb weil, wie bereits ausgefhrt, Da-
ten von dem jeweiligen Vorgang ihrer Verarbeitung (Vervielfltigung, bermittlung,
Transformation) nicht zu trennen, so dass (bei einer technologischen Betrachung)
jede neue Prozessierung von Daten nicht nur neue und andere Daten als Ergebnis
hervorbringt, sondern prinzipiell neue und andere Daten verarbeitet. Der rechnen-
de Prozess bestimmt die Identitt oder das Sein der Daten bereits von Anfang

9 Andrejevic und Burdon, Dening the Sensor Society.


10 Kitchin, The Data Revolution, S. 6.
Das mehrfache Selbst der Selbstbestimmung 77

an. So knnen zwei oder mehr gegebene Datenstze prinzipiell immer nur daraufhin
untersucht werden, ob zwischen ihnen Isomorphie besteht, d. h. ob ein 1:1-Abgleich
zwischen beiden Stzen durchgefhrt werden kann. Aussagen von der Art, es wrde
sich bei einem Datensatz um eine Kopie eines anderen handeln, oder es wrde
eine Identitt zwischen beiden bestehen, sind schlicht nicht sinnvoll und setzen
unzulssigerweise Daten mit Informationen gleich. Whrend die Differenz von
Daten und Informationen in der Theorie auf unterschiedliche Weisen gefasst
wird, besteht Konsens darin, dass eine Differenz besteht Informationen werden als
Daten plus Struktur, Daten plus Kontext, Daten plus Bedeutung u. a. mehr gefasst.11
Information entsteht durch Interpretation und ist auf eine (mgliche oder wirkliche)
Welt bezogen, erst sie (und nicht die Daten) kann wahr oder falsch, berraschend
oder redundant sein und erst in ihr realisiert sich ein bestimmter Zweck.

3. ber Metadaten
In Big-Data-Szenarien sind oftmals die so genannten Metadaten Daten, die
Eigenschaften anderer Daten beschreiben von besonderem Interesse. Und zwar
aus mindestens dreierlei Grnden:
Erstens sind Metadaten einer Speicherung und weiteren Verarbeitung aus vielen
Grnden leichter zugnglich als etwa die Inhaltsdaten einer Kommunikation: Sie
liegen bereits in standardisierter, verarbeitbarer Form vor; sie enthalten Angaben
ber Ort und Zeit einer Kommunikation; sie sind fr Netzwerkanalysen unerlss-
lich; sie sind in rechtlicher und politischer Hinsicht weniger problematisch als die
in besonderer Weise (sowohl legal als gegebenenfalls auch technisch durch Ver-
schlsselung) geschtzten Inhalte einer Kommunikation, und vieles mehr. Zweitens
suggerieren dem Begriff nach die Metadaten eine hhere Wahrheitsfhigkeit,
als sie bloen Daten zugestanden wird. Die griechische Vorsilbe meta- dient in
Termini wie Metasprache, Metaphysik, Metaebene oder Metakommunika-
tion regelmig dazu, eine epistemische Differenz zu behaupten: eine Hierachie
zwischen einer niederen, einfachen und einer hheren, weil allgemeineren
Erkenntnis oder Einsicht in die Welt.12 Drittens versprechen Metadaten, im Kontext
von Web 2.0 paradoxerweise einen unmittelbareren Zugriff auf die Subjekte der
Daten als es Analysen des user generated content fr sich genommen erlauben
wrden. Das liegt daran, dass Aktivitten, Mobilitt, Kommunikationen, die in Ap-
plikationen des Web 2.0 durch mobile, vernetzte Medien protokolliert werden, nicht
nur nach (intentionalen) Inhalten (Welches Hashtag ist zu einer bestimmten Zeit,
in einer bestimmten Region, auf twitter dominant? Wonach suchen Nutzer aktuell

11 Vgl. Kitchin, The Data Revolution, S. 9-11; Floridi, Information: A Very Short Introduction, S. 20.
12 Zur Kritik daran: Boellstorff, Die Konstruktion von Big Data in der Theorie.
78 Dietmar Kammerer

am hugsten auf Google Search?), sondern auch nach ihren nicht-intentionalen,


nicht-inhaltlichen Dimensionen (Uhrzeit und Standort der Eingabe, Tippgeschwin-
digkeit, Browser-History, Reihenfolge der Klicks auf einer Website usw.) erfasst
und ausgewertet werden.
Der Clou von Big Data-Analysen im Web 2.0 liegt gerade darin, dass sie Daten
aggregieren, die zwar von Menschenhand produziert worden sind, die aber dennoch
jede Intention oder (selbst-)bewusstes, gezieltes und kontrolliertes Handeln der
Einzelnen bersteigen. Und das aus mehreren Grnden:

sei es, weil durch die schiere Zahl an aggregierten Daten eine Art Kollektiv-
Subjekt als berechenbare Gre entsteht, das statistisch beschreibbar und aus-
wertbar ist und (nach Art eines Rousseauschen volont de tous) den Willen oder
das Wissen eines jeden partikularen Einzelnen berschreitet;

sei es, weil die Nutzung von mobilen digitalen Gerten oder von Plattformen wie
Facebook alternativlos geworden ist und durch Gewhnung und Routine in den
Hintergrund bewussten Handelns gerckt wurde;

sei es, weil netzbasierte Kommunikation, wie jede Kommunikation, nicht-verbale,


revelatorische Aspekte umfasst, die nicht oder nur in begrenztem Mae willent-
lich kontrollierbar sind. So berichten Andrejevic und Burdon beispielsweise
davon, dass bei Online-Bewerbungsverfahren auch der Typ des Browsers, der zur
Dateneingabe genutzt wird, Auskunft ber den Bewerber, die Bewerberin geben
soll.13 Weiterhin soll die Tippgeschwindigkeit, der Rhythmus und die Dynamik
von Tastaturanschlgen Auskunft ber die emotionale Verfassung des Verfassers
einer Kommunikation geben;
sei es, dass Kommunikation im Netz keineswegs Unmittelbarkeit herstellt, son-
dern aus technischer Notwendigkeit stets paketvermittelt stattndet. Konkret
bedeutet dies, dass die Kommunikationsteilnehmer keine Kontrolle darber ha-
ben, ber welche Pfade und Knoten des Netzes ihre Kommunikationen (als
Pakete) geschickt werden, das wird vom IP-Protokoll entschieden.14 Ankndi-
gungen, Kommunikation im Netz zu nationalisieren (national routing) sind
der (aus vielen Grnden zu kritisierende) Versuch, diese Entscheidungsmacht zu
rezentralisieren.

Damit wre die Botschaft eines Mediums nicht der (bewusste) Inhalt einer
Kommunikation, sondern die den Vorgang der Kommunikation beschreibenden
Metadaten, die vom Subjekt der Daten in bewusster Weise kaum kontrolliert
13 Andrejevic und Burdon, Dening the Sensor Society.
14 Vgl. hierzu Sprenger, Politik der Mikroentscheidungen.
Das mehrfache Selbst der Selbstbestimmung 79

werden knnen. Metadaten, vor allem solche aus dem Web 2.0, gelten als spon-
taner, authentischer und unmittelbarer und damit wahrheitsfhiger, weil sie
gerade diejenigen Aspekte einer technisch vermittelten Kommunikation erfassen,
die vom Menschen nicht (oder nur mit Mhe) kontrolliert werden knnen. Auch in
Anwendungen des Quantied Self sollen Sensoren Auskunft geben ber unser
unbewusst-vegetatives Leben Schlafgewohnheiten, Herzrhythmus, Blutdruck usw.
und uns auf eine Weise ber uns selbst aufklren, die jede gezielte Selbstbeobach-
tung bersteigt, da die Sensoren (Fitnessarmbnder) nicht lgen. Diese Metadaten
unseres (biologischen) Lebens holen das Zufllige, das Spontane, das Unberechen-
bare ber statistische Verfahren und die Denkgur der Korrelation wieder ein und
fhren es einer Auswertung zu. Diese Daten oder Registrierungen sind zwar einzeln
zurechenbar, sind von Menschenhand oder einem Selbst ausgegangen, aber an
ihnen werden gerade diese Dimensionen verwertbar, die dem bewussten Selbst
entgehen, weil sie in dessen unbewusster Natur oder Wesen liegen. So klingt die
Formel des letting the data speak15 wie das ferne Echo auf die frhromantische
Vorstellung einer signatura rerum, einer Sprache, die in den stummen Dingen der
Natur verborgen liegt und die sich nur demjenigen erffnet, der es versteht zu
hren.16

4. Daten und Persnlichkeiten


Diese Ambivalenz oder diese Spannung in der Bestimmung von Daten zugleich
als Natur und also als etwas an sich Vorhandenes und als Technik, also etwas
Gemachtes, Hergestelltes, fr den Menschen Bestimmtes beschrieben zu werden
bestimmt auch den Begriff der persnlichen bzw. der personenbezogenen Da-
ten. Im Volkszhlungsurteil des Bundesverfassungsgerichts17 ist im ersten Leitsatz
die Rede von persnlichen Daten. Zwei Leitstze weiter wiederum ist hingegen
von personenbezogenen Daten die Rede, in Abgrenzung zu solchen Daten, die
fr statistische Zwecke bestimmt sind.18 berraschender- und interessanterweise
zumindest fr einen juristischen Laien wie mich kennt das Bundesdatenschutzge-
setz wiederum berhaupt keine persnlichen Daten dieser Ausdruck kommt im
Gesetzestext nicht vor , sondern immer nur personenbezogene Daten. Im BDSG
knnen immer nur die Verhltnisse, nicht die Angaben darber persnliche sein.
Im Folgenden nun will ich drei Denkguren identizieren, die auf jeweils eigene
Weise diese beiden Qualitten von Daten, sowohl personenbezogen als auch

15 Mayer-Schnberger und Cukier, Big Data, S. 6.


16 Vgl. Bhme, Natur und Subjekt.
17 BVerfGE 65, 1, 15.12.1983
18 Ebd.
80 Dietmar Kammerer

persnlich zu sein, in eine konkrete Gestalt bringen, um das Unsichtbare und


Ungreifbare der Daten erzhlbar zu machen, zur Anschauung zu bringen, begreif-
bar zu machen. Wir brauchen solche Denkguren, um von dem, was sich unserer
Wahrnehmung entzieht, einen Begriff zu haben. Diese drei Figuren beschreiben
oder machen Vorschlge dahingehend, wie die Daten einerseits und das Selbst
oder Subjekt andererseits zusammenhngen, welche Art der Bezugnahme zwischen
beiden besteht, wie das Verhltnis oder der Objektbezug ist: Darunter fllt erstens
die Vorstellung, dass Daten wie eine Spur auf ein konkretes Individuum verweisen,
das mit Hilfe dieser Daten aufndbar gemacht und identiziert werden kann. Zwei-
tens werden persnliche Daten als Eigentum oder Eigentmlichkeit einer Person
beschrieben, deren Wesen oder Persnlichkeit dadurch angezeigt wird. Und drittens
wird behauptet, dass uns Daten wie Schatten oder Doppelgnger begleiten.
An diese drei Figuren lassen sich, um der Symmetrie willen, drei Fragen stellen:
Nmlich 1.) nach der Art und Qualitt der Daten, 2.) nach der ihnen zugehrigen
Subjekte und schlielich 3.) der Verbindung, die zwischen beiden besteht.
Erstens, zu den Spuren (digital footprints, data traces). Spuren sind auffllige
Zeichen in einer Umwelt, die eine Kette aus Verweisungen bilden, an deren Ende
ein Individuum als realer Verursacher eben dieser Spur ausndig gemacht und
identiziert werden kann.19 Spuren sind nicht intentional sie verweisen nicht auf
eine Absicht oder eine Willensbekundung desjenigen, dem diese Spur zuzurech-
nen ist. Vielmehr, und das ist ihre erste Bestimmung, sind sie die Leistung eines
Beobachters, eines Spurenlesers, eines Interpreten, der sie ermittelt, zusammen-
liest, in der Entdeckung konstruiert, aufndet und schlielich einem Individuum
oder einer verursachenden Instanz zuordnet. Zweitens, und ebenso grundlegend,
ergeben sich Spuren notwendigerweise in der Interaktion mit einer Umgebung
oder einer gegebenen Situation. Einen kompetenten Spurenleser vorausgesetzt, sind
Spuren unausweichlich. Hier erweist sich der Begriff der Spur analog zu dem
der Kommunikation: Ebenso, wie man nicht nicht kommunizieren kann, knnen
Spuren nicht nicht hinterlassen werden. Allenfalls kann von ihnen durch weitere
(falsche) Spuren abgelenkt, knnen sie verdeckt oder dissimuliert werden. Folgt
man diesem Modell, dann besteht zwischen den Subjekten und ihren personenbe-
ziehbaren, persnlichen Daten ein notwendiges, ein unvermeidliches, mithin ein
naturgesetzlich-kausales Verhltnis.
Im Begriff der Spur nden wir dieselbe Ambivalenz zwischen Technik und Natur
wieder, die auch die Rhetorik der Daten prgt. Auch Spuren beruhen wesentlich
auf tchne, auf der Technik und Kunstfertigkeit des Spurenlesens nmlich. Ohne
sie wren Spuren keine Spuren, sondern lediglich Sachverhalte in der Welt, die auf
nichts als auf sich selbst verweisen. Mit dem gleichen Recht sind Spuren aber auch

19 Krmer, Spur.
Das mehrfache Selbst der Selbstbestimmung 81

physis oder Natur, insofern sie eben mit naturgesetzlicher Notwendigkeit entstehen,
insofern sie unserem Wollen entzogen sind und sich als ein Verhltnis von Ursache
und Wirkung darstellen, dem nicht zu entkommen ist.
In paketbasierter, elektronischer Kommunikation ist es nicht mglich, keine Spu-
ren zu hinterlassen.20 Will man berhaupt in Kommunikation einsteigen, wird man
mit Notwendigkeit digitale Spuren produzieren, die nur mit einigem Aufwand (man
denke hier an Verschlsselungstechniken oder das TOR-Netzwerk) zu kaschieren
sind. Auf diese technischen Fragen will ich aber nicht eingehen, sondern nur darauf,
was fr eine Figur dieses Selbst ist, das permanent Spuren in Form von Kopfda-
ten, IP-Paketen, IP-Adressen, Verkehrsdaten, Standortdaten usw. produziert und
hinterlsst. Ich denke, es ist vor allem durch zweierlei Eigenschaften charakterisiert:
Erstens ist es ein Subjekt, das seine Freiheit die zahlreichen Mglichkeiten der
Kommunikation auch als Zwang und Unfreiheit erfhrt, insofern es sich in einer
Netzwerkgesellschaft kaum vermeiden lsst, selbst in alltglichsten Handlungen
und Interaktionen Spuren zu hinterlassen. Und zweitens ist es sozusagen ein zu
umfangreiches Selbst, insofern es sich berall in diesem Netzwerk wiedern-
det. Mit anderen Worten: In elektronischen Netzwerken sind alle Daten, die von
den Kommunikationsteilnehmern hervorgebracht wurden, zumindest prinzipiell
personenbeziehbar, ganz unabhngig von ihrem Inhalt. In diesem Modell ist der
Anspruch auf informationelle Selbstbestimmung schlicht unmglich: Das Selbst
oder Subjekt ist notwendigerweise damit berfordert, wollte es ber alle seine
Spuren oder personenbeziehbaren Daten, die es in elektronischen Netzwerken hin-
terlsst, bestimmen oder auch nur den berblick darber behalten. Das erklrt
Forderungen nach einer technischen Ausgestaltung datenverarbeitender Systeme,
die die Missachtung des Rechts auf informationelle Selbstbestimmung wenn nicht
verunmglicht, so doch zumindest systematisch erschwert. Allerdings bedeutet
diese Auslagerung von Entscheidungsmacht an Technik zugleich auch eine Ein-
schrnkung oder eine (partielle) Aufgabe der Selbstbestimmung und Freiheiten des
Subjekts.

5. Das Datum und sein Eigentum


Im gesellschaftskritischen, aktivistischen und interventionistischen Diskurs des Da-
tenschutzes ndet sich eine Denkgur, die Daten als besondere Art des Eigentums
ansprechen. Forderungen wie Meine Daten gehren mir, Titel von Publikationen
wie Was macht ihr mit meinen Daten21 oder Kmpf um deine Daten22 formulieren

20 Sprenger, Politik der Mikroentscheidungen.


21 Spitz, Was macht ihr mit meinen Daten?
22 Schrems, Kmpf um deine Daten.
82 Dietmar Kammerer

den Anspruch, Abwehrrechte oder sogar weitgehende Verfgungsrechte ber solche


Daten zu haben, die als persnliche qualiziert werden knnen. Zumindest in der
Rhetorik, wenn auch nicht in der Sache, stimmen solche Positionen paradoxerweise
mit denen der Industrie berein, die ebenfalls, und in jngster Zeit verstrkt, das
Recht auf ein Dateneigentum (data ownership) einfordern.23 Diskutiert wird dies
aktuell vor allem am Beispiel der Automobilindustrie,24 aber die Frage lsst sich
prinzipiell auch auf andere datenverarbeitende Industrien bertragen. Whrend die
konomische Bedeutung von Datensammlung und Datenanalyse, die Unverzicht-
barkeit von Daten fr Produktinnovation und neue Dienstleistungen unbestreitbar
ist und voraussichtlich noch zunehmen wird, steht eine juristische Klrung des
data ownership offenbar noch aus, bzw. ist dieses mit herrschendem Recht nicht
zu begrnden, insofern Eigentum nach 903 BGB auf greif- und handhabbare
Sachen beschrnkt ist.
Im Dateneigentum werden zwei nur schwer miteinander vereinbare Perspek-
tiven verklammert: Daten werden einerseits in Analogie zum Recht an Sachen,
andererseits in Entsprechung zum Persnlichkeitsrecht behandelt.25 Das Urheber-
recht nimmt eine Art Scharnierfunktion zwischen beiden Positionen ein, insofern
hier eigentumshnliches Verfgungsrecht ber eine Sache vorliegt, das seine Be-
grndung in der Wrde der schpferischen Person ndet. Wenn Aktivisten ein
Recht auf ihre Daten einfordern, dann durch eine unausgesprochene Analogie
der besonderen Beziehung zwischen Urheber und Werk: Die persnlichen Daten
seien so die Behauptung das Produkt einer nachgerade schpferischen Leistung,
insofern ein Subjekt seine Daten durch seine Aktivitten, Bewegungen, Kommu-
nikationen oder Vorlieben in einzigartiger Weise hervorgebracht habe, womit diese
als dessen Eigentum, als dessen Eigentmlichkeit, zu bewerten seien. In dieser
Begrndungsgur wird die Tatsache der individuellen Zurechenbarkeit von Daten
(die durch Datenanalysen mgliche Identizierbarkeit einer Person) als Beleg fr
die einzigartige, schpferische Leistung eines Urhebers (der Daten) angesehen.
Daten und Subjekt seien, so wird behauptet, demnach durch eine singulre und
exklusive Beziehung miteinander verbunden: Nur dieses eine Individuum, niemand
sonst, htte genau diese Daten als ihr Werk hervorbringen knnen.
Es geht in diesem Diskurs freilich um mehr als nur um einen Anspruch auf
Besitz und Eigentum. Das Urheberrecht ist (in kontinentaleuropischer Tradi-
tion des droit dauteur) ein moralisches Recht, das Werk ist ein Bestandteil oder
unmittelbarer Aususs der Persnlichkeit (Innerlichkeit, Subjektivitt, Natur)
des schpferischen Urhebers. Fhrt man diese Analogie weiter, dann sind meine
Daten nicht lediglich personenbeziehbar: Sie sind zu einem wesentlichen Teil
23 Hoeren, Big Data und Recht.
24 Hornung, Verfgungsrechte an fahrzeugbezogenen Daten.
25 Hoeren, Big Data und Recht.
Das mehrfache Selbst der Selbstbestimmung 83

meiner Person geworden.26 Hier liegt meines Erachtens eine Steigerung vor,
eine Naturalisierung der Daten im Vergleich zur Denkgur der Spur. Die Daten
sind gewissermaen persnlicher geworden, nher an die Person, das Datensubjekt
herangerckt, enger mit ihm verknpft.
Kritisieren lsst sich an diesem Datenpossessivismus (mindestens) zweierlei:
Zum einen riskiert ein Datenschutz, der Individuen als Eigentmer ihrer Daten
begreift, dass diese ihr Eigentum als tauschbare Ware begreifen und die Verwer-
tungsrechte an ihren Daten an Dritte abgeben, egal, ob freiwillig oder unter sozialem,
konomischem oder sonstigem Druck. Zweitens ist dieser Anspruch sachlich kaum
zu rechtfertigen, da in einer durchgehend vernetzten Welt kein Individuum An-
spruch darauf erheben kann, in Autonomie und schpferischer Einsamkeit Daten
zu produzieren. Ebenso knnen die Daten einer Autoinspektion nicht allein auf
den Autobesitzer zurckgefhrt werden, insofern die Werkstatt ebenso mitgewirkt
hat. Auch bei Telefonaten und anderer Kommunikation wirken mindestens zwei
Beteiligte an der Datenproduktion mit. In jedem Fall sind es die von den Kommuni-
kationsunternehmen angebotenen Infrastrukturen und Netzwerke, die diese Daten
die Verkehrsdaten, die Transaktionsdaten berhaupt erst hervorbringen, die Art,
Umfang und Reichweite der Daten bestimmen.

6. Datenschatten in einer transparenten Welt


Folgt man der Denition von Kitchin,27 so umfasst der Datenschatten (data sha-
dow) die Summe an Informationen, die nicht von uns selbst, sondern von anderen
ber uns generiert worden sind, indem Eintrge aus verschiedenen Datenbanken
miteinander abgeglichen und aggregiert werden. In der Figur des Datenschattens
sind, hnlich wie in derjenigen der Spur, das Subjekt und seine Daten durch ein (op-
tisches) Naturgesetz verbunden: Steht man im Licht, kann man nicht ohne Schatten
sein. Anders jedoch als eine digitale Spur oder Fuabdruck (data footprint), der
als beharrlicher Rest auf etwas verweist, das selbst abwesend ist, ist ein Schatten
eine vernderliche und vollstndige Gestalt, die ihrem Ursprung stets folgt und
dessen Anwesenheit markiert. Ein Schatten, so erzhlen es uns Literatur und Film
seit ziemlich genau zweihundert Jahren, ist immer dazu bereit, aus seinem Schat-
tenreich heraus zu treten, um uns zu ersetzen und zu verdrngen.28 In der Reihe
der rhetorischen Figuren zielt der data shadow auf den wohl am meisten gefrch-
teten Aspekt von Big Data: die Gefahr, dass Daten und/oder Algorithmen unser

26 Ausfhrlicher hierzu Nagenborg in diesem Band.


27 Kitchin, The Data Revolution, S. 166ff. ebenso in Koops, Forgetting Footprints, Shunning Sha-
dows.
28 Kittler, Die Wahrheit der technischen Welt, S. 93-112.
84 Dietmar Kammerer

Leben kontrollieren, eine Furcht, die in Buchtiteln wie Sie kennen dich! Sie haben
dich! Sie steuern dich!29 als unsere (paranoide) Gegenwart verkndet wird. Diese
Figur evoziert eine unheimliche, das heit: eine zugleich vollkommen vertraute und
uns dennoch fremde und unverstndliche Gre, die Einuss darauf zu nehmen
versucht, wer wir sind, wie wir handeln und wie wir leben wollen. Ein Schatten
ist nicht greifbar, er verndert sich mit uns, er verdoppelt unsere Bewegungen und
folgt uns berall hin. Einen Schatten kann man weder aufhalten noch bekmpfen.
Im data shadow ist das Natur-Werden der Daten auf die Spitze getrieben. Wh-
rend im Eigentum an Daten die Person oder Persnlichkeit des Datensubjekts
lediglich in veruerter, in uerer Form reprsentiert ist, so impliziert die Figur
des Datenschattens, liest man sie vor dem Hintergrund einer wirkmchtigen roman-
tischen Tradition des Unheimlichen, dass die Daten selbst als handlungsmchtige
und eigenstndige Instanzen anzusehen sind, die sich unserem Einuss entziehen.
Das Subjekt oder Selbst ist hier weitgehend ohnmchtig gegenber seinem Daten-
Doppel. Adelbert von Chamisso ist der Poetiker dieses tragischen Selbstverlustes:
In seinem Gedicht Erscheinung tritt der Schriftsteller unvermittelt seinem nchtli-
chen Doppelgnger gegenber und verliert den Wettstreit darum, wer der echte
Chamisso ist, weil er sich eingestehen muss, dass sein Alter Ego mehr ber ihn
wei, als er selbst.30
Diese Daten sind in dieser Redeweise nicht lnger personenbezogen wie die
Spuren oder persnlich wie das Eigentum , sie sind (scheinbar) selbst zu hand-
lungsfhigen Personen oder Akteuren geworden. Damit wre aus Technik Natur und
aus Natur Technik geworden: In dieser Metapher sind die beiden Aspekte vllig un-
unterscheidbar vereint. Denkt man die Rhetorik vom Datenschatten konsequent
weiter, wre man zur Entscheidung zwischen zwei Optionen gezwungen: Entweder
man entzieht sich der elektronischen Erfassung vollstndig, was den Verzicht auf
gesellschaftliche Teilhabe bedeuten wrde. Oder man akzeptiert und befrwortet
Praktiken und Institutionen, die unter Schlagworten wie Post Privacy31 oder
(kritisch) Transparenzgesellschaft32 diskutiert werden. In diesen Szenarien gibt
das Subjekt freiwillig oder unfreiwillig jegliche Kontrolle ber seine Daten
auf. In beiden Welten wre das Recht auf informationelle Selbstbestimmung
obsolet, da es durch den Zwang der informationellen Fremdbestimmung ersetzt
worden wre.

29 Morgenroth, Sie kennen dich! Sie haben dich! Sie steuern dich!
30 Chamisso, Smtliche Werke 1, S. 383ff.
31 Heller, Post-Privacy.
32 Han, Transparenzgesellschaft.
Das mehrfache Selbst der Selbstbestimmung 85

7. Roh, Meta, Daten


Anders, als oft behauptet wird, sind Daten weder roh der Stoff, aus dem
alles Weitere hervorgebracht wird noch meta im Sinne einer Zugehrigkeit
zu einem ganz anderen Ort (einem Jenseits, einer Transzendenz, einer hheren
Wirklichkeit).33 Beide Bestimmungen negieren den Prozess ihrer technischen Verar-
beitung und behaupten ein quasi-autonomes Dasein von Daten, das vom jeweiligen
Zusammenhang ihrer Entstehung oder Verarbeitung nicht betroffen ist. Die von
mir vorgestellen Metaphern oder Denkguren (die Spur, das Eigentum, der Schat-
ten) sind ein Ausdruck dieser Tendenz, Daten als eigenstndige Sachen zu
behandeln, sie zu natrlichen Dingen zu erklren.
Obgleich diese Metaphern als uneigentliche Redeweisen die Realitt der infor-
mationellen Selbstbestimmung verkennen, sind sie als weit verbreitete Denkgu-
ren nicht unwirksam; ihre Wirkmacht besteht darin, dass sie einen ungreifbaren
und der Wahrnehmung entzogenen Prozess (die Verdatung) in anschaulichen Bil-
dern scheinbar verstehbar und begreifbar machen und dabei nicht nur die Daten,
sondern auch die dazugehrigen Subjekte auf den Begriff bringen. Jede die-
ser Figuren, so stellt sich heraus, konstruiert oder impliziert ein anderes Selbst
und andere Daten. Die juristische und politische Diskussion um informationelle
Selbstbestimmung darf die Wirksamkeit dieser populren Metaphern und der dazu
gehrigen Erzhlungen nicht unterschtzen, will sie Normen und Institutionen des
Datenschutzes nicht nur Geltung, sondern auch Anerkennung verschaffen.
Als abschlieender Gedanke: Auch die Rede von der informationellen Selbst-
bestimmung verfehlt einen wesentlichen Aspekt, nmlich den, dass die Daten
nie einem einzelnen Individuum zugerechnet werden knnen, insofern diese stets
nur in Netzwerken entstehen: in sozialen Netzwerken, in technischen Netzwerken.
Daher greift es auch zu kurz, die persnlichen oder personenbezogenen Daten nur
daraufhin zu befragen, welche Konsequenzen ihre Verbreitung oder Verarbeitung
fr ein je einzelnes Individuum haben. Der Clou von data mining liegt ja darin, dass
die Auswertung von persnlichen Daten auch Konsequenzen fr diejenigen haben
kann, von denen gar keine Daten erhoben worden sind. Anders gesagt: Wer sich
darauf beruft, nichts zu verbergen zu haben, ignoriert die Konsequenzen, die die
Preisgabe seiner Daten fr andere haben kann.34 Bin ich beispielsweise bereit,
Daten ber mein persnliches Fahrverhalten an Versicherungsrmen abzugeben, so
stelle ich diejenigen indirekt schlechter, die dazu nicht bereit sind und also mit einer
hheren Prmie rechnen mssen. Kurz gesagt, Datenschutz und Privatheit sind
nicht nur eine persnliche oder individuelle Angelegenheit, sondern haben eine
33 Gitelman, Raw data is an oxymoron; Boellstorff, Die Konstruktion von Big Data in der Theo-
rie.
34 Vgl. Ronagel und Nebel, (Verlorene) Selbstbestimmung im Datenmeer, S. 458.
86 Dietmar Kammerer

soziale (und solidarische) Grundlage: Nicht nur ich selbst, sondern auch der Andere
hat einen Anspruch darauf, dass ich meine Daten schtze.

Literatur
Andrejevic, Mark und Mark Burdon. Dening the Sensor Society. In: Television
& New Media 16.1 (2014), S. 1936. DOI: 10.1177/1527476414541552.
Boellstorff, Tom. Die Konstruktion von Big Data in der Theorie. In: Big Data.
Hrsg. von Ramn Reichert. Bielefeld: Transcript, 2014, S. 105131.
Bhme, Hartmut. Natur und Subjekt. Frankfurt am Main: Suhrkamp, 1988.
Chamisso, Adalbert von. Smtliche Werke. Band 1: Prosa Dramatisches Ge-
dichte Nachlese der Gedichte. Mnchen: Winkler, 1975.
Floridi, Luciano. Information: A Very Short Introduction. Oxford und New York:
Oxford University Press, 2010.
Gitelman, Lisa, Hrsg. Raw data is an oxymoron. Cambridge, Massachusetts: The
MIT Press, 2013.
Han, Byung-Chul. Transparenzgesellschaft. Berlin: Matthes und Seitz, 2012.
Heller, Christian. Post-Privacy: Prima leben ohne Privatsphre. Mnchen:
C.H.Beck, 2011.
Hoeren, Thomas. Big Data und Recht. Bd. 83. Schriftenreihe Information und
Recht. Mnchen: C.H. Beck, 2014.
Hornung, Gerrit. Verfgungsrechte an fahrzeugbezogenen Daten: Das vernetzte
Automobil zwischen innovativer Wertschpfung und Persnlichkeitsschutz. In:
Datenschutz und Datensicherheit (DuD) 39.6 (2015), S. 359366.
Kitchin, Rob. The Data Revolution: Big data, Open Data, Data Infrastructures &
their Consequences. Los Angeles: Sage, 2014.
Kittler, Friedrich A. Die Wahrheit der technischen Welt: Essays zur Genealogie der
Gegenwart. Berlin: Suhrkamp, 2013.
Koops, Bert-Jaap. Forgetting Footprints, Shunning Shadows: A Critical Analysis
of the Right to Be Forgotten in Big Data Practice. In: SCRIPTed 8.3 (2011),
S. 229256. DOI: 10.2139/ssrn.1986719.
Krmer, Sybille, Hrsg. Spur: Spurenlesen als Orientierungstechnik und Wissens-
kunst. Frankfurt am Main: Suhrkamp, 2007.
Mayer-Schnberger, Viktor und Kenneth Cukier. Big Data: A Revolution that will
Transform How we Live, Work and Think. London: John Murray, 2013.
Morgenroth, Markus. Sie kennen dich! Sie haben dich! Sie steuern dich! Mnchen:
Droemer Knaur, 2014.
Pschel, Florian. Big Data und die Rckkehr des Positivismus: Zum gesellschaft-
lichen Umgang mit Daten. In: Mediale Kontrolle unter Beobachtung 3.1 (2014).
Das mehrfache Selbst der Selbstbestimmung 87

URL : http://www.medialekontrolle.de/wp-content/uploads/2014/09/Pueschel-
Florian-2014-03-01.pdf (besucht am 20. 09. 2016).
Rosenberg, Daniel. Daten vor Fakten. In: Big Data. Hrsg. von Ramn Reichert.
Bielefeld: Transcript, 2014, S. 133156.
Ronagel, Alexander und Maxi Nebel. (Verlorene) Selbstbestimmung im Da-
tenmeer: Privatheit im Zeitalter von Big Data. In: DuD Datenschutz und
Datensicherheit 39.7 (2015), S. 455459.
Saint-Mont, Uwe. Die Macht der Daten: Wie Information unser Leben bestimmt.
Berlin und Heidelberg: Springer, 2013. DOI: 10.1007/978-3-642-35117-4.
Schrems, Max. Kmpf um deine Daten. Wahres Leben. Wien: Ed. a, 2014.
Spitz, Malte. Was macht ihr mit meinen Daten? Hamburg: Hoffmann und Campe,
2014.
Sprenger, Florian. Politik der Mikroentscheidungen: Edward Snowden, Netzneu-
tralitt und die Architekturen des Internets. Digital Cultures Series. Lneburg:
meson press, 2015. DOI: 10.14619/004.
Teil II.

Privatheitspraktiken und Datenkonomien


in der digitalen Welt
Die Vermessung des Selbst

Self-Tracking in der digitalen Kontrollgesellschaft


Ramn Reichert

Die digitale Vernetzungskultur hat mageblich zur Erosion von Privatheit gefhrt.
In der ra der Sozialen Medien und der Peer-to-Peer-Netzwerke rmiert das Private,
Intime und Persnliche als Objekt der ffentlichen Agenda und ist zum Allmende-
Gut geworden, das von der ffentlichkeit beliebig und unverbindlich angeeignet
werden kann. Die Prominenz des Self-Tracking in breiten Anwendungsschichten
hat dazu gefhrt, das sich das Verstndnis von informationeller Selbstbestimmung
von seinem ursprnglichen Kontext gelst hat. Die Figur der informationelle Selbst-
bestimmung bedeutet heute nicht nur, seine Daten gegenber dem Zugriff von
Dritten geschtzt zu wissen, sondern sie bezeichnet auch neue Praxisformen in
digitalen Kommunikationsrumen, nmlich die Freiheit des Selbst, personenbezo-
gene Inhalte in der ffentlichkeit zu teilen. Vor diesem Hintergrund erfhrt der
Begriff der informationellen Selbstbestimmung eine richtungsweisende Bedeu-
tungsverschiebung, mit der es nicht nur darum geht, das Selbst vor dem Zugriff der
ffentlichkeit zu schtzen, sondern dem Selbst ein Anrecht auf ffentlichkeit und
ffentlicher Reprsentation zuzugestehen.
An der Schnittstelle von mobilen Medien, Sensornetzwerken, GPS-gesttzten
Lokalisierungen, automatischen Identikationsverfahren, digitalen Datenvisualisie-
rungen und Social Web-Anwendungen tragen Fitness-Tracker mageblich zur Ver-
datung des Krpers und zur reexiven Selbstverwissenschaftlichung bei. Die Kon-
vergenz von mobilen Medien, Sensornetzwerken, digitalen Datenvisualisierungen
und dem Social Web hat dazu gefhrt, dass biometrische Apparate, Technologien
und Visualisierungen einen gesellschaftlichen Trend zur digitalen Selbstvermessung
ausgelst haben.1 In diesem Zusammenhang entwickeln Fitness-Apps Handlungsan-
weisungen und Orientierungswissen, die das Monitoring und Mapping krperlicher
Aktivitten mit Krperdisziplinierungen und Selbstpraktiken verknpfen und dabei
neue Formen von Steuerungs- und Kontrollwissen entwickeln.2

* Dr. habil. Ramn Reichert | Universitt Wien | ramon.reichert@univie.ac.at


1 Lyon, Biometrics, Identication and Surveillance; Lupton, Quantifying the Body.
2 Swan, Emerging Patient-Driven Health Care Models, S. 494.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_7
92 Ramn Reichert

Die Eroberung der Massenmrkte durch Sensoren und biometrische Erkennungs-


verfahren ist mitunter dadurch zu erklren, dass mobile, webbasierte Endgerte mit
einer Vielzahl diverser Sensoren ausgerstet sind.3 Immer mehr Nutzer kommen
auf diesem Wege mit der Sensortechnologie, Tracking-Apps und Self-Tracking-
Communities auf Online-Plattformen in Verbindung: Sensing technologies and
apps for the smart phone industry alone have spawned a rapidly expanding market
as new sensing frontiers unfold.4 Im Rahmen dieser Neubewertung des Kr-
pers wird die individuelle physis in die Mobilitt vernetzter Medien integriert
und als sozial geteiltes Datenportfolio in die Dispositive der Macht eingebettet
gleichermaen erffnen sie dem Individuum Reexions- und Spielrume seiner
Selbstpraxis.5 In populren und wissenschaftlichen Diskursen wurde diese Entwick-
lung verschiedentlich als eine neue Form der narzisstischen Selbstbeteiligung oder
der panoptischen Selbstberwachung diskutiert.6 Auf der Grundlage von empirisch
differenzierenden Studien zum Anwendungsfeld der digitalen Selbstvermessung
kann hingegen das Argument gestrkt werden, dass eine zunehmende Mediatisie-
rung7 krperlicher Praktiken nicht zu einer Normalisierung und Homogenisierung
subjektiver Innerlichkeit fhren muss, sondern eine Vielzahl neuer Formen von
Selbstthematisierungen hervorgebracht hat. Die Einbeziehung der reexiven Selbst-
thematisierung in smtliche Bereiche des Self-Trackings rckt daher die Arbeit
am Krper als Prozess (und nicht als abgeschlossenes Werk) in den Vordergrund.
Wenn Melanie Swan unter der digitalen Selbstvermessung eine Sammlung von
Daten ber die eigene Person versteht, die freiwillig und in kontinuierlichen Ab-
stnden erhoben werden,8 dann verweist sie damit auf diese prozessorientierten und
dynamischen Formen der Selbstbezglichkeit, die sich aus der Wechselbeziehung
zwischen Selbstpraxis, Wissensmedien und der Technisierung von Aufzeichnungs-,
Darstellungs- und Verbreitungsverfahren im Kontext der Sozialen Medien des Web
2.0 entwickeln.
Im Kontext der hier zu untersuchenden, bioinformatischen Technologien der
Gadgets, Apps und Webseiten des Self-Trackings - zielen quantitative Messgerte
und informationssthetische Anwendungen nicht nur auf numerische Objektivie-
rungen, sondern auch auf qualitative Steigerungen biologischer Krper ab.9 Die
in Aussicht gestellte Steigerung krperlicher Fhigkeiten soll hier nicht an der

3 Andrejevic und Burdon, Dening the Sensor Society, S. 21f.


4 Ebd., S.21f.
5 Ajana, Governing through Biometrics, S. 121-45.
6 Bossewitch und Sinnreich, The end of forgetting; Albrechtslund, Self-surveillance.
7 Vgl. zu den aktuellen Debatten um Mediatisierung Couldry, Media, society, world, S.134ff.
8 Swan, Emerging Patient-Driven Health Care Models, S. 509.
9 Andrejevic und Burdon, Dening the Sensor Society, S. 20.
Die Vermessung des Selbst 93

verdinglichenden Macht10 der Messgren und Zahlenwerte festgemacht werden,


sondern vielmehr an der von ihnen etablierten medialen Zsur,11 die sich ergibt,
wenn ein Subjekt im Akt selbstbezglicher Reexion auf ein externes Medium
rekurriert.12
Die digitale Selbstvermessung ist ihrerseits eingebunden in ein heterogenes Netz-
werk populrkultureller Vermittlungen,13 mit denen versucht wird, die Messgren
und Zahlenwerte als zutreffend, folgenreich, berzeugend etc. in Szene zu
setzen.14 In diesem Sinne lsen sich die Krper mit ihrer Ankopplung an Biomedien
nicht einfach auf und werden immateriell (etwa durch ihre numerischen Repr-
sentationen), sondern werden in unterschiedlichen Konstellationen performativ
gerahmt. So gesehen bernimmt etwa die grasche Aufbereitung von Krperdaten
eine bestimmte Handlungsinitiative, wenn sie Leistung mit Trophen honoriert
oder vor berbelastung warnt. Ein Selbstverhltnis, welches das Individuum in
dieser praktischen Selbstbearbeitung herzustellen hat, wird in den Diskursen des
Quantied Self Movement hug als offener Optimierungsprozess verstanden,
der darauf ausgerichtet ist, die technikrationale Perfektionierung des Lebens in den
sozialen Alltag zu verlngern: Self-tracking cultures have emerged in a sociocul-
tural context in which various rationales, discourses, practices and technologies
are converging15 Die mit Biodaten und informatischen Anwendungen verknpf-
te Figur der Optimierung verndert die Perspektive auf das Leben: Leben ist
nichts historisch bergreifendes mehr und auch keine lebensweltlich unverzicht-
bare oder biographische Kategorie, sondern eben jenes hochmoderne Konstrukt,
das uns in Gestalt von Biowissenschaft, Biomedizin und Biodaten begegnet.16
Das Konzept eines technisch optimierbaren Lebens geht vom Ansatz aus, dass die
Medien der Selbstvermessung einen technisch vermittelten Rahmen bereitstellen,
der die Anwender nicht blo unterwirft oder unterdrckt, sondern sie auf eine
bestimmte Art und Weise transformiert und produktiv macht. In dieser Hinsicht
etablieren Biomedien ein technological framing that enables biology to perform
in novel ways beyond itself, while remaining biological.17 Weil die Medien der
Selbstvermessung als persuasive Medien konzipiert sind und auf Vernderungen des
alltglichen Verhaltens abzielen, verlangen sie vom Subjekt die Bereitschaft, sich
aktiv und produktiv auf ihre Anforderungen zu beziehen. Damit erstellen sie eine
10 Vgl. Zillien, Frhlich und Dtsch, Zahlenkrper.
11 Tholen, Die Zsur der Medien, S. 9.
12 Dnne und Moser, Automedialitt, S. 12.
13 Beer, Popular Culture and New Media.
14 Vgl. die empirische Studie von Ackerman, Mobile Health and Fitness Applications and Information
Privacy.
15 Lupton, Self-Tracking Modes, S. 12.
16 Gehring, Was ist Biomacht?, S. 33.
17 Clough, The Affective Turn, S. 9.
94 Ramn Reichert

technisch-mediale Infrastruktur reexiver Selbstbezglichkeit, die das Subjekt in


der Auseinandersetzung mit numerischen Daten und Informationsvisualisierungen
einbringen muss, damit eine interaktive Selbstthematisierung der Individuen qua
social sharing berhaupt funktionieren kann.
Mit der Einbettung der Selftracking-Tools in die environmentalen Medien des
Social Web bilden personalisierte Daten die Wissensallmende der digitalen In-
formationsgesellschaft.18 Hier geht es im Kern darum, dass die informationelle
Selbstbestimmung in digitalen Vernetzungskulturen mittels medienvermittelter
Krperpraktiken neu konguriert wird. Diese Krperpraktiken basieren auf da-
tenbasierten Technologien und Infrastrukturen, die eine neue Form der reexiven
Selbstbezglichkeit hervorbringen: dieses neue Dispositiv zur Selbstkontrolle kreist
um die digitalen Praktiken der Selbstevaluation und der Selbstverffentlichung.
Verstanden als zwingender Wirtschaftsfaktor wird in einer globalisierten ko-
nomie Fitness, Sport und Bewegung eine gesellschaftspolitische Bedeutung zu-
geschrieben. Der Druck einer prventions- und sicherheitsorientierten Gesund-
heitsgesellschaft, welche die Sicherung der Gesundheit nicht nur durch kollektive
Rahmenbedingungen, sondern auch durch eine eigenverantwortliche Anstrengung
im alltglichen sozialen Leben zu gewhrleisten versucht, hat zur Entstehung von
wachstumsstarken Wellness- und Fitnessbranchen gefhrt. Vor diesem Hintergrund
knnen die in Aussicht gestellten Verhaltens- und Lebensstilmodikationen durch
Self-Tracking, Quantied Self und Life Logging hinsichtlich ihrer gouvernemen-
talen Krperdiskurse befragt werden. In welchem Sinne kann die Popularitt des
mikrosensorischen Fitness- und Gesundheitsmonitorings, eine sich als Massenph-
nomen ausbreitende biometrische Dokumentarisierung von Alltagsaktivitten und
das Sichtbarkeits- und Vernetzungsregime von Bio-Datenbanken fr die Entste-
hung einer neuen Regierungsmentalitt des Krpers in Betracht gezogen werden?
Welchen Stellenwert haben in diesem Zusammenhang technisch-mediale Infrastruk-
turen und kybernetische Kontrollarchitekturen bei der Normierung und Regulierung
der vitalen Werte19 als Bestandteile einer informatisch und sozial geteilten Bio-
Macht?20
Die Vision einer informatisierten Gesellschaft, in der smarte Alltagsgegenstnde
mit Sensorik ausgestattet sind und sich als lernende Maschinen im Internet der
Dinge vernetzen, beschftigt heute die internationale Forschung und Entwicklung
weltweit.21 In diesem Kontext haben auch Kultur- und Medientheorien, die sich
mit den unterschiedlichen Aspekten der Materialitt digitaler Objekte beschftigen,
einen enormen Aufschwung erhalten. Zum genaueren Verstndnis dieser Zusam-
18 Cheney-Lippold, A new Algorithmic Identity.
19 Muhle, Eine Genealogie der Biopolitik, S. 11.
20 Foucault, Der Wille zum Wissen.
21 Buschauer, Mobile Rume, S.286303.
Die Vermessung des Selbst 95

menhnge in der Auseinandersetzung mit jngeren Arbeiten aus den Bereichen der
Critical Code Studies, der Surveillance Studies und der Akteur-Medien-Theorie
wird hier eine wissens-, medien- und machtanalytische Perspektivierung der di-
gitalen Auswertungs- und Beratungs-Software in den Anwendungsbereichen von
Fitness und Gesundheit vorgeschlagen. Die in diesem Krftefeld entstehenden
Medientechnologien und -praktiken der digitalen Selbstvermessung verwischen
die Grenzen zwischen Technik und Gesellschaft, Privatheit und ffentlichkeit,
Experten und Laien. Denn die Smartphones mit ihren mikrosensorischen Kom-
ponenten, die tragbaren Computersysteme in Armbndern, Uhren oder Brillen
(wearables), die mobilen technischen Gerte (gadgets), die Verbreitung der mobi-
len Vernetzungstechnologien und die Anwendungssoftware fr Mobilgerte wie
Smartphone und Tablet-Computer (apps) berlagern Kommunikationsmedien mit
personalisierten Versuchsanordnungen. Diese technisch-medialen Infrastrukturen
ermglichen als Bio-Medien neuartige Sozialbeziehungen (community-building)
in vernetzten Verhandlungsspielrumen und produzieren digitale Selbstentwrfe
und digitale Krperbilder.22 In diesem Sinne bilden sie hybride Kollektive, die
sich sowohl aus menschlichen Akteuren als auch aus materiellen Apparaturen,
visuellen Notationssystemen und schriftbasierten Kommunikationsformen zusam-
mensetzen. Dementsprechend knnen diese Hybridbildungen nicht monokausal
als Folge moderner Technik, sondern anthropologisch auch als Teil des Menschen
bestimmt werden. So kann das Gegenwartsphnomen der biomedialen Kyberneti-
sierung ebenfalls in der Alltagskultur verortet werden. Auch die Semantiken von
Self-Tracking, Lifelogging oder Mobile Computing spannen einen weiten interpreta-
torischen Bogen und meinen damit sowohl individualisierte, sozial geteilte, als auch
automatisierte Aufzeichnungen, Archivierungen und Ausdeutungen von selbst- und
fremddokumentierten Lebensaktivitten.
Die hier dargestellten Thesen zum Fitness- und Gesundheitsmonitoring in digita-
len Kontroll- und Prozesskulturen versuchen diese heterogenen Medienpraktiken
zu bndeln, um die entscheidende Frage nach dem operativen und strategischen
Zusammenhang von numerischen Krpervermessungen (Gadgets), den Kulturtech-
niken der bildgebenden Darstellung von Krpern (Dashboards) und den sozial
geteilten Gesundheits- und Sportdiskursen (Social Net) aufzuwerfen. Die Nutzung
der Gadgets wurde oben als materielles Dispositiv beschrieben, das die digitale
Selbstkontrolle in die gelebte Praxis einfhrt. Die vertiefenden Formen der Selbst-
bezglichkeit mittels der Dashboards werden im folgenden Kapitel beschrieben.
Abschlieend wird auf die Ausung von Privatheit mit Hilfe der neuen Sharing-
Funktionen hingewiesen.

22 Hansen, Bodies in code.


96 Ramn Reichert

Vor diesem Hintergrund knnen die drei Ausprgungen biomedialer Praktiken


detaillierter unterschieden werden:

Erstens generieren die konkreten Apparaturen der mobilen Aufzeichnungs- und


Speichermedien die Daten der spezischen Krperpraktiken. Diese Daten wer-
den als distinkte, numerische Reprsentationen physiologischer Leistungen und
Funktionen sichtbar und lesbar gemacht. Die mit Hilfe der konkreten Apparate
gesammelten Daten bilden Aussagen ber das Ereignishafte der krperlichen
Praktiken. Mit ihren evidenzbasierten Dateninszenierungen wird der Apparatur
der Status einer medialen ffnung zur Welt des Krpers in Aussicht gestellt. Die
Sicht- und Sagbarmachung des Krpers qua Medien erhlt eine epistemologische
Dimension, insofern Medien die technischen Bedingungen der Mglichkeit von
krperlicher Aktivitt geltend machen sollen und einen unmittelbaren Kausalne-
xus zwischen Krper und Messgert suggerieren.

Zweitens kontextualisieren die digitalen Medien die numerischen Reprsentatio-


nen des Selbst, um sie in kulturell geteilten Kommunikationsrumen symbolisch
zu verwalten. Dieser zweite Bereich der biomedialen Kontroll- und Steuerungs-
kultur wird in der einschlgigen Literatur oft mit dem funktionalistischen Begriff
der Gamication assoziiert. Die bilddidaktische Gestaltung der Datensamples
verdeutlicht, dass die technischen Medien der Selbstvermessung nicht nur die
Rolle von Aufzeichnungs- und Speichermedien erfllen, sondern mittels ihrer
regulierenden Bedeutungsproduktion versuchen, auf das Verhalten der Subjekte
Einuss zu nehmen. In diesem Sinne treten die digitalen Medien der Selbstver-
messung nicht nur als (neutrale) Hilfsmittel in Erscheinung, sondern werden
auch fr aktivierend-motivationale Prozesse eingesetzt.

Drittens knnen die gesammelten und aufbereiteten Daten mittels sozialer Me-
dien verbreitet werden. Im Unterschied zu frheren Medienkulturen technisch
vermittelter Lebensdaten (vgl. grasche oder fotograsche Aufzeichnungs- und
Speichermedien) sind die dokumentarisierenden Praktiken auf das Engste mit
den kommunizierenden Praktiken im Kontext permanenter Konnektivitt und
kollaborativer Bedeutungsproduktion verknpft. Die technische Mglichkeit,
die statistisch ausgewerteten Daten und Zahlen des eigenen Lebens kontinu-
ierlich auf multiagentielle Kollektive zu beziehen, konstituiert Vergleichs- und
Wettbewerbsszenarios nicht nur fr das Community-Building, sondern auch
fr die Agenda der staatlich-administrativen Gesundheitsprognostik. Die Bio-
Datenbanken der digitalen Vernetzungskulturen sind daher als offene und dyna-
mische Datenkollektive angelegt und integrieren die Feedbacktechnologien fr
lebensstilbezogene Transformationen (Selbstformung, Rationalisierung, Assimi-
lierung).
Die Vermessung des Selbst 97

1. Gamication und Selbstkontrolle


Mikrosensorische Aufzeichnungs- und Speichermedien wie die Fitness-Devices
Endemondo Pro, Runkeeper, Runtastic, Nike+ Running, miCoach, MapMyRun sind
nur einige von zahlreichen auf dem Markt bendlichen Gadgets, die individuelle
Krperpraktiken in ein dichtes Netzwerk quantizierender Verdatung berfhren. In
diesem Zusammenhang bedienen sich Fitness-Apps einer Vielzahl von Wissensme-
dien, um Handlungsanweisungen und -initiativen zu entwickeln, die das Monitoring
krperlicher Aktivitten mit Krperdisziplinierungen und Selbstpraktiken verknp-
fen, die sich vom Coaching bis zu Fitness-Testverfahren und detaillierten Plnen
zur Gewichtsreduktion erstrecken. Das Monitoring und Mapping der Fitness- und
Gesundheitsdaten zielt auf die Herstellung eines Individuums, that becomes a
knowable, calculable and administrable object.23 Dabei durchlaufen die Kultur-
techniken des Messens unterschiedliche Verfahren, um Individuen und ihre Krper
in Zahlen oder Einheiten zu verwandeln: Quantication relies on data collection,
followed by visualization of this data and cross-referencing, in order to discover
correlations, and provide feedback to modify behaviour.24
Die Fitness-Tracker sind mit einer Vielzahl von Aktivittssensoren ausgestattet,
um sportliche Leistungen und krperliche Bendlichkeiten in Echtzeit messbar
zu machen. Ihre Messdaten umfassen zurckgelegte Distanzen, Zeit, Geschwin-
digkeit, Herzfrequenz, Hydration, Puls, Kalorienverbrauch u.a.m. Vor seiner In-
betriebnahme muss das physikalische Trgermedium zunchst auf seinen Nutzer
abgestimmt werden, der aufgefordert wird, mit seinen Krperdaten einen perso-
nenbezogenen Vermessungsvorgang einzuleiten: Schrittlnge, Gre, Gewicht und
Alter bilden Proldaten zur Verbesserung der Reliabilitt der Daten. Die mittels der
Fitness-Devices erhobenen biometrischen Daten knnen von ihren Nutzern mittels
numerischer Messgren und Datenvisualisierungen erschlossen und zum Zweck
der Selbstformung und Selbstdarstellung angeeignet werden. Durch die stabiler
und schneller werdenden Mobilfunknetze sind viele Menschen mit ihren mobilen
Endgerten auch permanent mit dem Internet verbunden, was der Konnektivitt
einen zustzlichen Schub verleiht.
Die mobilen Computer, die Wearables oder Gadgets der Selbstvermessung, ent-
falten ihren informationssthetischen Mehrwert aber erst in Verbindung mit der
Einrichtung von Ludic Interfaces, die hergestellt werden, um die Datenvisualisierun-
gen mit spieltypischen Elementen und Mechaniken anzureichern. Die spielerischen
Umgebungen der Tracking-Tools werden mit dem Ziel, das Verhalten von Men-
schen zu beeinussen, gleichermaen fr die Wissensvermittlung (game based

23 Shove, Pantzar und Watson, The Dynamics of Social Practice, S. 17.


24 Whitson, Gaming the Quantied Self, S. 167.
98 Ramn Reichert

learning) und die Nutzungsmotivation der User eingesetzt.25 Ein zentrales Element
der Vermittlung spielehnlicher Anwendungen, die mit Technologien und Design
aus dem Unterhaltungssoftwarebereich entwickelt werden, stellt das Dashboard
dar26 . Es sorgt nicht nur fr eine bersichtliche Auswertung der erhobenen Daten,
sondern ermittelt auch Normabweichungen, Leistungsunterschreitungen oder er-
reichte Zielvorgaben. Das Dashboard, das in Browser-Anwendungen erreichbar ist,
bndelt mehrere funktionale Elemente der digitalen Selbstvermessung: (1) Es stellt
eine Anzeige im Sinne einer Mensch-Maschine-Schnittstelle dar und versammelt
operationalisierbare Krperdaten in Echtzeitbertragung und macht sie mittels bild-
gebender Verfahren der popularisierenden Informationsvisualisierung evident. Die
Daten werden bilddidaktisch in navigatorischen Geovisualisierungen, thematischen
Kartograen, Balkendiagrammen respektive tabellarischen Rangordnungen und in
anwendungsnahen Use-Cases-Diagrammen in Form von Tachometern, Thermo-
metern, Ampel- und Scoring-Sulen dargestellt. Um die Lesbarkeit der jeweiligen
Zahlenwerte zu erleichtern, sind numerische Reprsentationen oft auch mit di-
daktischen Annotationen versehen, die grasch, farblich, gurativ oder akustisch
aufbereitet werden. Damit werden die Daten zustzlich vermittelt und in ber-
schaubare und hierarchisch geordnete Grenzzonen, Zielbereiche oder Mittelwerte
eingebettet. (2) Das Dashboard fungiert auch als eine automediale Datenbank, ar-
chiviert die personalisierten Krperdaten und ermglicht die statistische Evaluation
von durchschnittlichen Leistungswerten in Korrelation mit dem Benchmarking von
Orientierungs- oder Zielgren, die individuell oder auch in Gruppenbeziehungen
dargestellt werden knnen. Mit den Datenbankfunktionen des Dashboard knnen
Fitness- und Gesundheitsdaten operativ verwaltet und miteinander vernetzt werden:
Gewicht, Krperfettanteil, Herzfrequenz, Kalorienverbrauch, Blutdruck oder Blut-
zuckerwerte und die Aufnahme von Nahrungsmitteln und Wasser knnen in die
Bio-Datenbank integriert werden. (3) Das Dashboard fungiert auerdem als offenes
Kontrollmedium und verweist damit auf den Aspekt der subjekttransformativen
Selbstpraktiken, wenn es etwa darum geht, die berbietung oder das Verfehlen von
vereinbarten Leistungszielen aufzuzeigen, um Verhaltensnderungen zu monieren.
Die Annahme, dass man mit sogenannten Badges (Abzeichen) seine Errun-
genschaften erspielen kann, verweist aber weniger auf eine freiheitliche und
selbstbestimmte Art und Weise des Spielens, sondern vielmehr auf die Vorstellun-
gen von Marketingmanagern, das Gameplay mit bestimmten Unternehmenszielen
zur Deckung zu bringen. So knnen die Badges nur dann erworben werden, wenn
ein bestimmter Wert als Zielvorgabe erreicht wird. Diese in Szene gesetzten Leit-
werte werden nicht nur genutzt, um Verhalten als vernderbar zu plausibilisieren,
25 Deterding u. a., From Game Design Elements to Gamefulness.
26 Das Dashboard bezeichnet die Visualisierung von Informationen in verdichteter, meist grascher
Form.
Die Vermessung des Selbst 99

sondern auch um eine technische Anpassungsleistung, sich an den Messwerten ab-


zuarbeiten, von den Nutzenden zu fordern.27 Der Zielwert rmiert weniger als Ma
der individuellen Selbstverwirklichung, sondern vielmehr als ein formales Hand-
lungsdiktat, das erst dann seine Befehlsform aufgibt, wenn sein vorgeschriebener
Zielwert erreicht wird.

2. Prozesse informationeller Subjektivierung


Im Folgenden mchte ich die Subjektivierungsprozesse nher betrachten, die sich
aus der berlagerung von Messtechnik, Informationsarchitektur und krperlichen
Praktiken herausbilden. In diesem Zusammenhang mchte ich der These nachge-
hen, dass der gesellschaftlichen Akzeptanz einer dauerprsenten Verdatung des
menschlichen Krpers eine Verlngerung medialer Technologien ins Subjekt zu
Grunde liegt. Wenn der Anspruch besteht, das Self-Tracking nicht als bloe Aus-
fhrung berindividueller Normen oder passiver Aneignung zu verstehen, ist es
notwendig, einen differenzierten Begriff sozialer Praxis zu entwickeln. Dieser rumt
den Individuen die grundlegende Mglichkeit ein, sich als reektierende Subjekte
im Mediengebrauch zu entwerfen. Diese Sichtweise sorgt dafr, dass die Anwen-
dungen als offen fr ihre Umkehrung oder Vernderung gedacht werden knnen.
In diesem Zusammenhang bringen Byron Reeves und Leighton Reid noch einen
weiteren Aspekt der Gamication zur Sprache, indem sie den Zusammenhang von
Datenvisualisierung und Feedbacktechnologie hinsichtlich ihrer verhaltensmoderie-
renden Funktionen thematisieren: Game interfaces set a new bar for feedback. At
any one time, Helen sees progress bars, zooming numbers, and status gauges, all in
a well-organized dashboard that lets players know how things are going, good or
bad.28 Die Autoren machen deutlich, dass die Implementierung von Feedbacktech-
nologien darauf ausgerichtet ist, auf das Verhalten der Nutzer in actu einzuwirken:
Quick feedback creates immediacy and contingency in the interactions. When you
make a new move, you know quickly whether the action was right or wrong. The
close connection between behaviour and feedback increases the likelihood that the
reinforcement will be effective.29 In Anlehnung an Reeves und Reid kann der
Stellenwert von Feedbackschleifen sowohl fr die Mensch-Maschine-Schnittstellen
als auch fr ihre sozialen Erweiterungen herausgearbeitet werden.
Mobile Sport- und Fitness-Tracker sind miniaturisierte Computeranwendungen,
die hauptschlich fr das krperliche Training ihrer Benutzer eingesetzt werden.
Sie verfgen ber eine Vielzahl biometrischer Feedbackschleifen und entwickeln

27 Whitson, Gaming the Quantied Self.


28 Reeves und Read, Total Engagement, S. 71.
29 Ebd., S. 72.
100 Ramn Reichert

eine Vielzahl multimedialer Anweisungen, welche ihre Benutzer dazu bringen


sollen, sich auf bestimmte Weise mit den Zahlenwerten auseinander zu setzen.
Zeitverlaufsdiagramme, Audiosignale, Szenario-Charts, Mittelwertberechnungen,
Fortschritts-, Zielwert- und Regressionsanalysen bernehmen selbst Handlungs-
initiativen, indem sie Handlungsziele festsetzen und eigenstndige Reaktionen
der Benutzer einfordern. Als Medien der krperlichen bung sind sie daher mit
diversen Funktionen des Feedbacks ausgestattet, die ein dichtes Netz der Verdatung
und der Kontrolle des Krpers etablieren. Dieses digitale Geecht aus technischer
Kontrolle, Selbstkontrolle und sozialer Kontrolle zielt darauf ab, beim Benutzer
Fhigkeiten der Selbstthematisierung und der Selbstfhrung zu entwickeln.
Durch ihre Konnektivitt mit den Kommunikationsmedien des Web 2.0 sorgen mi-
krosensorische Anwendungen auch dafr, dass sich die Privatsphre des Einzelnen
und seine krperlichen Aktivitten und Gewohnheiten (1) in die Kommunikati-
onsrume der Mediennutzung im Front-End-Bereich und (2) in die informatische
Verdatung, das ist die Speicherung und Verarbeitung personenbezogener Daten im
Back-End-Bereich der sozialen Netzwerkseiten, verschieben.30 Das ber das Web
verbreitete Krperwissen der digitalen Selbstvermessung strkt nicht nur die Selbst-
ermchtigung der informierten Laien in Online-Foren, sondern schafft auch neue
Beobachtungsanordnungen fr krperbezogene Expertisen der Kommunikationsin-
formatik und Backend-Technologien in Zusammenarbeit mit Gesundheitsbehrden,
Arbeitgebern und Versicherungen.

3. Sharing is caring!
Abschlieend mchte ich der Frage nachgehen, mit welchen Methoden die digitale
Groforschung die Daten der digitalen Selbstvermessung erhebt, fr die Sekun-
drdatenanalyse ber ihren vorrangigen Verwendungszweck hinaus auswertet und
fr soziotechnische und konomische Verwertungskontexte modelliert. Bevor auf
das Verhltnis zwischen einer Generierung von Daten und einer Gewinnung von
Wissen aus den Daten nher eingegangen werden kann, muss eine relevante Unter-
scheidung zwischen nutzergenerierten Inhalten und transaktionalen Daten getroffen
sein. Die digitale Selbstvermessung besteht nicht nur aus den unstrukturierten Da-
tenmengen, welche die Techniknutzer als Inhalte eigenstndig herstellen, wenn
sie diese etwa mittels mobiler Endgerte oder sozialer Medien kommunizieren.
Beim Self-Tracking werden auch groe Mengen transaktionaler Daten erzeugt,
wenn sich die Nutzer mit GPS verorten, Cookies herunterladen, Logdateien nut-

30 Das auf einem Server installierte Programm wird bei Client-Server-Anwendungen mit dem Begriff
Back-End umschrieben. Das im Bereich der Client-Anwendung laufende Programm wird als
Front-End bezeichnet.
Die Vermessung des Selbst 101

zen oder sich in Netzwerke einloggen. Alleine mit den GPS-Daten von Handys
knnen Lokationsdaten und Aktivittsmuster fr die Erhebung von Hufungen im
Datenraum berechnet werden. Die digitale Selbstvermessung kann also gleichzeitig
unterschiedliche Datenvolumina und Datenformate produzieren, die in weiterer
Folge von Sekundrnutzern unabhngig vom primren Erhebungszweck aufbereitet
und ausgewertet werden.
In diesem Zusammenhang schlgt die Soziologin Deborah Lupton eine erwei-
terte Perspektive auf die Modi des Self-Monitoring vor, indem sie den Stellenwert
persuasiver Medien im Prozess der Subjektkonstitution herausstreicht. Sie unter-
sucht die Einbettung der Fitness-Devices in spezische Dispositive der Macht und
differenziert zwischen pushed, imposed und exploited Self-Tracking:

Pushed self-tracking represents a mode that departs from the pri-


vate self-tracking mode in that the initial incentive for engaging in
self-tracking comes from another actor or agency. [. . .] Imposed
self-tracking involves the imposition of self-tracking practices upon
individuals by others primarily for these others benet. [. . .] Ex-
ploited self-tracking refers to the ways in which individuals personal
data are repurposed for the benet of others. Exploited self-tracking
is often marketed to consumers as a way for them to benet person-
ally, whether by sharing their information with others as a form of
communal self-tracking or by earning points or rewards.31

Das pushed self-tracking verortet sie exemplarisch in den Anwendungsberei-


chen der Prventivmedizin und der Patientenberwachung. Dort wird das mobile
Gesundheitsmonitoring seit einigen Jahren unter den Begriffen Telecare und
Ambient Assisted Living aufgegriffen und zielt darauf ab, Menschen aufzufor-
dern, ihre biometrischen Daten zu berwachen, um bestimmte Gesundheitsziele zu
erreichen. Die populren Health-Tracking-Plattformen Google Fit und Apple
Health Kit sorgen fr eine zunehmende Verechtung von digitalen Medien mit
dem huslichen Umfeld des Alltags: Mobile Verortungstechniken, sensorbasiertes
Krpermonitoring, technische Assistenzsysteme im Wohnumfeld und Systeme der
digitalen Verwaltung von Arzt- und Laboruntersuchungen sollen eine permanente
Selbst- und Fremdbeobachtung sicherstellen. Die italienische Versicherungsgruppe
Generali hat in Europa das Telemonitoring bei ihren Lebens- und Krankenversi-
cherungen eingefhrt. Dieses Gesundheits- und Fitnessmonitoring funktioniert mit
der App Vitality, die Schritte zhlt, sportliche Aktivitten misst und den elektroni-
schen Nachweis von Gesundheitsbemhungen mit gnstigeren Versicherungstarifen

31 Lupton, The Five Modes of Self-tracking.


102 Ramn Reichert

belohnt. Die multiplen Beobachtungsanordnungen der Sensor- und Informations-


technik lsen die Oppositionen zwischen dem physischen und medialen Raum auf
und sind beispielhaft fr die Normalisierung von Fitnesskrpern beziehungsweise
Pathologisierung von Risikokrpern als mediale Konstrukte.32
Das imposed self-tracking geht noch einen Schritt weiter. Im Falle von Corpora-
te Wellness-Programmen werden die Mitarbeiter verpichtet, Trackingarmbnder
zu tragen und mssen dem Arbeitgeber die ermittelten Gesundheits- und Aktivi-
ttsdaten bergeben.33 Aufbauend auf dem Konzept der Work-Life-Balance, das
Arbeits- und Privatleben miteinander in Beziehung setzt, knnen Unternehmen ein
detailliertes Abbild von Lebensgewohnheiten erstellen und individuellen Merk-
malstrgern zuweisen. Gemeinsam mit dem Datenanalysten Dacadoo berechnet die
Allgemeine Ortskrankenkasse (AOK) einen Healthscore fr jedes ihrer Mitglieder.
Diese Datenportfolios geben statistisch Aufschluss ber Korrelationen zwischen
den gesundheitlichen Beschwerden und den Lebensgewohnheiten der Mitglieder
und lassen eine personalisierte Analyse des Krankheitsrisikos zu, wobei die Beitr-
ge der Kunden knftig ber individualisierte Versicherungstarife abgestuft werden
sollen. Die US-Krankenversicherung United Healthcare bietet einen Preisnachlass
an, wenn die Versicherten nachweisen knnen, dass sie tglich eine bestimmte
Anzahl an Schritten absolvieren.
Das exploited self-tracking kann als Sammelbegriff fr die weitreichende kono-
misierung von Biodaten verstanden werden. Einige Einzelhndler, zum Beispiel
Walgreens, die grte Apothekenkette in den USA, haben bereits damit begonnen,
tragbare Gerte als Teil ihres customer loyalty programs einzusetzen.34 Kunden,
die regelmig ihre persnlichen Fitness-Daten auf der Plattform hochladen, wer-
den mit Preisermigungen fr Produkte belohnt. Die gesammelten Daten knnen
dann von den Einzelhndlern fr ihr Marketing verwendet und an Dritte verkauft
werden.
In der zweiten Hlfte des Jahres 2008 haben sich zwei richtungsweisende In-
teressensgruppen gegrndet, die Erfahrungen, Ressourcen und Dienstleistungen
der digitalen Selbstvermessung als ein factum brutum postulieren: die Quantied
Self Group35 in San Francisco und die HomeCamp Group36 in London. Eine Grun-
dannahme ihres datengetriebenen Sozialrealismus besteht darin, den Daten den
Stellenwert einer objektivierbaren Ressource zuzuschreiben, die einen unmittel-
baren und unverflschten Einblick in krperliche Zustnde und Gewohnheiten der

32 Klein, BilderWelten Krperformen, S. 211.


33 Till, Exercise as Labour.
34 Rice University, Walgreens Incentivizes Self-Tracking.
35 http://www.quantiedself.com
36 http://homecamp.org.uk
Die Vermessung des Selbst 103

alltglichen Lebensfhrung ermglichen knnen.37 Zustzlich rmieren ihre mittels


digitaler Methoden erhobenen Daten als Mittel von Ermchtigung und Selbstkon-
trolle. In diesem Sinne thematisieren sie den Krper nicht nur als einen subjektiven
Trger individueller Fhigkeiten, sondern schreiben ihm auch die Rolle eines per-
formativen Vermittlers von gesellschaftlich vernderten Rahmenbedingungen von
Krperpraktiken zu. Die Figuren der medialen Dezentrierung und Entuerung der
beteiligten Subjekte knnen aber erst mit einer Medienreexion eingeholt werden,
welche die grundlegende Medialitt krperlicher Erfahrbarkeit und subjektiver
Entwrfe zum Thema macht: Die Attraktivitt von Medientechnologien ist, ber
die technisch-mediale und soziale Anschlussfhigkeit hinaus, ein vielschichtiges
Phnomen, das unter anderem mit der Verschiebung von Raum- und Zeit- und
damit auch Krpergrenzen zusammenhngt.38
Sharing is caring lautet auch das Motto des ktiven IT-Weltkonzerns The
Circle, mit dem Dave Eggers in seinem gleichnamigen Roman die Zumutungen
datengetriebener Transparenz umschreibt.39 Die Popularitt der digitalen Kommu-
nikation in der Netzffentlichkeit der Fitness- und Health-Devices hat dazu gefhrt,
dass die Big-Data-Forschung die Aktivitten und das Wissen der Self-Tracker fr
ihre statistischen Auswertungen und Datenmodellierungen benutzt.40 Amit Sheth
umschreibt die Relevanz des Citizen Sensoring fr die statistische Datenauswertung
des Community Development in einer Weise, die eine lckenlose Funktionalitt der
Mensch-Maschine-Schnittstellen in Aussicht stellt, mit welcher eine unverflschte
bersetzbarkeit von Biodaten in geolokalisierbare Raster gewhrleistet werden
soll:

A citizen sensor is a human, who observes and reports on various


events in a near real time manner using technologies such as short
message service and microblogging. When recording an observation,
human sensing, perception, knowledge and intellect, which in most
respect can be far more sophisticated than a machine sensor, is con-
stantly applied. Citizen sensors capture and report their observations
using devices such as smart phones.41

Sheth und zahlreiche andere Verbandsmitglieder des Institute of Electrical and


Electronics Engineers rekurrieren auf einen positivistischen Datenbegriff, wenn
sie die Gegebenheit der Daten und ihre Korrespondenz mit der sozialen Welt

37 Wolf, The Data-Driven Life.


38 Bublitz, Im Beichtstuhl der Medien, S. 9.
39 Eggers, The Circle, S. 67.
40 Gurrin, Smeaton und Doherty, LifeLogging, S. 1.
41 Sheth, Citizen Sensing, Social Signals, and Enriching Human Experience, S. 88.
104 Ramn Reichert

auerhalb der Online-Netzwerke nur unzureichend in Frage stellen. Lisa Gitel-


man und Virginia Jackson problematisieren in Raw data is an oxymoron42
diese Figuren des datenbasierten Objektivismus und setzen sich mit Konstruk-
tionen datenbasierten Wissens kritisch auseinander. Dabei fragen sie, inwiefern
die Erweiterung der technischen Kapazitten den erhobenen Daten eine bestimm-
te Form rhetorischer Vereinfachungen auferlegt. In diesem Zusammenhang kann
auch die Frage aufgeworfen werden, welche Rolle biomediale Selbstdokumen-
tationen auf Tracking-Plattformen spielen, wenn in Betracht gezogen wird, dass
Bio-surveillance modalities, which rely upon continuous monitoring of bodily or
biological processes, have emerged as dening characteristics of post-disciplinary
social control.43 Hier wre es lohnenswert, die Perspektive auf Biomedialitt als
Markt aufzunehmen und der Frage nachzugehen, welches Interesse unterschiedliche
Anbieter mit ihrem nanziellen Engagement verbinden, um Praktiken der digitalen
Selbstvermessung zu frdern und sicht- und sagbar zu machen.

4. Fazit
Allgemein gehen Medien- und Kommunikationsanalysen der digitalen Selbstver-
messung von der Grundannahme einer wechselseitigen Durchdringung medizini-
scher, medialer und sozialer Praktiken aus und erffnen einen vielversprechenden
Ansatz, der (1) die medizinal-therapeutische Durchdringung der Lebenswelt, (2)
die Formen der numerischen Reprsentation des Krpers und (3) die Herausbildung
von neuen Formen der reexiven Verwissenschaftlichung des Krpers umfasst.
Eine Subjekt- und Kollektivittsforschung, die den Einuss des Mediums auf die
Prozesse biomedialer Selbstdokumentation als eigenstndige Forschungsfrage auf-
nimmt und als wissenschaftliches Arbeitsfeld ansieht, vermag den Blick auf die
medialen Vorgnge, mit denen die bermittlung und die Vermittlung von Handlun-
gen ermglicht, angewiesen und vollzogen werden sollen, zu schrfen. Die damit
in Aussicht gestellte Durchdringung aller Lebensbereiche ist aber nicht gleichbe-
deutend mit einem immediaten und direkten Zugriff auf eine medial hypostasierte
Lebenswelt der Subjekte, denn die Medien knnen die Bedingungen der Mg-
lichkeit, ein bestimmtes Leben zu fhren, weder urschlich determinieren noch
letztlich rechtfertigen. In weiterfhrenden berlegungen knnte es darum gehen,
zu bercksichtigen, dass die Gadgets, Apps und Social-Media-Plattformen selbst
Gegenstand von Reexivitt sind. Wenn in Betracht gezogen wird, dass die Medien
der digitalen Selbstvermessung immer auch Reexivitt erzeugen, dann knnen die
sthetischen, narrativen und ktionalisierenden Mittel der Dateninszenierung, mit

42 Gitelman, Raw data is an oxymoron, S. 11f.


43 Campbell, Technologies of Suspicion, S. 79.
Die Vermessung des Selbst 105

denen eine reexive Selbstverwissenschaftlichung Daten (fr andere, z.B. fr die


Plattformffentlichkeit) erzeugt, sicht- und sagbar macht, untersucht werden. Die-
ser Gedanke hat weitreichende Folgen. Denn er verdeutlicht, dass das Self-Tracking
keine unmittelbare Vermessung der Individuen in Aussicht stellen kann, weil die
Medien der Vermessung immer auch ein reexives Vermessen-Werden erzeugen,
das den Biodaten inhriert.

Literatur
Ackerman, Linda. Mobile Health and Fitness Applications and Information Privacy.
Report to California Consumer Protection Foundation. San Diego: Privacy Rights
Clearinghouse, 5. Juli 2013. URL: https://www.privacyrights.org/mobile-medical-
apps-privacy-consumer-report.pdf (besucht am 06. 09. 2016).
Ajana, Btihaj. Governing through Biometrics: The Biopolitics of Identity. Basing-
stoke: Palgrave Macmillan, 2013.
Albrechtslund, Anders. Self-surveillance: How Quantication Practices and Moni-
toring Technologies Produce Subjectivity. In: Annual Meeting of the Society for
Social Studies of Science (4S), San Diego, 9-12 Oktober 2013. 2013.
Andrejevic, Mark und Mark Burdon. Dening the Sensor Society. In: Television
& New Media 16.1 (2015), S. 1936.
Beer, David. Popular Culture and New Media: The Politics of Circulation. Hound-
mills: Palgrave Macmillan, 2013.
Bossewitch, Jonah und Aram Sinnreich. The end of forgetting: Strategic agency
beyond the panopticon. In: New Media & Society 15.2 (2013), S. 224242. DOI:
10.1177/1461444812451565.
Bublitz, Hannelore. Im Beichtstuhl der Medien: Die Produktion des Selbst im
ffentlichen Bekenntnis. Bielefeld: Transcript, 2010.
Buschauer, Regine. Mobile Rume: Medien- und diskursgeschichtliche Studien zur
Tele-Kommunikation. Bielefeld: Transcript, 2010.
Campbell, Nancy D. Technologies of Suspicion: Coercion and Compassion in
Post-disciplinary Surveillance Regimes. In: Surveillance & Society 2.1 (2004),
S. 7892.
Cheney-Lippold, John. A new Algorithmic Identity: Soft Biopolitics and the
Modulation of Control. In: Theory, Culture & Society 28.6 (2011), S. 164181.
DOI : 10.1177/0263276411424420.
Clough, Patricia. The Affective Turn: Political Economy, Biomedia and Bodies.
In: Theory, Culture and Society 25.1 (2008), S. 122.
Couldry, Nick. Media, society, world: Social theory and digital media practice.
Cambridge, Mass.: Polity Press, 2012.
106 Ramn Reichert

Deterding, Sebastian u. a. From Game Design Elements to Gamefulness: Dening


Gamication. In: MindTrek 11: Proceedings of the 15th International Academic
MindTrek Conference Envisioning Future Media Environments. Hrsg. von Artur
Lugmayr u. a. New York: ACM, 2011, S. 915. DOI: 10.1145/2181037.2181040.
URL : https://www.cs.auckland.ac.nz/courses/compsci747s2c/lectures/paul/
denition-deterding.pdf (besucht am 20. 06. 2015).
Dnne, Jrg und Christian Moser, Hrsg. Automedialitt: Subjektkonstitution in
Schrift, Bild und neuen Medien. Mnchen: Wilhelm Fink, 2008.
Eggers, Dave. The Circle: A novel. New York: Knopf, 2013.
Foucault, Michel. Der Wille zum Wissen. Sexualitt und Wahrheit. Frankfurt am
Main: Suhrkamp, 1977.
Gehring, Petra. Was ist Biomacht? Vom zweifelhaften Mehrwert des Lebens. Frank-
furt und New York: Campus, 2006.
Gitelman, Lisa, Hrsg. Raw data is an oxymoron. Cambridge, Massachusetts: The
MIT Press, 2013.
Gurrin, Cathal, Alan F. Smeaton und Aiden R. Doherty. LifeLogging: Personal Big
Data. In: Foundations and Trends in Information Retrieval 8.1 (2014), S. 1125.
DOI : 10.1561/1500000033.
Hansen, Mark Boris Nicola. Bodies in code: Interfaces with digital media. New
York und London: Routledge, 2006.
Klein, Gabriele. BilderWelten Krperformen: Krperpraktiken in Mediengesell-
schaften. In: Medienkultur und soziales Handeln. Hrsg. von Tanja Thomas und
Marco Hhn. Wiesbaden: VS Verlag fr Sozialwissenschaften, 2008, S. 209217.
Lupton, Deborah. Quantifying the Body: Monitoring and Measuring Health in the
Age of Health Technologies. In: Critical Public Health 23.4 (2013), S. 393403.
Self-Tracking Modes. 19. Aug. 2014. URL: http://ssrn.com/abstract=2483549
(besucht am 06. 09. 2016).
The Five Modes of Self-tracking. This Sociological Life. A Blog by sociologist
Deborah Lupton. 2014-08-17. URL: https://simplysociology.wordpress.com/
2014/08/07/the-ve-modes-of-self-tracking/ (besucht am 15. 06. 2015).
Lyon, David. Biometrics, Identication and Surveillance. In: Bioethics 22.9
(2008), S. 499508. DOI: 10.1111/j.1467-8519.2008.00697.x.
Muhle, Maria. Eine Genealogie der Biopolitik. Bielefeld: Transcript, 2008.
Reeves, Byron und J. Leighton Read. Total Engagement: Using Games and Virtual
Worlds to Change the Way People Work and Businesses Compete. Boston, Mass.:
Harvard Business Press, 2009.
Rice University. Walgreens Incentivizes Self-Tracking. Medicine in the Age of
Networked Intelligence. 29. Apr. 2013. URL: http://networkedmedicine.tumblr.
com / post / 47422186125 / walgreens - incentivizes - self - tracking (besucht am
15. 06. 2015).
Die Vermessung des Selbst 107

Sheth, Amit. Citizen Sensing, Social Signals, and Enriching Human Experience.
In: IEEE Internet Computing 13.4 (2009), S. 8792.
Shove, Elizabeth, Mika Pantzar und Matt Watson. The Dynamics of Social Practice:
Everyday Life and How it Changes. London: SAGE, 2012.
Swan, Melanie. Emerging Patient-Driven Health Care Models: An Examination
of Health Social Networks, Consumer Personalized Medicine and Quantied
Self-Tracking. In: International Journal of Environmental Research and Public
Health 6.2 (2009), S. 492525.
Tholen, Georg Christoph. Die Zsur der Medien: Kulturphilosophische Konturen.
Frankfurt am Main: Suhrkamp, 2002.
Till, Chris. Exercise as Labour: Quantied Self and the Transformation of Exercise
into Labour. In: Societies 4.3 (2014), S. 446462.
Whitson, Jennifer R. Gaming the Quantied Self. In: Surveillance and Society
11.1/2 (2013), S. 163176.
Wolf, Gary. The Data-Driven Life. In: The New York Times Magazine (2. Mai
2010), S. 3845. URL: http://www.nytimes.com/2010/05/02/magazine/02self-
measurement-t.html (besucht am 03. 09. 2016).
Zillien, Nicole, Gerrit Frhlich und Mareike Dtsch. Zahlenkrper: Digitale Selbst-
vermessung als Verdinglichung des Krpers. In: Prsenzen 2.0. Hrsg. von
Kornelia Hahn und Martin Stempfhuber. Medienkulturen im digitalen Zeitalter.
Wiesbaden: Springer VS, 2014, S. 7794.
Anonymitt als soziokulturelle Inszenierung

Ein historisches Modell informationeller Selbstbestimmung und


seine Rahmenbedingungen
Johannes Wiele und Bettina Weelmann

1. Fragestellung
Anonymizer zhlen aus technischer Sicht zu den probaten Mitteln informatio-
neller Selbstbestimmung im Internet.1 Sie genieen in stark Internet-afnen und
zugleich politisch bewusst agierenden Teilen der Gesellschaft eine hohe Akzeptanz,
stehen bei einem groen Teil der Bevlkerung aber unter dem permanenten Ver-
dacht, vor allem Verbrecher zu schtzen: Wer sich maskiert, will Bses verbergen.
Dass Menschen, die sich einer Maske bedienen, zu unsozialem Verhalten tendieren,
scheint als unbezweifelbar zu gelten und ist unter dem Begriff der Deindividua-
tion mit enthemmenden Folgen auch als wissenschaftlicher Ansatz weitgehend
akzeptiert.2 Die unterschiedlichen Auffassungen haben sich auerdem einen Platz
unter den permanenten Sujets der politischen Auseinandersetzung um das Fr und
Wider von staatlicher berwachung erobert.
Die gesamte Diskussion gilt als neu man geht davon aus, dass sie erst mit
der Verbreitung des Internets gesellschaftlich relevant geworden ist. Genau dies
stimmt allerdings nicht: Das historische Europa hatte in der Republik Venedig
(bis 1797) schon einmal eine funktionierende Anonymittskultur entwickelt.3 Das

* Dr. Johannes Wiele, Bettina Weelmann | Mnchen | johannes@wiele.com, bettina@wesselmann.


com
1 Karaboga u. a., Selbstdatenschutz, S. 25-28.
2 Vgl. etwa Kabay, Anonymity and Pseudonymity in Cyberspace; Suler, The online disinhibiti-
on effect; Brodnig, Der unsichtbare Mensch; eine kritische Abwgung vor dem Hintergrund des
zugrundeliegenden pessimistischen Menschenbilds ndet sich bei Matzner, Anonymitt.
3 Toscani, Die venezianische Gesellschaftsmaske, diese Doktorarbeit ist unseres Wissens die fun-
dierteste und vollstndigste Studie darber, wie und warum sich die Venezianer der Masken be-
dienten, und vielleicht die einzige zusammenhngende Darstellung einer voll ausgebildeten histo-
rischen Anonymittskultur. Alle Aussagen ber Bauta und Tabarro in diesem Beitrag sttzen sich
auf Toscani.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_8
110 Johannes Wiele und Bettina Weelmann

Tragen einer staatlich normierten und regulierten, komplett anonymisierenden


Ganzkrperverhllung mit Gesichtsmaske Bauta und Tabarro war nicht nur
im Privat- und Geschftsleben akzeptiert, sondern in einigen Kontexten sozialer
Interaktion sogar Picht, so galt dies etwa fr Besuche im Spielcasino. Auch fr
ofzielle politische Akte sind Vermummungsgebote4 belegt.
Toscani nennt hier beispielsweise den Fall der Begegnung zwischen Mitgliedern
des Stadtadels und auslndischen Gesandten:5 Da praktisch alle Venezianer der
Oberschicht Trger von Staatsgeheimnissen waren, sah die Regierung direkte Be-
gegnungen zwischen den Brgern und auslndischen Gsten kritisch und untersagte
sie grtenteils. Maskierte Venezianer aber konnten Empfnge fremdlndischer
Gste besuchen, denn sie erschienen dort ja nicht als identizierbare Personen und
boten dies als Versuch einer Ausdeutung der Schutzfunktion des Anonymizers
kaum Ansatzpunkte fr Versuche, sie etwa durch Erpressung zur Preisgabe von
Geheimnissen zu bewegen oder ihnen auf andere Weise zu nahe zu treten.
Ebenfalls bemerkenswert ist, dass Venezianer maskiert an informellen politi-
schen Zusammentreffen teilnahmen, auch im Dogenpalast und in Anwesenheit des
Dogen.6 Bei solchen Gelegenheiten und hnlichen im Erwerbs- und Privatleben
wurde mitunter sogar mit verstellter Stimme gesprochen,7 so dass nur Argumente
zhlten und nicht beispielsweise die nanzielle Stellung des einzelnen Sprechers.
Wie weit solche Praxis von der soziokulturellen und politischen Praxis moderner
westlicher Staaten entfernt ist, lsst sich mit einem Gedankenexperiment klren:
Wre es vorstellbar, dass Abgeordnete des deutschen Bundestages oder Mitglieder
des Bundesrates vollstndig maskiert an Sitzungen ihrer Gremien teilnehmen und
mitdiskutieren knnten, selbst wenn bei solchen Gelegenheiten noch nicht end-
gltige Entscheidungen zu fllen wren? Wie she eine Debatte aus, bei der die
sprechenden Personen nicht identizierbar wren?
Bauta- und Tabarro-Trger wurden im alten Venedig geschlechtsneutral mit
dem weiblichen Titel Signora Maschera angeredet, Maskentrger untereinander
begrten sich mit der Formel Maschera, ve saludo!. Maskierte waren somit
eine akzeptierte und in die gesellschaftliche Interaktion nahtlos integrierte Erschei-
nungsform des Brgers. Das verhllte Auftreten in der ffentlichkeit, bei dem
die Zugehrigkeit zur Brgerschaft eher betont als zurckgenommen wurde, er-
laubte dem Individuum ein variantenreiches Spiel mit den Kategorien ffentlich,
politisch und privat und dem Staat die Mglichkeit, in bestimmten Situatio-
nen eine entindividualisierte Prsenz seiner Angehrigen bei ofziellen Anlssen
einzufordern: Deindividuation mit positiven Vorzeichen.
4 Braun, Die Maske der Ehrbaren.
5 Toscani, Die venezianische Gesellschaftsmaske, S. 197-201.
6 Ebd., S. 165.
7 Ebd., S. 171.
Anonymitt als soziokulturelle Inszenierung 111

Bei aller positiver Grundstimmung zur Freiheit der anonymen Interaktion ist aber
auch frs alte Venedig eine lebhafte gesellschaftspolitische Diskussion der Gefahr
des kriminellen Verhaltens Maskierter ebenso belegt wie eine damit verbundene,
immer wieder verschrfte und dann wieder gelockerte Maskengesetzgebung.8
Ein echter, auf die Lizenz zur Maskierung rckfhrbarer Anstieg der Kriminali-
ttsrate wurde aber offenbar nie registriert, so dass die Praxis des Maskentragens
bis zur Eroberung Venedigs durch fremde Mchte anhielt. Konkret reichte die
Zeitspanne, in der die Venezianer Masken als Anonymisierungsmittel einsetzten,
Toscani zufolge von Anfngen im 16. Jahrhundert bis zum Verbot der Praxis nach
dem Verlust der politischen Selbststndigkeit im Jahre 1797.9
Dieser Beitrag mchte nach Antworten auf die Frage suchen, warum der Umgang
mit Anonymizern im alten Venedig offenbar so viel besser funktionierte und
warum er so viel strker akzeptiert wurde als in der heutigen Internetwelt. Knnte
man daraus etwas fr den Gebrauch von Anonymizern im modernen, globalen, auf
technische Netze gesttzten Kommunikationskosmos lernen? Zur Beantwortung
dieser Frage soll in diesem Beitrag ein kleiner Kulturvergleich angestellt werden.

2. Die heutige Situation und Diskussion


Werkzeuge wie das Tor-Netzwerk und die zugehrige Software erlauben es, dass
ein Internet-Anwender unerkannt Webseiten besuchen kann, und sie fhren dazu,
dass sich sein Verhalten im Internet nur mit groem Aufwand verfolgen lsst.10
Selbst technisch gut ausgestattete Institutionen wie Strafverfolgungsbehrden und
Geheimdienste knnen den Schutz bei gezielten Aktionen nicht immer brechen, da
sie zu diesem Zweck Zugang zu einer Reihe von Zwischenstationen einer potenziell
weltweit verlaufenden Internet-Kommunikation erlangen mssten, was allein schon
aus rechtlichen Grnden auerhalb des jeweils eigenen Territoriums und Rechts-
raums nur mhsam zu bewerkstelligen ist. Das Sicherheitsniveau der existierenden
8 Ebd.
9 Ebd., S. 226.
10 Zur Funktionsweise von Tor siehe Endres, Dienste und Software zum Verbergen der IP-Adresse,
S.120-122; Karaboga u. a., Selbstdatenschutz, S. 26. Dort wird die Technik folgendermaen erklrt:
In der Kopfzeile jedes Datenpakets, das im Internet zirkuliert, ist neben der Zieladresse auch die
Absenderadresse angegeben, in der die spezische IP-Adresse des Absenders enthalten ist. Die IP-
Adresse kann bei diesem Vorgang nicht weggelassen, sondern nur verschleiert werden. Das Prinzip
der Verschleierung folgt dem Prinzip einer sog. Proxy-Kaskade, d.h. das Datenpaket, dessen IP-
Adresse verschleiert werden soll, wird auf dem Weg zur Zieladresse verschlsselt und an mehrere
Zwischenstationen umgeleitet. Das Datenpaket bernimmt beim Erreichen jeder Zwischenstation
deren jeweilige IP-Adresse, die fortan als Absender erscheint, wodurch die Zugehrigkeit des Da-
tenpakets zum eigentlichen Absender verschleiert wird. Bei Erreichen der Zieladresse wird nun
lediglich die IP-Adresse der letzten Zwischenstation als Absender angezeigt, whrend alle zuvor
angesteuerten Zwischenstationen dazu dienen, die Verschleierung zu verbessern.
112 Johannes Wiele und Bettina Weelmann

Anonymisierungssysteme darf aus Sicht der Anwender fr die meisten alltglichen


Einsatzzwecke deshalb als hoch genug gelten etwa fr Recherchen nach Themen,
die mit medizinischen oder nanziellen Fragen verbunden sind. Zumindest eine
unerwnschte Prolbildung einzelner Anwender durch Konzerne, Versicherungen,
Banken und andere Institutionen, die man illegitimer Nachforschungsinteressen im
Internet verdchtigen mag, lsst sich damit weitgehend ausschlieen.
Besttigt wird die Leistungsfhigkeit der Verschleierungssysteme auch durch die
internen NSA-Papiere, die Edward Snowden ans Licht gebracht hat: Tor etwa stellt
sich aus Sicht der US-Agentur als so etwas wie der Feind schlechthin dar, denn das
System erschwert ihre Arbeit ungemein.11
Die Haltung der politischen Institutionen in westlichen Demokratien zu Anonymi-
sierungsmitteln wie dem Tor-Netzwerk ist hug ambivalent. Einerseits versuchen
staatliche Stellen gezielt, die Systeme zu unterwandern, weil sich ein Groteil
des Dark Web mittels Tor erfolgreich der Strafverfolgung entziehen kann: Dro-
genhndler, Cyberkriminelle und Terroristen verstecken sich erfolgreich hinter
dem Anonymisierungsmittel. Andererseits frdern dieselben Staaten den Selbst-
datenschutz ihrer Brger und beteiligen sich in einzelnen Fllen auch aktiv an der
Entwicklung von Anonymizern auch die Arbeit an Tor wurde beispielsweise von
staatlichen Einrichtungen wie dem Naval Research Laboratory in den USA und Au-
enministerien europischer Lnder gefrdert12 , um Dissidenten und Journalisten
in totalitren Staaten zu untersttzen. Dort nmlich bieten Anonymizer, sofern ihr
Gebrauch nicht technisch unterbunden wird, eine der wenigen Mglichkeiten zu
freier Kommunikation.
Die Zwiespltigkeit der ofziellen Haltung politischer Institutionen zu Anony-
mizern befeuert in demokratischen Rechtsstaaten zustzlich die bereits erwhnte,
heftige und von den verschiedenen Interessengruppen leidenschaftlich gefhrte
gesellschaftliche Diskussion des Rechts auf freien Einsatz der Anonymizer. Die
Auseinandersetzungen hneln den seit langem bekannten Kontroversen um das
Recht zur Verschlsselung privater Informationen. Intensive Nutzer des Internets
weisen darauf hin, dass es aus Sicht eines einzelnen Internetnutzers intransparent
ist, welche Regierungsinstitutionen sowohl totalitrer als auch demokratischer Staa-
ten und welche wirtschaftlichen oder gesellschaftlichen Organisationen ihnen mit
welchen Interessen im Web nachspren. Aus ihrer Sicht sind die spionierenden
Instanzen maskiert und anonym, weshalb individuelle Webnutzer allein schon
aus Grnden der Fairness und des Machtgleichgewichts verlangen drften, sich

11 Siehe hierzu auch Karaboga u. a., Selbstdatenschutz, S. 26; Greenwald, Die globale berwachung.
12 Vgl. die Sponsorenliste auf der ofziellen Tor-Website unter https://www.torproject.org/about/
sponsors.html.en (besucht am 1.8.2016).
Anonymitt als soziokulturelle Inszenierung 113

ebenfalls jederzeit unerkannt bewegen und Infomationen gegen unerwnschtes


Mitlesen sichern zu knnen.13
Dieser hoch medienkompetenten Gruppe steht eine heterogene Phalanx aus meist
konservativen Brgern und Politikern, internetfernen Individuen und sorglosen
Internetnutzern von Digital Natives bis hin zu Gelegenheits-Surfern gegenber,14
die entweder mit dem bekannten, von Daniel J. Solove15 so klug demontierten Satz
Ich habe doch nichts zu verbergen reagieren und ber die Auseinandersetzung
ber den Schutz der informationellen Selbstbestimmung durch Anonymizer nur die
Achseln zucken, oder die und dies ist interessanter mit dem gleichen Slogan die
Meinung ausdrcken, wer anonym auftreten wolle, msse allein deshalb wohl etwas
Bses zu verbergen haben und sei verdchtig, den oben genannten Verbrecherka-
tegorien anzugehren oder gar noch schlimmeren Aktivitten nachzugehen, etwa
als Pdophiler oder als Cyberterrorist. Dieser Verdacht, der politisch gelegentlich
zum Zweck der Untersttzung fr staatliche berwachungsmanahmen instrumen-
talisiert wird, mischt sich mit einer im demokratischen Westen traditionell hohen
Wertschtzung offenen, mutigen Eintretens fr den eigenen Standpunkt: Wer sich
maskiert, ist zu feige, zu seinen Ansichten zu stehen wohl unverstndlich fr
einen Venezianer, der auch zwecks freier Meinungsuerung freiwillig oder zuwei-
len sogar aufgrund von Vorschriften die Maske anlegte und so dafr sorgte, dass
nur sein Wort und nicht auch seine Stellung wirken konnten.
Der entweder mehr oder weniger unreektierten, reexhaften Ablehnung anonym
auftretender Brger durch andere Brger und den politischen Folgen dieser Position
tritt in der jngeren Diskussion auch ein philosophisch tiefschrfenderer Ansatz
an die Seite: Die Idee der Transparenzgesellschaft.16 Sie geht davon aus, dass eine
weitgehende Abschaffung der Privatsphre inklusive anonymer Kommunikation
und Verschlsselung die Gesellschaft ethisch auf ein hheres Niveau hebt, da sie
potenzielles antisoziales Verhalten frh der Kritik durch Andere aussetzt. Die Gefahr
des Machtmissbrauchs durch berwachende wollen die Denker dieser Richtung
dadurch ausschlieen, dass sie die Instrumente der berwachung jedem Einzelnen
jederzeit zugnglich machen.17

13 Zur Macht-Asymmetrie im Internet als Argument fr den Selbstdatenschutz mittels Anonymizer


siehe z.B. Matzner, Anonymitt.
14 Zu den unterschiedlichen Positionen vgl. etwa Karaboga u. a., Selbstdatenschutz, S. 8-16.
15 Solove, Ive got nothing to hide and Other Misunderstandings of Privacy.
16 Vertreten etwa durch Brin, The Transparent Society; oder Heller, Post-Privacy, beide sehen nur
wenige aus ihrer Sicht legitime Grnde, auf Privatsphre zu bestehen. Ein per E-Mail gefhrter
Gedankenaustausch mit Heller zu diesem Thema ndet sich im Licence-to-Mask-Blog.
17 Vgl. hierzu Han, Transparenzgesellschaft, der das Konzept scharf kritisiert. Er sieht in der konse-
quent verfolgten Forderung nach Transparenz die Gefahr einer Gleichschaltung der Gesellschaft, in
der alles Individuelle, Andere und Fremde durch die Diskreditierung aller unverstndlich erschei-
nenden Lebensuerungen unterdrckt wird. Aus seiner Sicht bedroht radikale Transparenz, wenn
114 Johannes Wiele und Bettina Weelmann

Die soziokulturelle Akzeptanz anonymisierender Mittel ist somit abgesehen


von der Praxis der freien und geheimen Wahlen in westlichen Demokratien unserer
Zeit eher gering und, wenn doch vorhanden, auf bestimmte Gesellschaftsgruppen
oder eng umrissene Einsatzzwecke wie die erwhnte Hilfestellung fr Brger to-
talitrer Regime beschrnkt. Dies ndet seinen Niederschlag in gesetzlichen und
politischen Regelungen wie etwa dem Vermummungsverbot bei Demonstrationen.
Anonymitt bedeutet je nach Perspektive Schutz oder Gefahr, wobei Kritiker der An-
onymitt im Web in jngster Zeit vermehrt auch auf Phnomene wie Hate Speech
und Cybermobbing sowie auf das Leiden der Opfer sprachlicher Gewalt im Internet
verweisen und diese Aspekte wiederum als Argument fr die Durchsetzung von
Zensur und berwachungsmanahmen im Web heranziehen.
Die grundstzliche Auseinandersetzung lsst sich gut an zwei Bchern zeigen, die
Journalistinnen aus diametral entgegengesetzten Perspektiven zum Thema geschrie-
ben haben: Das erste der beiden Werke ist der von Christiane Schulzki-Haddoutis
herausgegebene Sammelband Vom Ende der Anonymitt Die Globalisierung der
berwachung aus dem Jahr 2000.18 Die Autoren gehen darin das Thema primr
politisch motiviert an und fragen lange vor der Snowden-ra angesichts zuneh-
mender berwachung durch Geheimdienste, Strafverfolger und andere machtvolle
Institutionen nach den Auswirkungen von Video- und Internetberwachung auf
den Brger und damit auf Freiheit und Demokratie. Das zweite Buch ist Ingrid
Brodnigs Der unsichtbare Mensch Wie die Anonymitt im Internet unsere Ge-
sellschaft verndert.19 Dieses Buch ist 2014 erschienen, also mehr oder weniger
zeitgleich zu den Snowden-Verffentlichungen. Die Autorin setzt beim Phnomen
des Cybermobbings und der rden Umgangsformen in anonymen Webforen an. Sie
zeigt, wie die Mglichkeit zur anonymen Meinungsuerung im Internet auch dazu
fhren kann, dass sich unreektierte, extremistische uerungen leichter verbreiten
als ohne diesen Kanal oder dass Individuen ungestraft massiv angegriffen und her-
abgesetzt werden knnen. Fr die Autorin ist die Anonymitt im Internet ein neues
Phnomen, das mglicherweise die Gesellschaft negativ beeinusst. Am Ende
diskutiert sie aber auch die Vorteile der Chance zur anonymen Meinungsuerung
im Web und zeigt Mglichkeiten auf, die Anonymitt als Option beizubehalten und
negative Auswirkungen dennoch zu begrenzen.

sie sich zum gesellschaftlichen Paradigma aufschwingt, auch die Kunst, da sie sowohl jene privaten
Rckzeugsrume zu eliminieren sucht, in denen individuelle Kreativitt ohne eine frh einsetzende
und begleitende Kritik gedeiht, als auch Formen rtselhafter und geheimnisvoller Kommunikation
an sich zurckzudrngen versucht. Der Wunsch, alles durchschauen zu wollen, zerstrt berdies
das Prinzip Vertrauen siehe dazu das Interview mit Han, Wie steuern auf eine Katastrophe zu.
18 Schulzki-Haddouti, Vom Ende der Anonymitt.
19 Brodnig, Der unsichtbare Mensch.
Anonymitt als soziokulturelle Inszenierung 115

3. Zur Methodik
Die Recherchen fr diesen Beitrag haben sich ber einen langen Zeitraum hin-
gezogen und fanden ihre erste Gestalt in Form eines wissenschaftlichen Blogs:
Licence to Mask20 . Die Form des Blogs ist bewusst gewhlt, sie ermglicht ein
Vorantreiben der wissenschaftlichen Arbeit nach Art einer offenen Werkstatt, die
auch die Prsentation von Fragen und unfertigen Antworten erlaubt und die Leser
zum Mitdiskutieren einldt. Frhere Zwischenstnde haben bereits ihren Weg auf
wissenschaftliche Konferenzen gefunden21 oder waren Grundlage fr Lehrauftrge
an Hochschulen. Fr diesen Beitrag und den ihm zugrunde liegenden Vortrag22
haben die beiden Autoren Fragen und Thesen des Blogs aus verschiedenen Stadien
aufgegriffen und auf dem aktuellen Stand der fortgeschrittenen Auseinandersetzung
neu beantwortet.

4. Die Charakteristik des venezianischen Anonymizers


Im alten Venedig waren es die Brger ber Jahrhunderte hinweg gewohnt, Masken
zu tragen und zwar keineswegs nur whrend des Karnevals, sondern auch im All-
tagsleben. Dies hatte gute Grnde: Die lebhafte, internationale und multikulturelle
Handelsstadt hatte eine hohe Bevlkerungsdichte und war vergleichsweise klein.
Aufgrund der Insellage kostete es Zeit und Mhe, ins Umland zu gelangen. Um
in der Stadt selbst ein Ziel zu erreichen, mussten die Bewohner enge Gassen ent-
langgehen oder mit kleinen Booten in engen Kanlen fahren. Viele Brger kannten
einander, und so war es nahezu unmglich, zu einem geschftlichen Treffen, zu
Freunden, zu Liebespartnern oder etwa zum Casino zu gelangen, ohne gesehen zu
werden.
Um diese Probleme zu lsen, nutzte man einen speziellen Maskentyp, die Bauta.
Sie ist auf vielen historischen venezianischen Gemlden zu sehen. Es handelt sich
um eine weie Gesichtsmaske, die das gesamte Gesicht bedeckt, aber so geformt ist,
dass der Trger bequem sprechen, trinken und essen kann. Im Normalfall gehren
zur Bauta ein schwarzer Umhang, der Tabarro, und ein Dreispitz (Abb. 1).
Den Gebrauch von Bauta und Tabarro regulierte die venezianische Regierung. Die
Ganzkrperverkleidung war hnlich wie eine englische Schuluniform standardisiert
und diente auch bei ofziellen politischen Veranstaltungen als Anonymisierungs-
20 http://www.licence-to-mask.com
21 Wiele, The Mask of the Honorable Citizen.
22 Der Vortrag ist auf der Webseite der Konferenz abrufbar https://www.forum-privatheit.
de/forum-privatheit-de/aktuelles/veranstaltungen/veranstaltungen-des-forums/
vergangene-Veranstaltungen/Dokumentation_Zukunft-der-informationellen-selbstbestimmung.
php (besucht am 17.5.2016).
116 Johannes Wiele und Bettina Weelmann

Abbildung 1.: Bauta, Tabarro und Dreispitz: Der ofzielle Anonymizer im alten Vene-
dig, nachgestellt auf einem modernen Foto (Quelle: Fotolia, rodjulian)

und Egalisierungsmittel. Nur venezianischen Brgern war es erlaubt, die Maske zu


entsprechenden ofziellen Anlssen zu tragen.
Wer sich der Maske bediente, durfte nicht gleichzeitig Waffen mit sich fhren
eine Regel, fr deren Durchsetzung die Polizeikrfte zustndig waren. Wer immer
also einen Maskentrger traf, konnte mit einiger Wahrscheinlichkeit darauf zhlen,
Anonymitt als soziokulturelle Inszenierung 117

dass sein Gegenber ein unbewaffneter, legitimer Brger der Stadt Venedig war,
der zu nanziellen und anderen Verantwortungen stehen konnte.
Bereits die Beschreibung nennt ein paar der wichtigsten Grundlagen fr die hohe
Akzeptanz des venezianischen Anonymizers im Vergleich zu Internet-Werkzeugen
wie Tor. Bauta und Tabarro waren Kleidungsstcke, die ber der Alltagsklei-
dung getragen wurden. Niemand musste ihren praktischen Gebrauch erst erlernen.
Darber hinaus war die Maske normiert und problemlos erhltlich, ein langer und
bewusster Auswahlprozess des Verschleierungsmittels entel also. Die Grnde
schlielich, die Maske anzulegen, waren entweder unmittelbar einsichtig der
hin und wieder gefhrliche Erstkontakt mit fremden Hndlern23 und ein gewisser
Machtausgleich zur venezianischen Staatsinquisition gehrten vielleicht auch dazu
oder standen in Gesetzen und Regularien. Die Erwartungen der Mitbrger waren
den Maskentrgern ebenfalls bekannt. Die Entscheidung, das Haus mit Maske zu
verlassen, drfte Venezianern also genau so leicht gefallen sein wie die zu einem
unmaskierten Gang in den ffentlichen Raum.
Wer Verschlsselungssysteme oder das Tor-Netzwerk benutzen will, muss dem-
gegenber ein nicht geringes Ma an Fertigkeiten im Umgang mit wenig benut-
zerfreundlicher Software aufbringen, Geduld haben, ber einen eigenen Computer
verfgen und vielleicht das Wichtigste erst einmal eine hinreichend plastische
Vorstellung von den Bedrohungen im Internet entwickeln. Diese Voraussetzungen
bringen nur die Digital Natives und Digital Immigrants mit sich, und auch un-
ter ihnen nur eine besonders medienkompetente und interessierte Gruppe. Darber
hinaus muss sich ein Internet-Anwender fr das Verschleierungsmittel seiner Wahl
entscheiden, denn neben Tor und dem von Edward Snowden favorisierten Betriebs-
system TAILS stehen auch kommerzielle Angebote zur Verfgung. Wollte man
hnlich gute praktische Voraussetzungen fr Internet-Anonymizer in unserer Kultur
erreichen, wie sie seinerzeit Bauta und Tabarro boten, msste man die Gefahren
des Webs zum allgemeinen Bildungsthema machen und die Nutzerfreundlichkeit
drastisch erhhen.

5. Der Faktor Akzeptanz


Offenbar hielt sich der Missbrauch der Gesellschaftsmaske Bauta und Tabarro lang-
fristig in einem sozial ertrglichen Rahmen, sonst htten die Venezianer an ihr nicht
festgehalten, bis Venedig unter sterreichische Herrschaft geriet und sich Politik
und Kultur der Inselstadt grundlegend nderten. Aus heutiger Sicht stellt es ein
Rtsel dar, dass das Anonymisierungsmittel Bauta so gut funktionierte, denn eine
Gelegenheit zum anonymen Handeln bedeutet nach heutigem Verstndnis immer
23 Auf den Einsatz in Geschftsleben verweist Karbe, Venedig.
118 Johannes Wiele und Bettina Weelmann

auch eine Versuchung zu antisozialem, egoistischem Verhalten. Bereits M. E. Ka-


bay verweist in Anlehnung an die Deindividuationstheorie darauf, dass praktische
Anonymitt Unhichkeit, Unehrenhaftigkeit und aggressives Benehmen frdern
kann und der Selbstreexion entgegenwirkt.24 In der jngeren Diskussion wird in
diesem Zusammenhang immer wieder auf den harten Umgangston in anonymen
Internet-Foren verwiesen.
Einer der Grnde fr die geringe, durchaus tolerierbare Missbrauchsrate der
Bauta liegt wahrscheinlich in der Tatsache begrndet, dass die Venezianer als
Maskentrger den Regeln und Erwartungen der Gesellschaft eben nicht entgingen.
Auerdem konnten, was allerdings eine extreme Manahme gewesen sein drfte,
Bauta-Trger im Fall der Flle recht einfach demaskiert werden. Hinzu kommt aber
ein weiterer Aspekt, der erklren kann, warum Maskentrger in Venedig ihre guten
Manieren behielten: Mit dem Anziehen der Bauta verlieen sie ihre individuelle
Existenzform und spielten stattdessen die Rolle eines idealtypischen Stadtadeligen.
Die Rolle der Signora Maschera war nicht nur generischer Natur und vordeniert,
sondern verlangte auch, sich im Verhalten dem idealisierten Modell eines noblen
Patriziers anzunhern. Hier lassen sich Parallelen zu alten Vorstellungen vom
perfekten Gentleman mit seinem perfekten Stil und ausgefeilten Manieren ziehen.
Bei Karbe und Toscani25 nden sich Hinweise darauf, dass sich venezianische
Bauta-Trger bewusst hich und ritterlich gaben und dass sie Wert darauf legten,
sich in der Maske elegant zu bewegen und auch in ihrer Kommunikation mit den
Mitbrgern so galant wie mglich zu wirken.
Wechselseitige Akzeptanz eines Verhaltens wirkt durch den Aufbau eines sozia-
len Kontextes sanft normierend, weil sich im Miteinander auch Grenzen aushandeln
lassen, ohne dass sich der Einzelne dadurch ungerechtfertigt eingeschrnkt fhlen
muss. Eine Besonderheit der venezianischen Anonymittskultur ist somit offen-
bar die positive Erwartungshaltung an den Maskentrger. Wer sich zum Tragen
der Maske entschied und sich damit auer Haus begab, stellte sich nie auerhalb
der Gesellschaft, sondern blieb voll integriertes Mitglied, und sein Verhalten war
rechtlich abgesichert.26 Die Bereitschaft, Anonymitt zu akzeptieren, ging bei den
Venezianern so weit, dass sie bis zum kriegsbedingten Ende ihrer Anonymitts-
kultur die physische Qualitt der Maske immer weiter aufweichten erst wurden
die Mund- und Augenausschnitte der Gesichtsmaske immer grer, und am Ende
reichte es, wie Toscani belegt,27 wenn sich ein Brger eine Spielkarte an den Hut
steckte, damit man ihn als Signora Maschera behandelte und ihm seine Handlungen

24 Kabay, Anonymity and Pseudonymity in Cyberspace.


25 Karbe, Venedig; Toscani, Die venezianische Gesellschaftsmaske.
26 Vgl. dazu auch Toscani, Die venezianische Gesellschaftsmaske, S. 181.
27 Ebd., S. 223f.
Anonymitt als soziokulturelle Inszenierung 119

und uerungen blieben sie im gesellschaftlichen Erwartungsrahmen nicht


persnlich zurechnete.
Von all dem ist unsere Kultur weit entfernt. Nutzer von Anonymizern stehen,
wie erwhnt, weithin unter globalem Kriminalittsverdacht und mssen sich fr
ihr Tun rechtfertigen, zumindest auerhalb der bereits mehrfach erwhnten me-
dienkompetenten Kreise der Web-Eliten. Gleichzeitig zeigt das enthemmte Wten
mancher Teilnehmer in anonymen Internet-Foren, dass es in dieser Sphre keine
wirksame Verhaltenskontrolle gibt und dass das Web sehr wohl dazu instrumentali-
siert wird, gesellschaftlich sonst nicht akzeptierte verbale Gewalt auszuben. Da
Cybermobbing zusammen mit Cyberterrorismus und Cyberkriminalitt im
Gegensatz zur Alltagspraxis des Internetgebrauchs seinen Weg in die Tagespresse
ndet, bestimmt es fr internetferne Gesellschaftskreise berdurchschnittlich das
Bild, das sie sich vom Internet machen, und damit die Einstellung dieser Gesell-
schaftsgruppen zum Faktor Anonymitt im Web.
Fr den Missbrauch anonymer Kommunikation im Web ist mitverantwortlich,
dass kein allgemein akzeptiertes Verhaltensmodell fr einen anonymen Webnut-
zer existiert, welches auch nur annhernd die Durchsetzungskraft der Signora-
Maschera-Rolle mit ihrer praktisch-idealisierenden Funktion htte. Weder die alte
Idee der Netiquette28 noch das gelegentliche Liebugeln der Pop- und spezi-
ell der Comic-Kultur mit dem Modell des anonymen Helden man denke an
Zorro, Spiderman, The Lone Ranger und andere bieten hier hinreichend starke
Ansatzpunkte. Es ist interessant, dass jene Comic-Figur, die optisch einem Bauta-
und Tabarro-Trger am nchsten kommt und zugleich den grten Einuss auf die
moderne Internet-Welt hat, nmlich V aus V wie Vendetta, als ethisch zutiefst
ambivalente Gestalt gezeichnet ist.29
Auerdem knnte es von Bedeutung sein, dass im Internet keine so efziente
Sanktionierungsmglichkeit fr Fehlverhalten im Status der Anonymitt existiert
wie in der physischen Welt des alten Venedigs. Dort konnten die Umstehenden
einem Mitbrger, der Bauta und Tabarro missbrauchte, im Extremfall selbst die Mas-
ke herunterreien mit dem paradoxen Effekt, dass dieser durch die Demaskierung
im bertragenen Sinne sein Gesicht in der Brgerschaft verlor. Diese Mglich-
keit machte die begrenzten Mglichkeiten, etwa das Verbot des Waffentragens in
Verbindung mit Bauta und Tabarro durchzusetzen, offenbar wett.
Es bleibt daher die Frage, wie die Venezianer der Signora-Maschera-Rolle ih-
re spezielle Stabilitt verleihen konnten. Die Antwort liegt in einem vielleicht
berraschenden Element: Dem des Spiels.

28 Hambridge, Netiquette Guidelines.


29 Zum Phnomen der anonymen Helden siehe ausfhrlich http://www.licence-to-mask.com.
120 Johannes Wiele und Bettina Weelmann

6. Anonymitt als Spiel


Warum tragen Avatare Masken?, lautete 2008 der erste Eintrag des Licence-
to-Mask-Blogs, der fr die Autoren den Start in die Auseinandersetzung mit
dem Thema dieses Beitrags bedeutete.30 Dieser erste, kurze, von einer gewissen
Verwirrung zeugende Text mit einem Bildschirmfoto aus der damals noch hoch
geschtzten virtuellen Welt Second Life entstand angesichts der Entdeckung,
dass sich ohnehin als eine Art Maskierung fungierende Avatare in der computerge-
nerierten knstlichen Welt wiederum virtuelle Masken fr erhebliche Betrge an
Lindendollar kauften, und dass die Anwender diese Masken ihren mehr oder we-
niger menschenhnlichen, computergenerierten Stellvertretern zeitweise zustzlich
aufsetzten. Auch ein komplettes virtuelles Bauta- und Tabarro-Outt samt Dreispitz
war erhltlich, die ersten Bilder fr den Blog entstanden deshalb mithilfe dieses
computergenerierten Gewands in den Rumen der damals mit groem Aufwand
erstellten digitalen 3D-Reprsentanz der Bayerischen Staatsbibliothek.
Schon wenig spter el die Antwort auf die Eingangsfrage leicht: Es macht
einfach Spa, sich zu maskieren und mit der eigenen Identitt zu spielen. Da in
Second Life die Avatare ber die Zeit der Aufenthalte im virtuellen Kosmos eine
eigene Identitt und Historie aufbauen, entwickelt sich auch der Reiz, im gleichen
Umfeld und unter den gleichen Avatar-Freunden einmal mit einer modizierten
Identitt aufzutreten. Dasselbe Phnomen ndet man deshalb auch in Internet-
Rollenspielen, die langlebiger sind als Second Life, und in Internet-Foren, die
anonyme oder pseudonyme Anmeldung erlauben.
An dieser Stelle ist der Begriff der Informationellen Selbstgestaltung hilfreich,
wie ihn etwa Michael Nagenborg verwendet, 31 und zwar im Zusammenhang mit der
Erweiterung des Geistes durch Technik.32 Er pldiert dafr, diese Mglichkeiten
ernst zu nehmen und fragt vor diesem Hintergrund danach, ob man den Anwendern
zu viel Freiheit nimmt, wenn man ihnen etwa durch das Design von Social-Media-
Tools von vornherein einen restriktiven Umgang mit persnlichen Informationen
nahelegt.33
Auf dieser Grundlage lsst sich das Prinzip der informationellen Selbstbestim-
mung auch betont aktiv formulieren und bietet dann sogar Anlass zu einer recht
optimistischen Perspektive auf die Zukunft des Datenschutzes:
30 https://licencetomaskde.wordpress.com/2012/01/02/warum-tragen-avatare-masken/ (besucht am
1.8.2016)
31 Vgl. den Beitrag von Michael Nagenborg, Informationelle Selbstbestimmung und die Bestim-
mung des Selbst in diesem Band (Seite 65).
32 Dies ist auch ein wichtiger Gegenstand der Forschungen von Sherry Turkle, Die Wunschmaschine,
Leben im Netz.
33 Nagenborg verneint dies am Ende, weil die entsprechende Design-Entscheidung ja das Ziel hat, die
Freiheit der Anwender zu sichern. Ein spannendes Thema!
Anonymitt als soziokulturelle Inszenierung 121

Solange Menschen noch an ihrem Image feilen, mit Masken spielen, sich ndern
oder dann und wann neu verwirklichen wollen, so lange werden sie auch versuchen,
die Informationen zu kontrollieren, die sie an ihre Umgebung senden. Dabei sollten
sie fairerweise Untersttzung genieen, denn sonst nden sie sich eingesperrt in
einem Kokon an zugewiesenen Eigenschaften, den sie nicht beeinussen knnen.
Mit der aktiven Seite der informationellen Selbstbestimmung setzen sich sowohl
Datenschutzaktivisten als auch ihre Gegner kurioserweise eher selten auseinander.34
Dies wirkt umso seltsamer, als das entsprechende Modell in der modernen Kunst
und Pop-Kunst seit langer Zeit effektvoll Furore macht: David Bowie und Madonna
etwa haben sich teils als Kunstguren, teils als knstlerisches Ich immer wieder
neu erfunden und dabei mit den unterschiedlichsten Identittsaspekten kreativ
gespielt. Blogger betrachten ihr Tun zuweilen unter hnlichen Aspekten.35
Auch in den sozialen Netzwerken modellieren die Nutzer ihr Prol stets nach
Bedarf neu36 so auf den Business-Netzwerken LinkedIn und Xing, um durch
geschicktes Selbst-Marketing den nchsten Job oder neue Geschftsgelegenheiten
zu ergattern, oder auf Facebook, um in der Familie oder im Freundeskreis ein gutes
Bild abzugeben oder einfach dazuzugehren. Aus ethischer Sicht stellt sich dabei
die Frage, wie dieses Vorgehen zu werten ist. Positiv liee sich die Optimierung
des eigenen Bildes in der ffentlichkeit als Facette der Selbstvervollkommung
sehen, wie sie in unterschiedlichen ethischen Anstzen als Zielvorgabe enthalten
ist, negativ als eine Form der Lge und damit als Betrug an den Mitmenschen.

34 Dabei hat im Grunde bereits das Bundesverfassungsgericht im Volkszhlungsurteil von 1983


(BVerfGE 65, 1) das Konzept der informationellen Selbstbestimmung so formuliert, dass der Ver-
lust des Einusses auf das eigene Bild in der ffentlichkeit als Datenschutzproblem erscheint. So
heit es unter Rn. 111: Aufgrund dieser gewandelten technologischen Bedingungen sei die Er-
stellung eines umfassenden und detaillierten Bildes der jeweiligen Person ein Persnlichkeitspro-
l mglich, und zwar auch im Intimbereich; der Brger werde zum glsernen Menschen. Die
fehlende Anonymitt bedeute nicht nur einen verfassungsrechtlichen Mangel der zu erwartenden
Zhlpraxis und Auswertungspraxis, sondern stelle einen Mangel des Volkszhlungsgesetzes 1983
selbst dar, und unter Rn. 170: Sie [die Prole] knnen darber hinaus - vor allem beim Aufbau
integrierter Informationssysteme mit anderen Datensammlungen zu einem teilweise oder weitge-
hend vollstndigen Persnlichkeitsbild zusammengefgt werden, ohne da der Betroffene dessen
Richtigkeit und Verwendung zureichend kontrollieren kann. Damit haben sich in einer bisher unbe-
kannten Weise die Mglichkeiten einer Einsichtnahme und Einunahme erweitert, welche auf das
Verhalten des Einzelnen schon durch den psychischen Druck ffentlicher Anteilnahme einzuwir-
ken vermgen. Direkt angesprochen wird das Thema der informationellen Selbstgestaltung von
Koskela, Webcams, TV Shows and Mobile phones.
35 Sebastian Flotho etwa versteht seinen Blog Seppolog als eine Art Maske: http://seppolog.
com/2016/02/11/maskenball/, auch abrufbar unter http://licencetomaskde.wordpress.com/2016/
02/19/maskenball-reblog-vom-seppolog/(besuchtam 1.8.2016)
36 Suler, The online disinhibition effect, S. 324.
122 Johannes Wiele und Bettina Weelmann

Dabei ist das Phnomen der gezielt perfektionierten Selbstdarstellung nicht etwa
neu oder allein der Internetkultur zuzurechnen mittels Kleidung, Frisur, Sprache,
gezielter Wahl von Freunden und Partnern, geschickt formulierten traditionellen
Lebenslufen und gezielt choreograerten Auftritten in der ffentlichkeit haben
Menschen frherer Generationen ganz hnlich daran gearbeitet, gegenber be-
stimmten Zielgruppen oder in der ffentlichkeit positiv zu erscheinen. Die Grenze
zwischen oberchlicher Image-Pege und echter, ehrlicher Arbeit am Selbst war
bei Bestrebungen dieser Art immer ieend, und beide Bestrebungen beeinussten
sich berdies grundstzlich gegenseitig.
Einen guten Ansatz, sich der Problematik zu nhern, bietet Hans-Georg Gada-
mers Aufsatz Die Kultur und das Wort.37 Fr Gadamer ist es eine Wurzel der
Kultur und ein besonderes Merkmal des Menschen, dass er seine Anschauung der
Welt zur Sprache bringen, in Worte fassen kann. Dieser Akt impliziert, dass der
einzelne Mensch seine Anschauung der Dinge auch als seine individuelle preisgibt
und damit zur Diskussion stellt. Zwischen den unterschiedlichen Anschauungen
und den daraus folgenden Handlungsanweisungen dann einen allgemeinvertrgli-
chen Ausgleich hnlich den Forderungen des Kategorischen Imperativs nach Kant
auszuhandeln, ist das Feld der kulturellen Interaktion und der Ethik.
Sich selbst darzustellen, wre nach Gadamer dann ein Wort ber sich selbst,
das die Selbst-Interpretation zugleich fremder Kritik aussetzt: So sehe ich mich,
was sagt Ihr dazu?
Wer heute als medienkompetentes Individuum sein Image via Blog, eigener Web-
site, Facebook, LinkedIn oder Xing gestaltet, kann nicht davon ausgehen, dass diese
Selbstdarstellung unkritisiert und unkommentiert bliebt. Kommunikation im Inter-
net bedeutet immer Dialog manchmal eben in erschreckend direkter, ungebremster
und heftiger Form. Vor diesem Hintergrund lsst sich die heute geluge Praxis der
informationellen Selbstgestaltung aus ethischen Gesichtspunkten als ein ethisch
positiver, dialogischer Prozess verstehen, der zur ungehinderten Selbstentfaltung
des Einzelnen beitrgt.
Die weiter oben beschriebenen Akte informationeller Selbstgestaltung sind al-
lerdings dadurch charakterisiert, dass Menschen eine zweite individuelle Identi-
tt ernden, um sich neu darzustellen und auszudrcken so Bowie als Ziggy
Stardust. Hinter der venezianischen Bauta- und Tabarro-Maske aber steckt eine
generische Rolle, nmlich die des idealen venezianischen Staatsbgers. Man knnte
sich fragen, ob die bernahme einer derart vorreglementierten und von Erwar-
tungshaltungen begrenzten Rolle tatschlich als ein Akt aktiver Selbstgestaltung
verstanden werden kann oder eher als einer der Einordnung gelten muss.

37 Es handelt sich um einen Vortrag, den der Philosoph zur Erffnung der Salzbuger Hochschulwo-
chen 1980 gehalten hat. Vgl. Gadamer, Die Kultur und das Wort.
Anonymitt als soziokulturelle Inszenierung 123

Bereits Toscani deutet an,38 dass in diesem Zusammenhang des Aspekt des spie-
lerischen Umgangs mit der vorgegebenen Rolle bedeutsam sein knnte, weil das
Spiel Freirume in der Ausgestaltung schafft. Hier lsst sich Johan Huizingas Ho-
mo Ludens39 gut auf den venezianischen Kontext beziehen: Fr Huizinga haben
viele kulturelle Errungenschaften Wurzeln in spielerischer Interaktion, die diesen
Phnomenen dann eine groe Stabilitt verleiht. Als Beispiel fhrt er Gerichtsver-
handlungen mit den generischen Rollen des Richters, des Anklgers und des Vertei-
digers an, die ebenfalls zum Zwecke der Koniktentschrfung und -formalisierung
jeweils einen Verhaltensrahmen vorgeben, die Freiheit der Handelnden ansonsten
aber nicht einschrnken. Das Spiel-Element des juristischen Verhandelns von Kon-
ikten tritt dabei in Form von Verfahrensweisen und uerlichen Elementen wie
den Roben und Percken der Rollentrger je nach Kulturkreis mehr oder weniger
deutlich hervor.
Signora Maschera mit ihrer gesetzlich zugewiesenen Funktion in Gesellschaft
und Politik hat etwas von derselben Art und Rolle. Die Venezianer waren allerdings
auch gut darin gebt, generische Verhaltensrahmen mit individueller Kommunikati-
on und Aktion immer wieder neu zu variieren und mit Leben zu fllen, denn sie
kannten dies aus einer jahrhundertelangen Tradition von Commedia dellArte und
Karneval. Die Rolle der Signora Maschera war also nicht verordnet, sondern aus
soziokultureller Praxis hervorgegangen und fr moderne Formen der Politik adap-
tiert. Konkrete Spiel-Elemente wie das besonders elegante, galante Benehmen der
Spieler blieben vermutlich nicht zuletzt deshalb erhalten, weil es Spa machte,
sich darin zu erproben, und weil es die Mitbrger honorierten, wenn jemand die
Rolle gut ausfllte. So lieferte der Spielkontext ein positiv wirksames Anreizsystem
fr ein gesellschaftlich akzeptables Verhalten in der Maske, das vielleicht sogar
wirksamer war als die latente Drohung, bei Missbrauch demaskiert und sanktioniert
zu werden.
Bauta und Tabarro zu nutzen, bedeutete fr den einzelnen, sich einem alternativen
Erwartungshorizont stellen zu knnen und sich in einen alternativen Konventions-
zusammenhang einzuordnen. Die bernahme der generischen Rolle entband den
Maskentrger davon, Rollenerwartungen zu entsprechen, die in der venezianischen
Gesellschaft an ihn als Individuum gerichtet waren.40 Dafr akzeptierte er einen
anderen, ebenfalls bindenden Kanon an Werten und Verhaltensmastben, der seine
eigenen Freiheiten mit sich brachte.
Wieder fehlt der modernen Internetwelt ein quivalent. Viele politisch bewusste
Internet-Anwender bertragen von ihnen akzeptierten Regeln der politischen und
gesellschaftlichen Koniktbewltigung auf die Sphre Internet und verhalten
38 Toscani, Die venezianische Gesellschaftsmaske, S. 171 und 181.
39 Huizinga, Homo Ludens.
40 Vgl. dazu Toscani, Die venezianische Gesellschaftsmaske, S. 182.
124 Johannes Wiele und Bettina Weelmann

sich deshalb auch im anonymisierten Zustand kooperativ und hich, aber sie
tun dies aus freier Entscheidung. Der Akzeptanzrahmen und die normative Kraft
der Erwartungshaltung beschrnkt sich hier auf einen relativ kleinen Kreis von
Peers, die sich im weitesten Sinne am Konzept der Netiquette41 orientieren.
Ein wirksamer, verhaltensregulierender Rahmen aus Sanktionsdrohungen, einem
Anreizsystem oder beidem fehlt in der Netzwelt weitgehend.
Gewisse Zge des venezianischen Ansatzes nden sich bei Anonymous: Hier
bietet die Guy-Fawkes-Maske den ueren Rollenrahmen, und die sozialen Hand-
lungsziele sind relativ homogen. In der Mitte der Gesellschaft steht Anony-
mous allerdings noch weniger als die Gruppe der politisch bewussten Internet-
Intensivnutzer, und die mittels Maske hergestellte Referenz zum Comic V wie
Vendetta stattet die Gruppe mit einer ethisch zutiefst ambivalenten Bezugsgur
aus.
Ob sich frs Internet das neue Entstehen einer positv normativ wirkenden Rolle
des anonymen Internet-Nutzers neu frdern liee, ist fraglich. Ntig dazu wren
aber auf jeden Fall eine sprbare politische und gesellschaftliche Akzeptanz dieser
Rolle, wozu eine eindeutige gesetzliche Rckenstrkung fr das Recht auf An-
onymitt die beste Basis wre. Diesen Part knnte die Gesellschaft im Rahmen
demokratischer Machtausbung durchsetzen. Auch dann aber fehlte noch immer
das Element spielerischer bung. Hier ein quivalent fr jene Faktoren zu nden,
die die Signora-Maschera-Rolle fest in den Alltag der venezianischen Kultur inte-
grierten, erscheint schwierig bis unmglich. Wie es funktionieren knnte, zeigen
erfolgreiche Beispiele streng redigierter Foren,42 die der stetigen Gefahr ungezgel-
ter Pbelei trotzen und nach wie vor Anonymitt gewhren, in der die Moderatoren
beleidigende Beitrge aber sofort entfernen sie bewerten sie dabei unter formalen
Gesichtspunkten, nicht etwa unter inhaltlichen. In solchen kosystemen lsst sich
eine gepegte anonyme Diskussion ben und erproben, der Lohn fr eine verhal-
tenskonforme uerung und damit ein wirksames Anreizsystem ist die Chance auf
echten Zu- oder Widerspruch und Gedankenaustausch.

7. Integration der leisen Stimmen


In diesem Zusammenhang ist ein weiterer Aspekt zu erwhnen, der unter ethischen
und gesellschaftspolitischen Gesichtspunkten stark fr venezianische Zonen im
Internet und damit fr den Gebrauch von Anonymizern spricht. Zwei inter-
essanten Beitrgen in der Zeitschrift Psychologie Heute zufolge43 gelingt es

41 Hambridge, Netiquette Guidelines; Levy, Hackers.


42 Siehe hierzu Beispiele in Brodnig, Der unsichtbare Mensch.
43 Schfer, Der exible Mensch, S. 20; Wolf, So bin ich, S. 26.
Anonymitt als soziokulturelle Inszenierung 125

introvertierten, eher schchternen Menschen recht leicht, die Rolle einer extrover-
tierten, forschen Person zu spielen und entsprechend zu agieren, wenn man sie erst
einmal auf die Idee gebracht hat und ein wenig bei diesem Vorhaben untersttzt.
Das Rollenspiel bietet eine faszinierende Mglichkeit, die Grenzen der eigenen
Persnlichkeit einfach zu sprengen. Die Beitrge berichten von Personen, denen
dies im Berufsleben fortwhrend gut gelingt, whrend sie im Privatleben eher ihrem
Naturell treu bleiben. Extrovertierte, dominante Personen, die zum Beispiel zur
Frderung der Leistung eines Teams auch einmal die Rolle des zurckhaltenden
Zuhrers und Sprechers schlpfen sollen oder wollen, bekommen dies erstaunli-
cherweise weniger gut hin.
Kannten die Venezianer diese Phnomene schon? Bauta und Tabarro boten Perso-
nen, die Streit und Auseinandersetzungen eher abgeneigt waren oder die aufgrund
ihrer sozialen Stellung oder nanziellen Situation im richtigen Leben entweder
zu verstummen oder in Konikten zu unterliegen drohten, eine echte Chance, ihre
Sache auf eine fr sie angenehme Weise zu vertreten. Die generische und damit
leicht zu adaptierende Rolle, die den Spieler berdies automatisch in einen Kon-
text von besonderer Hichkeit gekennzeichneter Kommunikation versetzte und
ihn von der Sorge entlastete, in Auseinandersetzungen persnlich zurechenbar zu
versagen, muss die positiven Nebenwirkungen der Maskerade zustzlich verstrkt
haben. Ob die Venezianer mit ihren Maskengesetzen und -konventionen, die ein
anonymisiertes Auftreten auf der gesellschaftlichen und politischen Bhne gezielt
frderten, auch diesen Effekt bewusst hervorrufen oder zumindest untersttzen woll-
ten, ist wohl nicht mehr herauszunden. Allerdings konnte sich die enthemmende
Nebenwirkung der Chance zum anonymen Auftritt im Kontext der venezianischen
Anonymittskultur fr durchsetzungsschwache Personen integrativ auswirken, wh-
rend sie in unserer kulturellen Umgebung eher entgegengesetzte Auswirkungen
zeigt.

8. Fazit
Anonymizer als Mittel des Selbstdatenschutzes konnten im alten Venedig deshalb so
groe Bedeutung erlangen, weil sie in ein soziokulturelles Umfeld eingebunden wa-
ren, welches anonym auftretenden Menschen eine positive oder zumindest neutrale
Erwartungshaltung entgegenbrachte und Maskentrger ins gesellschaftliche Leben
integrierte. Diese Voraussetzung war durch gleich mehrere Faktoren gewhrleistet:

Maskiertes Erscheinen in der ffentlichkeit, in der Sphre der Politik und in be-
stimmten privaten Kontexten war weithin akzeptiert und wurde allen Mitgliedern
der Brgerschaft zugestanden,
126 Johannes Wiele und Bettina Weelmann

Gesetze regelten den Gebrauch der Maske als Anonymisierungsmittel,


das Anonymisierungsmittel war normiert und ohne besondere Kenntnisse ein-
setzbar,
fr den Umgang und die Kommunikation mit Maskierten existierten allgemein
bekannte Konventionen,
die Maskierung hatte den Charakter eines Gesellschaftsspiels, das starke positive
Anreize zum Einhalten der Spielregeln bot,
zu den Spielregeln gehrten galantes Auftreten, Hichkeit und Gewaltlosigkeit,
die mit der Maske verbundene generische Rolle war die des idealen veneziani-
schen Stadtadeligen und somit die eines perfekten Mitglieds der Gesellschaft,
das Spiel beruhte auf jahrhundertelanger kultureller bung und
die Sanktionierung von Fehlverhalten unter der Maske war relativ leicht mglich.

Der Groteil dieser Vorbedingungen lsst sich im groen Mastab nicht innerhalb
eines berschaubaren Zeitraums willentlich herstellen. In Venedig waren Bauta
und Tabarro in einem historisch gewachsenen, kulturellen Rahmen hoher Kom-
plexitt und Strke verankert. Erfolgreich kann hchstens der Versuch sein, einen
entsprechenden Rahmen in Form von Spielregeln fr geschlossene Plattformen
oder Foren im Internet zu errichten. Im gesamtgesellschaftlichen Kontext einer nur
auf den ersten Blick kulturell leidlich homogenen, im Internet in Wirklichkeit aber
von starken interkulturellen Differenzen gekennzeichneten Umgebung ist es bes-
tenfalls denkbar, einzelne der aufgelisteten Aspekte lokal gezielt zu frdern etwa
in Form einer Gesetzgebung, die ein Recht auf anonymes Auftreten in bestimm-
ten Handlungszusammenhngen ausdrcklich formuliert, durch Bereitstellung von
Internet-Anonymizern, die ohne spezielle Vorkenntnisse nutzbar sind, und durch
strkere Bercksichtigung von Strategien des Selbstdatenschutzes in der Bildung.
Man knnte nun fragen, warum dies denn berhaupt geschehen sollte. Wer
nichts zu verbergen hat, vermag doch in modernen westlichen Gesellschaften
in einem weiten Rahmen jederzeit seine Meinung zu uern und seine Interessen
zu verfolgen, ohne Sanktionen befrchten zu mssen. Hieraus liee sich ableiten,
man knne angesichts des erreichten Grades an Handlungs- und Meinungsfreiheit
auf die Hilfe von Anonymizern durchaus verzichten. Zur Forderung nach der
Transparenzgesellschaft ist es dann nur noch ein weiterer Schritt, der die Option
kurzerhand zum Paradigma erhebt.
Diese Argumentationskette fut allerdings auf einem pessimistischen Menschen-
bild, das jede verborgene geistige und kommunikative Aktivitt eines Individuums
Anonymitt als soziokulturelle Inszenierung 127

verdchtigt, mit hoher Wahrscheinlichkeit gesellschaftsschdliche oder gar krimi-


nelle Tendenzen zu verfolgen.44 In Venedig war diese Sorge zwar ebenfalls prsent,
wie die immer wiederkehrende Diskussion um die Maskengesetze belegt, aber
offenbar weniger wirkungsmchtig als in der modernen westlichen Welt: Hatte
man ein dort ein positiveres Bild vom Menschen an sich? Einen anderen Erfah-
rungshorizont? Bauta und Tabarro waren so stark normiert, dass die Trger ihren
individuellen sozialen Status nicht mehr ausdrcken konnten nahm man das
Problem der Macht-Asymmetrien vielleicht sogar ernster als heute?
Diese Fragen markieren Forschunsgdesiderate. Ob die Quellenlage belastbare
Antworten erlaubt, ist unklar. Interessant bleibt aber, dass unsere moderne Kultur
mit ihrem hohen Verwirklichungsgrad an Meinungsfreiheit offenbar den Missbrauch
von Anonymitt zu antisozialem Verhalten herausfordert, whrend im alten Venedig
die Maskentrger zumindest tendenziell dazu neigten, ein musterhaftes, koopera-
tives, motivierendes Kommunikationsverhalten an den Tag zu legen. Venezianer
vertrauten Signora Maschera, wenn sie ihr begegneten.
Unsere Gesellschaft dagegen hat Anonymitt gewhrenden Zonen im Internet
nicht zufllig den Namen Dark Web gegeben (vgl. Abb. 2). Sie neigt dazu, dem
Wunsch nach Anonymitt zu misstrauen und die legitime Nutzung von Anonymi-
zern als Ausnahmefall zu sehen. Damit begibt sie sich vieler Mglichkeiten, die
einer offenen und freien Gesellschaft gut zu Gesicht stehen wrden. Anonymizer
als Mittel der informationellen Selbstbestimmung und -gestaltung erffnen jenseits
der Schutzfunktion fr die Privatsphre Chancen auf Spielarten der Kommunikati-
on, die es ohne diese Werkzeuge nicht gibt. Die Befreiung des Individuums von
Zwngen und Grenzen, die seine individuellen Schwchen und vielleicht auch die
unmittelbare gesellschaftliche Umgebung wie die der eigenen Familie und des
engeren gesellschaftlichen Lebenskreises mit seinen Erscheinungsformen echter
und struktureller Gewalt mit sich bringen, hat einen eigenen hohen Wert. In unserer
Welt bieten nur geschlossene Foren entsprechende Freirume, in denen Pbeleien
und Hate Speech durch entsprechende Moderation im Zaum gehalten werden.
Breite Akzeptanz nden Anonymizer heute wohl eher, wenn sie im Internet
der Dinge, wie etwa beim Einsatz in miteinander kommunizierenden Fahrzeugen,
unbemerkt unter der Motorhaube ihren Dienst fr den Anwender verrichten.
In diesem Kontext verhindern sie beispielsweise, dass Fahrzeuge, die zwecks
Verhinderung von Unfllen Daten ber die Verkehrssituation austauschen, einander
wiedererkennen und auf dieser Basis Prole ber ihre Fahrer bilden knnen.
Vielleicht ist es kein Zufall, dass die in diesem Beitrag untersuchte positive
Anonymittskultur auf dem Boden einer kleinen, von Wasser umgrenzten Inselrepu-
blik entstanden ist. Geschlossene, berschaubare Gesellschaften, die sich von einer

44 Vgl. hierzu auch Matzner, Anonymitt.


128 Johannes Wiele und Bettina Weelmann

Social Engineering
 
 "...the art of manipulating people into performing actions
    or divulging condential information".

Social engineering is not a new concept, but


it is an enduring one that is steadily growing,
Email spoong Man in the Middle
with no end in sight.

It works because we all have a natural human


tendency to trust. And hackers manipulate Instant messaging Covert redirect
the human factor and exploit trust to steal
valuable information.

One of the most common social engineering Voice phishing


schemes is phishing, which is dened as Website forgery
the use of social engineering and technical
subterfuge to defraud an online account Text
holder of their nancial information by posing Man in the
Messaging
as a trusted identity. Browser

Phishing can be executed through multiple


means, including spoofed emails, spoofed
phone calls, web link manipulation and
website forgeries; all with the goal of
convincing your users to divulge condential
information, or participate unknowingly in
fraudulent transactions.

  

 

Abbildung 2.: In der Fachkommunikation der modernen Informationssicherheit ndet


sich immer wieder die Darstellung von Cyberkriminellen als gesichtslose
bzw. maskierte Wesen. Hier ein Beispiel aus einer Studie des Unterneh-
mens VASCO Data Security (2015, S. 2).

greren Umgebung abgrenzen, erzielen leichter und nachhaltiger den notwendigen


Konsens fr individuelle Spielregeln im Umgang miteinander als Umgebungen,
die auf keine gemeinsame Identittsbasis zurckgehen. Internet-Plattformen, die
eine anonyme Teilnahme erlauben, Missbrauch aber durch schnelle Sperrung der
dafr verwendeten Nutzerkonten im Zaum halten, liefern deshalb einen wertvollen
Beitrag zur Vielfalt der Meinungsuerung in modernen Gesellschaften. Sich dort
als Individuum zu beteiligen, bedeutet keinen Rckzug aus der Auenwelt war
doch das sonderbare, von auen oft misstrauisch beugte Venedig mit seinem
einzigartigen Maskengebrauch zu seiner Zeit ein orierendes Welthandelszentrum,
dessen Bewohner intensivere Kontakte zu fremden Lndern und Kulturen pegten
als die der meisten anderen europischen Stdte.
Anonymitt als soziokulturelle Inszenierung 129

Literatur
Braun, Carolyn. Die Maske der Ehrbaren. In: Brand Eins (Juli 2012), S. 108.
Brin, David. The Transparent Society: Will Technology Force Us to Choose Between
Privacy and Freedom? New York: Basic Books, 1998.
Brodnig, Ingrid. Der unsichtbare Mensch Wie die Anonymitt im Internet unsere
Gesellschaft verndert. Wien: Czernin Verlag, 2014.
Endres, Johannes. Dienste und Software zum Verbergen der IP-Adresse. In: ct
Security (29. Juli 2013), S. 120122.
Gadamer, Hans-Georg. Die Kultur und das Wort. In: Lob der Theorie: Reden
und Aufstze. Frankfurt am Main: Suhrkamp, 1991, S. 925.
Greenwald, Glenn. Die globale berwachung: Der Fall Snowden, die amerikani-
schen Geheimdienste und die Folgen. Mnchen: Droemer Knaur, 2014.
Hambridge, Sally. Netiquette Guidelines. Request For Comments 1855. Network
Working Group, Okt. 1995. URL: https://tools.ietf.org/html/rfc1855 (besucht am
09. 09. 2016).
Han, Byung-Chul. Transparenzgesellschaft. Berlin: Matthes und Seitz, 2012.
Wie steuern auf eine Katastrophe zu. In: Sddeutsche Zeitung Magazin 2012.50
(2012). URL: http://sz- magazin.sueddeutsche.de/texte/anzeigen/39059/Wir-
steuern-auf-eine-Katastrophe-zu (besucht am 09. 09. 2016).
Heller, Christian. Post-Privacy: Prima leben ohne Privatsphre. Mnchen:
C.H.Beck, 2011.
Huizinga, Johan. Homo Ludens. Vom Ursprung der Kultur im Spiel. Reinbek bei
Hamburg: Rowohlt, 1987.
Kabay, Michel E. Anonymity and Pseudonymity in Cyberspace: Deindividuation,
Incivility and Lawlessness Versus Freedom and Privacy. Paper presented at the
Annual Conference of the European Institute for Computer Anti-virus Research
(EICAR), Munich, Germany 16-8 March 1998. 1998. URL: http://www.mekabay.
com/overviews/anonpseudo.pdf (besucht am 17. 05. 2016).
Karaboga, Murat u. a. Selbstdatenschutz. White Paper. Karlsruhe: Fraunhofer ISI
und Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt, 2014.
URL : http://www.forum-privatheit.de/ (besucht am 09. 09. 2016).
Karbe, Lars Cassio. Venedig oder Die Macht der Phantasie. Die Serenissima ein
Modell fr Europa. Mnchen: Diederichs, 1995.
Koskela, Hille. Webcams, TV Shows and Mobile phones: Empowering Exhibi-
tionism. In: Surveillance & Society 2.2/3 (2004), S. 199215. URL: http://ojs.
library.queensu.ca/index.php/surveillance-and-society/article/view/3374/3337
(besucht am 09. 09. 2016).
Levy, Steven. Hackers: Heroes of the Computer Revolution. New York: Dell, 1984.
130 Johannes Wiele und Bettina Weelmann

Matzner, Tobias. Anonymitt. In: Handbuch Informations- und Medienethik.


Hrsg. von Jessica Heesen. Stuttgart und Weimar: J. B. Metzler, 2016, S. 248
254.
Schfer, Annette. Der exible Mensch: So tun, als ob. In: Psychologie Heute
(Aug. 2013), S. 2025.
Schulzki-Haddouti, Christiane, Hrsg. Vom Ende der Anonymitt - Die Globalisie-
rung der berwachung. Hannover: Heise, 2000.
Solove, Daniel J. Ive got nothing to hide and Other Misunderstandings of
Privacy. In: St. Diego Law Review 44 (2007), S. 745772.
Suler, John. The online disinhibition effect. In: CyberPsychology & Behavior 7.3
(2004), S. 321326.
Toscani, Ignazio. Die venezianische Gesellschaftsmaske: Ein Versuch zur Deutung
ihrer Ausformung, ihrer Entstehungsgrnde und ihrer Funktion. Dissertation.
Saarbrcken: Universitt des Saarlandes, 1972.
Turkle, Sherry. Die Wunschmaschine: Vom Entstehen der Computerkultur. Reinbek
bei Hamburg: Rowohlt, 1984.
Leben im Netz: Identitt in Zeiten des Internet. Reinbek bei Hamburg: Rowohlt,
1998.
VASCO Data Security International GmbH. Social Engineering: Mitigating Human
Risk in Banking Transactions. Okt. 2015. URL: https://www.vasco.com/images/
Social-engineering_tcm42-46728.pdf (besucht am 22. 09. 2016).
Wiele, Johannes. The Mask of the Honorable Citizen. In: ISSE 2010 Securing
Electronic Business Processes: Highlights of the Information Security Solutions
Europe 2010 Conference. Wiesbaden: Vieweg+Teubner, 2011, S. 173181. DOI:
10.1007/978-3-8348-9788-6_17. (Besucht am 09. 09. 2016).
Wolf, Axel. So bin ich. Ich kann aber auch anders! In: Psychologie Heute (Aug.
2013), S. 26.
Recht oder Verhandlungssache?

Herausforderungen fr die informationelle Selbstbestimmung aus der


Perspektive von Jugendlichen
Niels Brggen und Ulrike Wagner

Die Perspektive von Jugendlichen auf informationelle Selbstbestimmung kann als


ein Seismograph fr den digitalen Wandel betrachtet werden. Junge Menschen
stehen neuen digitalen Diensten nicht nur berwiegend aufgeschlossen gegenber
und nutzen sie intensiv wie auch kreativ. Vielmehr wachsen sie zugleich in aktuelle
gesellschaftliche Rahmenbedingungen und Diskurse hinein und eignen sich verbrei-
tete Denkguren an, die gleichermaen Freiheiten und Verantwortung im Umgang
mit persnlichen Informationen betreffen. Die Perspektive von Jugendlichen bie-
tet sich damit an, um Herausforderungen fr die Realisierung informationeller
Selbstbestimmung im alltglichen Medienhandeln zu identizieren. Auf dieser
Basis knnen Voraussetzungen fr die Ausbung informationeller Selbstbestim-
mung auf der Seite der handelnden Subjekte einschlielich dafr notwendiger
Rahmenbedingungen beschrieben werden.
Im Beitrag werden mit diesem Ziel einschlgige empirische Forschungsarbeiten
zur Medienaneignung von Jugendlichen herangezogen und aus einer medienpd-
agogischen Warte interpretiert. Im Fokus stehen dabei Studien, die sich mit dem
Umgang mit sogenannten Sozialen Netzwerkdiensten beschftigen. In den ue-
rungen der befragten Jugendlichen kann nachvollzogen werden, welche Probleme
entstehen, wenn die Verantwortung fr informationelle Selbstbestimmung auf die
einzelnen Nutzenden verlagert wird, ohne weitere Realisierungsbedingungen auf
kollektiver Ebene in den Fokus zu rcken. Zudem wird deutlich, in welchen Span-
nungsfeldern das alltgliche Medienhandeln eingewoben ist. So geht es vor allem
darum, mit diesen Ambivalenzen bestmglich umzugehen: Dies erfordert sowohl
Kompetenzen auf der individuellen Ebene, es birgt aber auch Herausforderungen
auf berindividueller Ebene, wenn Fragen einer gemeinsamen Verantwortung fr
die Souvernitt des Handelns tangiert sind.

* Niels Brggen, Dr. Ulrike Wagner | JFF Institut fr Medienpdagogik in Forschung und Praxis,
Mnchen | {niels.brueggen; ulrike.wagner}@jff.de

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_9
132 Niels Brggen und Ulrike Wagner

1. Jugendliche als Akteure in digitalisierten Lebenswelten


informationelle Selbstbestimmung und gesellschaftliche
Handlungsfhigkeit
Die Mediatisierung des Alltagshandelns ber Kommunikations- und Interaktions-
strukturen der sozialen Medien ist eine der zentralen Entwicklungen im Medien-
handeln der Subjekte in den letzten Jahren. Eine Vielzahl von Forschungsarbeiten
belegt die intensive Nutzung digitaler Dienste durch Jugendliche sowie auch damit
verbundene Problembereiche wie die Selbstoffenbarung gegenber Interaktions-
partnern und Diensteanbietern.1 Thematisiert wird dabei zum Beispiel, inwiefern
jugendliche Nutzende die Einstellungsmglichkeiten der Zugriffskontrolle2 auf
Inhalte ndern, woraus ihr Verstndnis von Privatsphre abgleitet und ein Privacy
Paradox geschlossen wird.3 Demnach nutzen junge Menschen die Angebote trotz
starker Bedenken, da die digitalen Dienste eng mit ihrer Lebensfhrung verknpft
sind. Fr eine Weiterentwicklung der informationellen Selbstbestimmung bietet die
Identizierung dieses Paradoxons allein allerdings kaum Ansatzpunkte.
Differenziertere Einblicke ermglichen qualitative Studien, die Vorstellungen
von Jugendlichen ergrnden, welche Informationen warum schtzenswert sind, wie
dieser Schutz zu bewerkstelligen und wer dafr verantwortlich ist sowie insbeson-
dere, wo sie selbst Probleme und Herausforderungen sehen.4 Auf dieser Basis kann
nachvollzogen werden, wie sich Jugendliche im Spannungsfeld zwischen Selbst-
bestimmungsansprchen und der fr die Nutzung digitaler Medien notwendigen
Preisgabe persnlicher Informationen bewegen.5 Mit Einblicken in die Vorstellun-
gen von Jugendlichen knnen konkrete Herausforderungen fr die informationelle
Selbstbestimmung benannt und Lsungsanstze identiziert werden.
Ein notwendiger Bezugspunkt fr die nachfolgenden berlegungen ist die nor-
mative Betrachtung (nicht nur) jugendlicher Akteure als gesellschaftlich handlungs-
fhige Subjekte.6 Diese Vorstellung impliziert, dass Menschen ber die persnliche

1 Siehe u.a. JIM-Studie 2014; Schmidt, Paus-Hasebrink und Hasebrink, Heranwachsen mit dem So-
cial Web.
2 Diese Optionen werden von den Diensten oft missverstndlich als privacy control oder Einstel-
lungen zur Privatsphre bezeichnet.
3 Blank, Bolsover und Dubois, A New Privacy Paradox.
4 Vgl. Wagner und Brggen, Teilen, vernetzen, liken; Wagner, Brggen und Gebel, Persnliche Infor-
mationen in aller ffentlichkeit?; Brggen u. a., Jugendliche und Online-Werbung im Social Web.
5 Einen komplementren empirischen Weg whlen bspw. Dienlin und Trepte, die eine Differenzie-
rung zwischen Bedenken, Einstellungen und Intentionen bezglich Privatsphre entwickeln und
damit ebenfalls das Privacy Paradoxon verstehend ausen. Siehe Dienlin und Trepte, Is the
privacy paradox a relic of the past?
6 Vgl Geulen, Das vergesellschaftete Subjekt; Wagner, Medienhandeln, Medienkonvergenz und So-
zialisation.
Recht oder Verhandlungssache? 133

Lebensgestaltung hinaus, auch handlungsfhig in Bezug auf die demokratische Aus-


gestaltung des gesellschaftlichen Zusammenlebens sind. In einer zunehmend von
digitalen Medien durchdrungenen Gesellschaft entsteht angesichts digitaler Spuren
in nahezu allen Lebensbereichen ein Spannungsfeld, in welchem gesellschaftliche
Handlungsfhigkeit mit informationeller Selbstbestimmung unmittelbar verknpft
ist:

Zum einen geht es darum, digitale Dienste fr gesellschaftliche Teilhabe nutzen


zu knnen, womit allerdings auch immer eine Preisgabe persnlicher Informatio-
nen verbunden ist.

Zum anderen mssen die individuellen Lebensbereiche der Subjekte, und da-
mit verbunden personenbezogene Informationen im weiteren Sinne, geschtzt
werden knnen, um Diskriminierung, bergriffe und Benachteiligungen zu ver-
hindern.

Gesellschaftliche Handlungsfhigkeit ist also eng verknpft mit der Frage, wie
Zugriff und Schutz persnlicher Informationen organisiert und verantwortet wird.
Dabei geht es auf der Ebene der Subjekte nicht allein darum, inwiefern sie Zu-
griffskontrolleinstellungen bei verschiedenen Plattformen so anpassen knnen, dass
sie mglichst gut dem subjektiven Schutzbedrfnis entsprechen. Ungelst bleibt
dabei nicht zuletzt die Frage, inwiefern Diensteanbieter oder staatliche Stellen
Daten sammeln und auswerten, die durch digitale Kommunikation entstehen. So
geht es auch um das Abschtzen von Handlungsoptionen, das Nachdenken ber
alternative Handlungsmglichkeiten und ggf. die bewusste Ablehnung bestimm-
ter Anwendungen sprich die kritische Auseinandersetzung mit verfgbaren und
wnschenswerten Kommunikations- und Interaktionsstrukturen.7
Umgekehrt knnte also in den Raum gestellt werden, dass gesellschaftliche
Handlungsfhigkeit ohne informationelle Selbstbestimmung unterminiert wird, wie
dies ja auch im Volkszhlungsurteil begrndet wurde. Anders als 1983 erleben
aber Jugendliche heute, dass das skizzierte Spannungsfeld sich durch alle Bereiche
ihres Lebens hindurchzieht. Insofern ist von Interesse, welche Herausforderungen
fr die informationelle Selbstbestimmung auf der Grundlage der Perspektive von
Jugendlichen herausgearbeitet werden knnen.

7 Vgl. Wagner, Kompetenzen fr soziale Medien; Schorb und Wagner, Medienkompetenz.


134 Niels Brggen und Ulrike Wagner

2. Befunde zu spezischen Herausforderungen fr die


informationelle Selbstbestimmung in digitalen Welten
Perspektive von Jugendlichen
Grundlage fr die nachfolgenden Ausfhrungen sind im Kern zwei qualitative
Forschungsarbeiten, die jeweils die Perspektive von Jugendlichen auf Aspekte der
informationellen Selbstbestimmung in den Fokus rcken. So wurden im Rahmen
des Forschungsschwerpunktes Teilen, vernetzen, liken8 in vier Teilstudien Ein-
zelfallstudien mit 27 Jugendlichen realisiert sowie 141 Jugendliche in Gruppener-
hebungen befragt (Altersspektrum 13 bis 19 Jahre) und in der Studie Jugendliche
und Online-Werbung im Social Web9 Forschungswerksttten mit 67 Jugendlichen
im Alter zwischen 12 und 15 Jahren durchgefhrt.
Im Rahmen des Forschungsschwerpunktes Teilen, Vernetzen, Liken10 sttzt
sich der Beitrag insbesondere auf die Teilstudie Persnliche Informationen in alle
ffentlichkeit? Jugendliche und ihre Perspektive auf Datenschutz und Privatsphre
in Sozialen Netzwerkdiensten11 (im Folgenden PI abgekrzt). Diese Studie
verbindet zwei empirische Untersuchungsstrnge: Zum einen Einzelfallstudien mit
insgesamt elf Jugendlichen im Alter von 14 bis 19 Jahren, in denen der indivi-
duelle Umgang mit persnlichen Informationen und ihre Handlungsweisen und
Haltungen in Bezug auf Datenschutz auf jeweils einer Online-Plattform im Fokus
standen. Fr diese Einzelfallstudien wurde mit den Jugendlichen ein leitfadenge-
sttztes Interview von ca. einer Stunde gefhrt. Vorbereitend wurden die Prole
der Jugendlichen auf der jeweiligen Plattform und der durch die jeweilige Online-
Plattform vorgegebene Handlungsrahmen, beispielsweise welche Mglichkeiten der
Zugriffskontrolle auf Inhalte gegeben sind, analysiert. Die so gewonnenen Daten
wurden teils im Interview mit den Jugendlichen thematisiert. Auf diese Weise war
es mglich, das Handeln der Jugendlichen auf den Plattformen und auch die Er-
wartungen der Jugendlichen an die Plattformgestaltung sehr konkret anzusprechen.
Die andere empirische Sule dieser Teilstudie bildeten Gruppenerhebungen mit
52 Hauptschlerinnen und Hauptschlern der achten und neunten Jahrgangsstufe
und dem Altersschwerpunkt 14 bis 16 Jahre. In diesen standen die Haltungen der
Jugendlichen zum Themenfeld Datenschutz und Persnlichkeitsrechte in Online-

8 Wagner und Brggen, Teilen, vernetzen, liken.


9 Brggen u. a., Jugendliche und Online-Werbung im Social Web.
10 Der Studienschwerpunkt wurde von der Bayerischen Landeszentrale fr neue Medien (BLM) ge-
frdert.
11 Wagner, Brggen und Gebel, Persnliche Informationen in aller ffentlichkeit?
Recht oder Verhandlungssache? 135

Plattformen, die sie leitenden sozialen Regeln, Normen und Werthaltungen sowie
ihre Reexionen zu entsprechenden Spannungsfeldern im Mittelpunkt.12
In der Studie Jugendliche und Online-Werbung im Social Web13 (abgekrzt
JOW) wurde informationelle Selbstbestimmung im Kontext der Datenauswertung
fr personalisierte Werbung und entsprechende Geschftsmodelle thematisiert.
Neben dem Wissen von Jugendlichen um Auswertungsmglichkeiten von Online-
Daten fr werbliche Zwecke, beleuchtete die Studie insbesondere auch die Kenntnis
der befragten Jugendlichen zu ihren Rechten als Verbraucherinnen und Verbrau-
cher von digitalen Diensten (insbesondere einschlgige Entscheidungsrechte und
Schutzbestimmungen). Die dabei vorgebrachten Vorstellungen geben Einblicke in
die Realisierungsbedingungen informationeller Selbstbestimmung im alltglichen
Medienhandeln von Jugendlichen. Empirisch wurde die Studie in Form von For-
schungswerksttten realisiert. In diesen sind qualitative Erhebungsverfahren mit
Anstzen pdagogischer Arbeit verbunden. Durchgefhrt wurden diese Forschungs-
werksttten mit insgesamt 67 Jugendlichen an einer Mittelschule, einer Realschule
und einem Gymnasium im Mnchner Raum. Das Einverstndnis zur Auswertung
der Daten lag von 49 Jugendlichen vor, davon 32 Jungen und 17 Mdchen.
Beide Studien verstehen sich als explorative Arbeiten, deren Ziel es ist, Sinnzu-
weisungen bezglich aktueller Problemfelder aus Sicht der (jugendlichen) Akteure
zu rekonstruieren. Mit der Zusammenstellung der Stichprobe wird damit nicht der
Anspruch an Reprsentativitt verbunden. Gtekriterium ist vielmehr, dass relevante
Gruppen, die mit den beforschten Problemen konfrontiert sind, eingebunden wer-
den und ihre Perspektive mglichst kontextreich beforscht wird. Dies erlaubt (im
Falle der Provenienz der Arbeiten), die Entwicklung zielgruppenbezogener Anstze
medienpdagogischer Arbeit bzw. hier die Extraktion von Rahmenbedingungen,
die informationelle Selbstbestimmung zur Voraussetzung hat.

2.1. Selbstverantwortung stt auch bei bernahme dieses Anspruchs an


Grenzen
Ich entscheid eben immer fr mich selbst, ob ich was von mir zeigen
mchte oder nicht. (Junge, Gruppenerhebung)14

12 Detaillierte Informationen zu den Erhebungswerkzeugen, zum Ablauf der Erhebungen, zu den rea-
lisierten Stichproben und zum Auswertungsverfahren nden sich im Forschungsbericht. ebd., S. 11-
19.
13 Brggen u. a., Jugendliche und Online-Werbung im Social Web.
14 Zitat aus einer Gruppenerhebung. Wagner, Brggen und Gebel, Persnliche Informationen in aller
ffentlichkeit?, S. 62.
136 Niels Brggen und Ulrike Wagner

Alle in der Studie PI befragten Jugendlichen formulieren den Anspruch, selbst zu


entscheiden, wer was von ihnen wei.15 Es zeigt sich allerdings, dass es nicht so
einfach ist, diesen Anspruch auch auszufllen.
Grundstzlich gehen alle Befragten davon aus, dass es schtzenswerte Informatio-
nen ber die eigene Person gibt.16 Schutzbedarfe leiten die befragten Jugendlichen
dabei primr aus dem Verhltnis zu potenziellen Interaktionspartner/-innen, also
aus einem horizontalen Verhltnis, ab. Die Plattformbetreiber und ihre Mglich-
keiten auf online gespeicherte Daten zuzugreifen und diese auszuwerten waren
bei den Jugendlichen 2010 noch selten als mgliches Risiko prsent.17 Deutlich
wurde vielmehr in der Studie, dass viele Jugendliche kaum eine Vorstellung von
der Bedeutung persnlicher Informationen angesichts gegebener Auswertungs-
verfahren hatten. So fanden sich Hinweise darauf, dass sie die Datenauswertung
eher mit menschlichen Kapazitten imaginierten, wie das nachstehende Beispiel
verdeutlicht:

Es sind ber 5.000 Leute, man knnte ja nicht jetzt jeden angu-
cken und ob die jetzt alle so ein Bild haben oder so. (Mdchen,
Gruppenerhebung)18

Ungeachtet solcher Fehleinschtzungen nehmen die befragten Jugendlichen die


im ffentlichen Diskurs - bspw. ber Sensibilisierungskampagnen im Sinne von
Think before you post!19 - an sie herangetragene Aufgabe an, fr den Schutz
ihrer Daten selbst Sorge tragen zu mssen. Zugleich sind sie mit dieser Aufgabe auf
mehreren Ebenen berfordert. So fehlen ihnen nicht nur notwendige Einblicke auf
struktureller Ebene (wie z. B. in datengetriebene Geschftsmodelle oder technische
Mglichkeiten der Datenauswertung).
Viel grundstzlicher erfahren Jugendliche in ihrem Handeln darber hinaus
spezische Herausforderungen informationeller Selbstbestimmung, die ber die
individuelle Ebene hinausweisen.

15 Dies zieht sich als Befund durch alle Teilstudien des Forschungsschwerpunktes von Wagner und
Brggen, Teilen, vernetzen, liken.
16 Wagner, Brggen und Gebel, Persnliche Informationen in aller ffentlichkeit?, S. 21.
17 Neuere empirische Arbeiten weisen dabei durchaus darauf hin, dass sich diese Situation gewandelt
habe. So erscheinen App-Anbieter bzw. Anbieter von Online-Angeboten im ACT ON!-Monitoring
als relevante Akteure fr das von den befragten Jugendlichen am hugsten benannten Risiko des
getrackt werdens. Gebel, Schubert und Wagner, . . . dann sollte man gar nicht erst ins Internet,
S. 8.
18 Zitat aus einer Gruppenerhebung. Wagner, Brggen und Gebel, Persnliche Informationen in aller
ffentlichkeit?, S. 61.
19 Dies war der Slogan fr den Safer Internet Day 2012.
Recht oder Verhandlungssache? 137

2.2. Manahmen des Selbstdatenschutzes mssen anschlussfhig an


Nutzungsmotive sein
Bereits in der Stichprobe der Studie PI hat sich gezeigt, dass Jugendliche durchaus
unterschiedlich mit persnlichen Informationen im Internet umgehen. Einussfak-
toren auf das Handeln sind auf Grundlage unserer Erhebungen durchaus die eigene
Haltung zu Datenschutz und zu Persnlichkeitsrechten, die wiederum argumentiert
wird mit Bezug auf soziale Regeln und Normen und teils auf den gesellschaftli-
chen Diskurs verweist. Des Weiteren haben wir Hinweise, dass die technischen
Mglichkeiten, wie z. B. die Einstellungsmglichkeiten der Zugriffskontrolle ber
Freundeslisten, bedeutsam fr den konkreten Umgang mit persnlichen Informa-
tionen sind. Und schlielich sind auch Wissen um diese Mglichkeiten und die
Fhigkeiten in Umgang mit den Plattformen fr den Umgang mit persnlichen Infor-
mationen bedeutsam. Eine besondere Stellung nehmen nach unserer Einschtzung
aber die jeweiligen Nutzungsmotive ein. Sie haben sich als dasjenige Kriterium
herausgestellt, nach dem verschiedene Strategien im Umgang mit persnlichen
Informationen herausgearbeitet werden konnten (siehe Abbildung 1).20

Abbildung 1.: berblick ber die von Jugendlichen realisierten Strategien im Umgang
mit persnlichen Daten in Sozialen Netzwerkdiensten im Hinblick auf die
Identizierbarkeit durch andere (auf Grundlage von Wagner, Brggen und
Gebel, Persnliche Informationen in aller ffentlichkeit?, S.27ff.)

20 Vgl. Wagner, Brggen und Gebel, Persnliche Informationen in aller ffentlichkeit?, S. 27ff.
138 Niels Brggen und Ulrike Wagner

Auf die drei dargestellten Strategien soll an dieser Stelle nur kurz eingegan-
gen werden. Sie werden unter anderem auch im White Paper Selbstdatenschutz
des Forums Privatheit angesprochen.21 So geht es bei der Strategie 1 darum, den
Kontakt mit Freundinnen und Freunden, zu denen auch ofine Kontakt besteht,
weiterzupegen. Um von diesen online gefunden zu werden, nutzen diese Jugendli-
chen den Klarnamen, schrnken jedoch den Zugriff auf die verffentlichten Inhalte
ein. Bei der Strategie 2 geht es den Jugendlichen um einen inhaltlichen Austausch
zu einem Interessensgebiet. Hierfr sind sie fr die Erweiterung des Kontaktkrei-
ses um online-Bekanntschaften interessiert bzw. zumindest offen hierfr. Da sie
davon ausgehen, dass dies den inhaltlichen Austausch befrdert, bewegen sie sich
erkennbar auf der Plattform und schrnken den Zugriff auf ihre verffentlichten In-
formationen nicht ein. Dies impliziert allerdings nicht, dass die Jugendlichen nicht
auch bestimmte persnliche Informationen zurckhalten. Am restriktivsten agieren
Jugendliche nach der Strategie 3. Sie wollen nicht durch Fremde identizierbar
sein, um unbehelligt mit ihren Kontakten interagieren zu knnen. Entsprechend
nutzen sie die Plattform pseudonym und schrnken den Zugriff auf die eigenen
Inhalte ein. Unterschiede zeigen sich innerhalb dieser Strategie, inwiefern die Kon-
takte auf Bekannte, mit denen sie bereits ofine befreundet sind, beschrnkt oder
auch neue online-Kontakte in diesen Interaktionskreis aufgenommen werden. Mit
Blick auf die Begrndungen der Strategien durch die befragten Jugendlichen ist zu
betonen, dass diese Strategien nicht als Manahmen des Selbstdatenschutzes von
den Motiven isoliert werden knnen. Vielmehr entfalten sie ihren Sinn nur dann,
wenn sie auf die Motive der Nutzung des jeweiligen Sozialen Netzwerkdienstes
rckgebunden werden knnen.
Um es an einem Beispiel konkret zu machen: Der damals 17-jhrige Nutzer
myspace_3 nutzte die Plattform Myspace, um sich mit anderen Musikinteressierten
und Musikschaffenden zu vernetzen. Eine Pseudonymisierung oder eine Beschrn-
kung des Zugriffs auf die eingestellten Informationen ist mit diesem Motiv nur
bedingt sinnvoll. Diese enge Verbindung von Handlungsstrategien und Motiven
muss bei der Diskussion von empfohlenen Strategien des Selbstdatenschutzes
unbedingt reektiert werden.
Das Vermgen individuell eine Passung von Handlungsstrategien und Motiven
herzustellen, bezeichnet allerdings nur eine Realisierungsbedingung von informa-
tioneller Selbstbestimmung. Darber hinaus wurden in den Studien auch weitere
Bedingungen deutlich, die falls nicht gegeben der Realisierung informationeller
Selbstbestimmung Grenzen setzen.

21 Karaboga u. a., Selbstdatenschutz.


Recht oder Verhandlungssache? 139

2.3. Das Handeln der Anderen wandelt das Recht zur Verhandlungssache
Ja, man kann jetzt gar nicht bei jedem Foto, bei jedem Video nach-
fragen, ob man das hochladen darf . . . aber ich denke, das kann jeder
schon selber entscheiden, was den anderen vielleicht rgert . . . welche
Bilder. (myspace_3)22

Dieses Zitat verdeutlicht, wie das Recht auf informationelle Selbstbestimmung


im Erleben Jugendlicher zur Verhandlungssache werden kann. Grundstzlich ms-
sen Jugendliche heute damit rechnen, dass andere Informationen ber sie posten
was in der Regel auch mit durchaus positiven Absichten geschieht, z. B. um
gemeinsame Erlebnisse festzuhalten. In der Praxis tritt damit aber anstelle eines
(vorab eingeholten) Einverstndnisses in eine Verffentlichung die jeweils eigene
Einschtzung, was die/den anderen ggf. stren knnte. Wer mit einer Verffent-
lichung nicht einverstanden ist, muss sich an die Autor/-innen wenden und das
Lschen erbitten. Im alltglichen Erleben Jugendlicher wird damit das Recht auf
informationelle Selbstbestimmung zur Verhandlungssache. Dies impliziert einen
Kontrollaufwand, um berhaupt in Verhandlung treten zu knnen. Diese Dynamik
spielt vermutlich Interessen von Anbietern digitaler Dienste in die Hnde. Die in
der Studie befragten Jugendlichen kapitulieren letztlich aber vor der so entstehen-
den Kontrollspirale. Das bedeutet, dass Personen, die ein in den entsprechenden
Sozialen Netzwerkdiensten aktives soziales Umfeld haben, auch entsprechend mehr
Aufwand in die Kontrolle deren Verffentlichung investieren mssten, um bei
ungewnschten Beitrgen berhaupt in Verhandlungen treten zu knnen.
Nicht alle Befragten reektieren das so bewusst wie myspace_3, der allerdings
sehr klar anspricht, dass diese Erfahrung fr ihn nicht allein auf das Onlife also
online-Leben beschrnkt bleibt.

. . . dass man einfach keine eigene Privatsphre hat und man immer
darauf achten muss, dass keine Fotos von einem gemacht werden, die
vielleicht im Internet landen. (myspace_3)23

Das Individuum verfgt nicht allein darber, welche Informationen ber die eige-
ne Person verfgbar sind. Vielmehr verdeutlicht auch das angefhrte Zitat, dass das
Selbst der informationellen Selbstbestimmung in der Erfahrungswelt von Jugend-
lichen um soziale Interaktionspartner/-innen erweitert ist. Bei der Interaktion mit
diesen hat die technologische Gestaltung einen mageblichen Einuss darauf, wel-
che Praxis sich damit etabliert. Die uerungen der Jugendlichen aufgreifend, kann
22 Zitat aus Einzelfallstudie. Wagner, Brggen und Gebel, Persnliche Informationen in aller ffent-
lichkeit?, S. 77.
23 Zitat aus Einzelfallstudie. ebd., S. 38.
140 Niels Brggen und Ulrike Wagner

das ein Ansatz sein, um Realisierungsbedingungen von informationeller Selbstbe-


stimmung zu gestalten. So weist das erste oben angefhrte Zitat von myspace_3
auf mgliche technische Untersttzungsformen dieses Verhandlungsprozesses vor
einer Verffentlichung hin, wenn z. B. Zustimmungsverfahren zur Verffentlichung
umgesetzt wrden. Die Dienste sind aber in der Regel so gestaltet, dass nur nach
einer Verffentlichung Beschwerde eingereicht werden kann. Dies ist ein Hinweis
darauf, welchen fundamentalen Einuss Technikgestaltung darauf hat, inwiefern
sich in der mediengesttzten Interaktion von Nutzenden horizontal so etwas wie
ein kollektiver Selbstdatenschutz etablieren kann.
Herausforderungen fr die informationelle Selbstbestimmung bestehen folglich
nicht nur auf individueller Ebene mit Wissensbestnden oder individuellen Wert-
haltungen, sondern verweisen auf eine kollektive Ebene. Dabei ist es nicht nur
notwendig, den Fokus auf die mit Mediendiensten handelnden Subjekte zu richten,
sondern auch auf weitere Realisierungsbedingungen informationeller Selbstbestim-
mung.

2.4. Keine Verhandlungsmglichkeiten mit Unternehmen markieren


ungleiche Krfteverhltnisse in der Wahrnehmung von Jugendlichen
Eigentlich hat man ja im Grunde Pech gehabt, weil wenn man die
AGB nicht gelesen hat, da kann ja im Grunde alles stehen. Wenn das
drin steht, dass die das machen drfen, haben die auch das Recht. Da
kann man eigentlich nichts dagegen machen. (Gymnasiastin)24

Die im Zitat geuerte Annahme, dass Unternehmen ihre AGB vllig frei fest-
legen knnen und Nutzende den Bedingungen der Unternehmen quasi ausgesetzt
sind, weist auf das Krfteverhltnis zwischen Diensteanbietern und Nutzenden als
relevante Realisierungsbedingung fr informationelle Selbstbestimmung. In der Stu-
die JOW werden teils fatalistische Haltungen von Jugendlichen geuert, die sich
im Verhltnis zu mchtigeren Unternehmen als ohnmchtig und handlungsunfhig
sehen, ihre Interessen zu wahren:

. . . es wird sich sowieso nichts ndern, es ist alles schon gespeichert.


(Reexionsblatt, Mittelschule)25

In den uerungen der befragten Jugendlichen kann an diesen Stellen nachvoll-


zogen werden, wie der Anspruch auf informationelle Selbstbestimmung letztlich
unterminiert wird, wenn die Verantwortung fr informationelle Selbstbestimmung
24 Zitat aus Forschungswerksttte. Brggen u. a., Jugendliche und Online-Werbung im Social Web, S.
45.
25 Ebd., S. 48.
Recht oder Verhandlungssache? 141

(auch von den Nutzenden) allein bei sich selbst verortet wird. Das oben stehende
Zitat verdeutlicht, dass dann in der Vorstellung von den betreffenden Jugendlichen
jegliche Einuss- und Partizipationsmglichkeiten obsolet erscheinen, sobald etwas
bereits gespeichert wurde. Dies verweist ebenfalls auf Realisierungsbedingungen
informationeller Selbstbestimmung, die auf eine kollektive Verantwortungsebe-
ne reichen. Zur Diskussion steht entsprechend, auf welchem Wege Schutzrechte
ausgehandelt werden und wie glaubhaft sie durchgesetzt werden knnen.
In den Forschungswerksttten wurde deutlich, dass die mitwirkenden Jugendli-
chen kaum Wissen darber haben, dass es Rechte gibt, die sie schtzen sollen.26
Diese Haltung spiegelt sich beispielsweise in der oben angefhrten uerung zu den
AGB wider, in welchen auch datenschutzrechtliche Gesichtspunkte verankert sind
und die Unternehmen nach geltendem Recht nicht beliebig frei festlegen knnen.
Entscheidend ist an dieser Stelle, dass die befragten Jugendlichen die individuelle
Selbstverantwortung akzentuierten. Die Selbstverantwortung wird in der Sichtweise
dieser Jugendlichen nicht durch einen Rechtsrahmen entlastet, der schtzt, wo die
Jugendlichen selbst kaum mehr handlungsfhig sind, und dessen Normen Anbieter
einhalten mssen. Vergleichbare Befunde nden sich bei Hallinan et al., wonach
in der Metaanalyse von Eurobarometer-Daten die Befragten sich selbst an erster
Stelle verantwortlich fr den Schutz personenbezogener Daten sehen und staatlicher
Regulierung nur eine nachgeordnete Verantwortung zugewiesen wird.27
Allerdings besteht ein grundstzlicher Unterschied, ob man sich selbst als an
erster Stelle fr den Schutz personenbezogener Daten ansieht und das Gefhl hat,
dies auch bewerkstelligen zu knnen, oder ob man diese Verantwortungszuwei-
sung im Bewusstsein macht, dass diese Verantwortung berfordert. In diesem Fall
legen die Studienergebnisse nahe, dass damit fatalistische Grundhaltungen entwi-
ckelt werden knnen. Diese knnen den Anspruch und auch die Bereitschaft zur
Selbstverantwortung unterminieren und zu Resignation fhren. Ein als wirksam
wahrgenommener Rechtsrahmen erscheint damit als eine weitere Realisierungsbe-
dingung informationeller Selbstbestimmung.
Das Phnomen der Resignation ndet sich nicht nur bei Jugendlichen: Im Herbst
2015 hat das DIVSI eine Befragung verffentlicht, mit welchen Annahmen Nut-
zende sich mit AGB und Datenschutzbestimmungen auseinandersetzen. Demnach
akzeptiert die grte Gruppe von 37,5 % der Nutzenden AGB mit der Annahme,
dass sie keine Alternative dazu htten. Das DIVSI bndelt die Items wahrgenom-
mene Alternativlosigkeit und Zustimmung mit einem unguten Gefhl unter dem
Schlagwort der Resignation.28

26 Ebd., S. 44ff.
27 Hallinan, Friedewald und McCarthy, Citizens Perceptions of Data Protection and Privacy.
28 DIVSI, Allgemeinemeine Geschftsbedingungen (AGB) von Kommunikationsdienstleistern. S. 23.
142 Niels Brggen und Ulrike Wagner

3. Folgerungen zur Zukunft der informationellen


Selbstbestimmung
Mit den empirischen Befunden aus der Perspektive von Jugendlichen wurden ver-
schiedene Realisierungsbedingungen fr informationelle Selbstbestimmung heraus-
gearbeitet. Ausgehend von der Subjektperspektive sollen abschlieend Ansatzpunk-
te fr eine Weiterentwicklung und Strkung des Leitgedankens der informationellen
Selbstbestimmung skizziert werden.
Zentral erscheint, informationelle Selbstbestimmung nicht allein als individuelle
Selbstverantwortung zu fassen. Denn die Ergebnisse weisen unter anderem aus,
dass der Handlungsrahmen, in welchem sich die Einzelnen bewegen, auch durch
das Handeln anderer geprgt ist, sei es vermittelt ber soziale Praktiken, ber die
Gestaltung der genutzten Dienste oder auch die Ausgestaltung eines regulatorischen
Rahmens. Entsprechend greift es zu kurz, lediglich auf der Subjektseite ein Privacy
Paradox zu konstatieren und daraus ggf. eine schwindende Bedeutung des Wertes
von Privatheit abzuleiten. Vielmehr gilt es, Realisierungsbedingungen zu schaffen,
die Selbstbestimmung berhaupt ermglichen. Hierfr erscheinen Ansatzpunkte
hilfreich, die analog zum Jugendmedienschutz auf zwei Ebenen ansetzen: zum
einen auf der individuellen Ebene mit prventiven Manahmen und zum anderen
auf einer kollektiven Ebene ber regulative Elemente.
Um auch zuknftig an der Leitidee der informationellen Selbstbestimmung fest-
halten zu knnen, bedarf es auf der individuellen Ebene Wissen und eine kritische
Reexion, die zusammen Orientierung erlauben, sowie echte Entscheidungsop-
tionen. Wissen bezieht sich dabei nicht nur auf konkrete Funktionen, z. B. wo
die Einstellungen zur Zugriffskontrolle bei Facebook zu nden und wie sie zu
verndern sind. Vielmehr ist auch Wissen um grundlegende Charakteristika von
Online-ffentlichkeiten, den Aufforderungscharakter medialer Strukturen, ber
verfgbare und konkret eingesetzte Auswertungs- und Datenanalyseverfahren, ber
gespeicherte Daten und daraus extrahierte Informationen wie auch rechtliche Rah-
menbedingungen notwendig. Dies alles beschreibt Realisierungsbedingungen, um
im konkreten Fall informierte Entscheidungen treffen aber sich auch berhaupt
in dem eingangs skizzierten Spannungsfeld orientieren zu knnen. Orientierun-
gen, verstanden als grundlegende und situationsbergreifende Mastbe fr das
eigene Handeln, werden bentigt, um im Alltag Bewltigungsanforderungen der
Lebensfhrung nachkommen zu knnen.29 Angesichts der Durchdringung nahezu
aller Lebensbereiche mit digitalen Technologien wird der Umgang mit persnli-
chen Informationen eine zentrale Bewltigungsanforderung auch fr die Einzelnen.

29 Vgl. Paus-Hasebrink, Grundstzliche berlegungen zu neuen Denkwerkzeugen in der Ju-


gend(medien)forschung.
Recht oder Verhandlungssache? 143

Dies beschrnkt sich dann nicht mehr auf den in den diskutierten Studien fokus-
sierten Bereich der Sozialen Netzwerkdienste. Die Leitidee der informationellen
Selbstbestimmung ist aber nur dann aufrechtzuerhalten, wenn die Einzelnen auch
echte Entscheidungsoptionen haben. Und auch hier ist es wichtig, diese Optionen
weiter zu fassen als z. B. Einstellungsoptionen des Zugriffs anderer Nutzenden
auf verffentlichte Informationen oder die schlichte Unterscheidung zwischen
Nicht-Nutzung oder Resignation angesichts der gegebenen Bedingungen. Entschei-
dungsoptionen im Sinne von Einuss- und Partizipationsrechten knnte vielmehr
auch implizieren, dass die Nutzenden nicht nur entscheiden knnen, ob ihnen be-
stimmte Formen personalisierter Werbung angezeigt werden, sondern auch, ob ihre
Daten berhaupt fr eine derartige Personalisierung ausgewertet werden drfen.
Derartige Rechte knnen Individuen aber in der Regel alleine nicht durchsetzen
und auch nicht sicherstellen. Womit auf die kollektive Ebene der Ermglichung
informationeller Selbstbestimmung verwiesen ist.
Wenn informationelle Selbstbestimmung bedeutet, dass die Einzelnen wissen
knnen, wer was ber sie wei (Kenntnisrechte) und dass sie darauf Einuss
nehmen knnen (Einuss- und Partizipationsrechte), dann sind die Einzelnen darauf
angewiesen, dass es einen fr sie nachvollziehbaren Rahmen gibt, wie diese Rechte
eingefordert und durchgesetzt werden knnen. Dies bezieht sich sowohl auf die
Gestaltung von Angeboten als auch auf rechtliche Regelungen und die Aufsicht des
Datenschutzes.
Einussrechte sind dabei nicht allein mit Blick auf Diensteanbieter zu bedenken,
sondern auch mit Blick auf andere Nutzende, die ggf. Daten und Informationen
ber Dritte online verffentlichen. Konkrete Anregungen, wie durch die Angebots-
gestaltung Prinzipien des Privacy-by-design auch jenseits von Voreinstellungen
direkt in der Dialoggestaltung realisiert werden kann, knnen aus den uerungen
der Jugendlichen abgeleitet werden. Dass die Nutzenden ein Einverstndnis nicht
vor einer Verffentlichung einholen knnen, ist eine Entscheidung, die durch den
Programmcode festgelegt ist. Technisch realisierbar wren auch andere Verfahren,
die hier Einussrechte auch in der Interaktion der Nutzenden strker gewichten
und nicht erst nach einer Verffentlichung ansetzen. Kombiniert werden knnten
derartige Verfahren auch mit personenbezogenen Rechtezuweisungen, ber die
z. B. bei engen Freunden die Freigabe durch eine Information ersetzt wrde. Die
aus den uerungen von Jugendlichen extrahierten Vorschlge verdeutlichen, dass
die Gestaltung von Technologien eine wichtige Stellgre ist, mit der ein Ermg-
lichungsrahmen fr informationelle Selbstbestimmung und (Selbst-)Datenschutz
auch als soziale Praxis gestrkt werden kann. Soziale Praxis meint dabei eben
nicht mehr nur einzelne intentionale Handlungen verschiedener Akteure, sondern
vielmehr einen Handlungskontext, der durch das wechselseitig sozial aufeinander
bezogene Handeln entsteht und gesellschaftliche Praktiken und damit auch ein
144 Niels Brggen und Ulrike Wagner

gemeinschaftliches Verstndnis hervorbringt. Wenn Diensteanbieter bislang keine


Anreize haben, derartige Dialogformen und Einussrechte zu realisieren, erscheint
es notwendig, dies im Rahmen der Entwicklung von privacy-enhanced-technologies
gezielt anzuregen.
Neben der Gestaltung der Dienste und darin verankerter Einussmglichkeiten
weisen die referierten Befunde auf die Notwendigkeit eines regulativen Rahmens
und dessen Aufsicht hin, der auch an die Nutzenden vermittelt werden muss. Wenn
sich Nutzende zwar selbst in der Verantwortung fr den Schutz eigener Daten
sehen, zugleich aber keine Mglichkeiten sehen, darber selbst zu bestimmen
und entsprechend resignieren, entsteht ein neues Privacy Paradoxon, das weniger
auf einer Diskrepanz zwischen Bedenken und tatschlichem Handeln, sondern
vielmehr auf einer Diskrepanz zwischen Verantwortungsanspruch und wahrge-
nommenen Handlungsmglichkeiten verweist. Die referierten Befunde legen vor
diesem Hintergrund nahe, dass informationelle Selbstbestimmung auch einschliet,
dass dort wo individuelle Handlungsmglichkeiten begrenzt sind, rechtliche Vor-
gaben die Rechte der Nutzenden schtzen mssen. Ohne des Gewahrseins dieses
Rahmens knnte informationelle Selbstbestimmung eine paradoxe Anforderung
an die Subjekte stellen, die letztlich zur Aufgabe dieses normativen Anspruchs
fhren knnte. Die gesellschaftspolitische Dimension einer solchen Situation hat
das Bundesverfassungsgericht vorgezeichnet.

Literatur
Blank, Grant, Gilian Bolsover und Elisabeth Dubois. A New Privacy Paradox:
Young People and Privacy on Social Network Sites. Draft Working Paper. Global
Cyber Security Capacity Centre, 2014. URL: http://www.oxfordmartin.ox.ac.uk/
downloads/A%20New%20Privacy%20Paradox%20April%202014.pdf (besucht
am 09. 09. 2016).
Brggen, Niels u. a. Jugendliche und Online-Werbung im Social Web. Mnchen:
Bayerisches Staatsministerium fr Umwelt und Verbraucherschutz, 11. Feb.
2014. URL: http://www.jff.de/jff/leadmin/user_upload/Projekte_Material/
verbraucherbildung . socialweb / JFF - Studie _ Jugendliche _ Online - Werbung _
SocialWeb.pdf (besucht am 09. 09. 2016).
Dienlin, Tobias und Sabine Trepte. Is the privacy paradox a relic of the past?
An in-depth analysis of privacy attitudes and privacy behaviors. In: European
Journal of Social Psychology 45 (2015), S. 285297. DOI: 10.1002/ejsp.2049.
Allgemeinemeine Geschftsbedingungen (AGB) von Kommunikationsdienstleistern.
Hamburg: Deutsches Institut fr Vertrauen und Sicherheit im Internet (DIVSI),
Recht oder Verhandlungssache? 145

2015. URL: http : / / www. divsi . de / wp - content / uploads / 2015 / 10 / 2015 - 10 -


22_DIVSI_AGB-Umfrage_Charts.pdf (besucht am 09. 09. 2016).
Gebel, Christa, Gisela Schubert und Ulrike Wagner. . . . dann sollte man gar nicht
erst ins Internet, weil sie da mit Daten machen, was sie wollen. Risiken im
Bereich Online-Kommunikation und Persnlichkeitsschutz aus Sicht Heranwach-
sender. Ausgewhlte Ergebnisse der Monitoringstudie. ACT ON! Short Report
Nr. 2. Mnchen: JFF Institut fr Medienpdagogik in Forschung und Praxis,
2016. URL: http://www.jff.de/act-on (besucht am 09. 09. 2016).
Geulen, Dieter. Das vergesellschaftete Subjekt: Zur Grundlegung der Sozialisati-
onstheorie. 2. Au. Frankfurt am Main: Suhrkamp, 1977.
Hallinan, Dara, Michael Friedewald und Paul McCarthy. Citizens Perceptions of
Data Protection and Privacy. In: Computer Law & Security Review 28.3 (2012),
S. 263272. DOI: 10.1016/j.clsr.2012.03.005.
JIM-Studie 2014. Jugend, Information, (Multi-)Media. Basisuntersuchung zum
Medienumgang 12- bis 19-Jhriger. Medienpdagogischer Forschungsverbund
Sdwest, 2014. URL: http://www.mpfs.de/leadmin/JIM-pdf14/JIM-Studie_
2014.pdf (besucht am 09. 09. 2016).
Karaboga, Murat u. a. Selbstdatenschutz. White Paper. Karlsruhe: Fraunhofer ISI
und Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt, 2014.
URL : http://www.forum-privatheit.de/ (besucht am 09. 09. 2016).
Paus-Hasebrink, Ingrid. Grundstzliche berlegungen zu neuen Denkwerkzeu-
gen in der Jugend(medien)forschung. In: Perspektiven der Medienpdagogik
in Wissenschaft und Bildungspraxis. Hrsg. von Hubert Kleber. Mnchen: kopaed,
2005, S. 7485.
Schmidt, Jan-Hinrik, Ingrid Paus-Hasebrink und Uwe Hasebrink. Heranwachsen
mit dem Social Web. Zur Rolle von Web 2.0-Angeboten im Alltag von Jugend-
lichen und jungen Erwachsenen. Bd. 62. Schriftenreihe Medienforschung der
Landesanstalt fr Medien Nordrhein-Westfalen. Berlin: Vistas, 2009.
Schorb, Bernd und Ulrike Wagner. Medienkompetenz Befhigung zur sou-
vernen Lebensfhrung in einer mediatisierten Gesellschaft. In: Medienkom-
petenzfrderung fr Kinder und Jugendliche. Eine Bestandsaufnahme. Berlin:
Bundesministerium fr Familie, Senioren, Frauen und Jugend (BMFSFJ), 2013,
S. 1823.
Wagner, Ulrike. Kompetenzen fr soziale Medien. In: Handbuch Soziale Medien.
Hrsg. von Jan-Hindrik Schmidt und Monika Taddicken. Wiesbaden: Springer
VS, 2016.
Medienhandeln, Medienkonvergenz und Sozialisation. Empirie und gesellschafts-
wissenschaftliche Perspektiven. Mnchen: kopaed, 2011.
Wagner, Ulrike und Niels Brggen, Hrsg. Teilen, vernetzen, liken. Jugend zwi-
schen Eigensinn und Anpassung im Social Web. 5. Konvergenzstudie im Auf-
146 Niels Brggen und Ulrike Wagner

trag der Bayerischen Landeszentrale fr neue Medien (BLM). Bd. 101. BLM-
Schriftenreihe. Baden-Baden: Nomos, 2013.
Wagner, Ulrike, Niels Brggen und Christa Gebel. Persnliche Informationen
in aller ffentlichkeit? Jugendliche und ihre Perspektive auf Datenschutz und
Persnlichkeitsrechte in Sozialen Netzwerkdiensten. Teilstudie im Rahmen der
Untersuchung Das Internet als Rezeptions- und Prsentationsplattform fr
Jugendliche im Auftrag der Bayerischen Landeszentrale fr neue Medien (BLM).
Mnchen: JFF Institut fr Medienpdagogik in Forschung und Praxis, 2010.
URL: http://www.jff.de/dateien/JFF-Bericht_Datenschutz_Persoenlichkeitsrechte.
pdf (besucht am 09. 09. 2016).
Kritische Theorie des Privaten

Ortbestimmung einer Sozialkritik der Privatheit und ihre Verteidigung


Carlos Becker

Es gibt nichts Harmloses mehr.


(Th. W. Adorno)1

Kritische Sozialtheorien und die Kritische Theorie im Besonderen haben in ihren


verschiedenen Ausprgungen stets ein besonderes Augenmerk auf die Analyse
und Kritik gesellschaftlicher und individueller Alltagsroutinen gelegt. Hier lieen
sich am konkreten Material sozialer Handlungsvollzge die Wirkungsweisen und
Reproduktionsmechanismen sozialer Machtverhltnisse im Kleinen entschlsseln
und induktiv auf gesamtgesellschaftliche Zusammenhnge extrapolieren. Gera-
de die Alltglichkeit und vermeintliche Unschuldigkeit privater Handlungsakte
waren es, die ins Brennglas einer kritischen Gesellschaftsanalyse rckten; waren
mglicherweise doch genau dort die Grnde zu nden, die die Persistenz sozialer
Machtasymmetrien und pathologischer Gesellschaftsformationen erklren konnten.
Fr die Kritische Theorie und eine Vielzahl normativer Gesellschaftsanalysen war
das Private nie unschuldig. Im Gegenteil: Das Private wurde vielmehr verdch-
tigt, eben jener Ort zu sein, an dem sich Machtverhltnisse auf eine besonders
hinterlistige Weise perpetuieren, gerade weil private Handlungen von (politischen)
Rechtfertigungspichten befreit sind. Der folgende Text geht diesen theoretischen
Arbeiten nochmals nach, um eine Ortbestimmung der sozialtheoretischen Kritik
der Privatheit zu versuchen. Wie knnen und wie drfen wir das Private kritisieren?
Das Private ist von einer liberalen Theorietradition ja aus guten Grnden als genau
jene Sphre hervorgehoben werden, die einen berechtigten Anspruch formuliert,
eben vor der Mglichkeit der Kritik der in ihnen vollzogenen Handlungen und
Entscheidungen geschtzt zu sein. Wie also muss eine Kritik des Privaten verortet
werden, die nicht selbst zum Eingriff in die private Autonomie von Individuen
wird? Der Rckgriff auf Varianten kritischer Theorie verspricht nun vor allem auf

* Carlos Becker | Goethe-Universitt Frankfurt a. M. | ca.becker@em.uni-frankfurt.de


1 Adorno, Minima Moralia. Reexionen aus dem beschdigten Leben, S. 28.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_10
148 Carlos Becker

methodischer Ebene, den Blick auf eine spezische Form der Sozialkritik freizu-
legen, die das Private zu kritisieren vermag, ohne den Einzelnen dabei in seiner
Privatheit zu beschdigen. Eine solche Form der Kritik wird dabei letztlich nicht
nur zur Herausforderung fr liberale Privatheitskonzeptionen und der theoretischen
Grundannahmen, auf denen sie fuen. Sie erscheint vielmehr auch deshalb von
enormer Relevanz, weil gerade im Kontext digitaler Kommunikation das Private
zunehmend auch von den Akteuren selbst gefhrdet wird.
Im ersten Schritt soll dafr eine sozialtheoretische Perspektive in den Kon-
text der wissenschaftlichen Auseinandersetzungen mit Privatheit verortet werden
(Abs.1). Ein besonderes Augenmerk liegt dabei auf der spezischen Kritikform,
die normative sozialtheoretische Anstze im Gegensatz zu anderen Disziplinen
der Privatheitsdebatte auszeichnet. Der zweite Abschnitt spielt eine solche Kritik
exemplarisch an zwei Grundpfeilern der Privatheitsdebatte durch. Sowohl die Tren-
nung privat/politisch als auch ein spezisch liberales Autonomieverstndnis geraten
hierbei ins Brennglas einer sozialtheoretischen Kritik (Abs. 2). Der dritte Abschnitt
soll die sozialtheoretische Kritik privater Praktiken als Kritik von Lebensformen
verstndlich machen, in der private Handlungen (als spezische Lebenswege) zu
gemeinschaftlichen Gefgen (einer Lebensform) systematisiert und als solche kriti-
sierbar werden (Abs. 3). Im vierten Schritt soll gleichwohl deutlich werden, dass
auch die vorgestellten kritischen Sozialtheorien auf einen Begriff der Privatheit
nicht verzichten (Abs. 4). Dies soll im letzten Abschnitt auf die heutigen Diskus-
sionen um den rechtlichen, politischen und sozialen (konventionellen) Schutz der
Privatheit bezogen werden (Abs. 5). Dabei werde ich zuletzt fr eine Art Aufgaben-
teilung der Privatheitskritik pldieren, die erst als mehrdimensionales Projekt auf
soziale Wandlungsprozesse angemessen reagieren kann.

1. Ortsbestimmung der Sozialkritik


Der Ort einer Sozialkritik des Privaten lsst sich nur in Abgrenzung zu anderen
Disziplinen des Privatheitsdiskurses bestimmen. Dafr muss geklrt sein, wie sich
die unterschiedlichen Disziplinen der Privatheit theoretisch nhern. Im Gegensatz
zur politischen Philosophie oder Rechtswissenschaft, die sich wechselseitig etwa
im Bemhen ergnzen, die normative und legale Grenze und den Wert des Pri-
vaten fr Individuen und die Gesamtgesellschaft/Demokratie im Allgemeinen zu
bestimmen, setzt eine soziologische Betrachtung bei den konkreten Handlungs-
vollzgen und sozialen Praktiken an, die auf eine Idee der Privatheit verweisen
oder Privatheit als soziale Tatsache konstituieren. Das kann eine Analyse privater
Rume, Interaktionen, Beziehungsformen, Rollen oder Symbole umfassen, um
die sich soziologisch beobachtbare Handlungsstrukturen ausgebildet haben. Wie
Kritische Theorie des Privaten 149

etwa konstituiert sich handlungspraktisch ein privater Raum, den wir mit einem
Begriff der lokalen Privatheit schtzen? Was zeichnet ihn aus und wie werden
seine rechtlich-konventionell eingespielten Grenzen in Sozialbeziehungen tatsch-
lich in einem bestimmten kulturellen Kontext geregelt? Die Sozialtheorie nimmt
dafr im Besonderen die konventionellen, kulturell eingelebten und in je einzel-
nen Handlungsvollzgen strukturell reproduzierten Praktiken in den Blick, die
Privatheit als soziale Tatsache beschreibbar machen.2 Dabei lassen sich grob drei
miteinander verschrnkte Strmungen der sozialtheoretischen Beschftigung mit
Privatheit unterscheiden. Erstens wertneutrale Analysen gemeinhin als privat klassi-
zierter Handlungsvollzge; zweitens Sozialtheorien, die die Genese und Struktur
des Privaten als eigenstndige soziale Sphre oder Interaktionsverhltnis untersu-
chen; drittens eine sozialtheoretisch inspirierte Kritik des Privaten.3 Letztere soll
hier im Fokus stehen, wobei sich zeigen wird, dass die hier vorgestellten Anstze
gewissermaen quer zu dieser Einteilung liegen.
Nun muss sich die Soziologie als Wissenschaft jedoch selbst mit dem Verdacht
auseinandersetzen, die Privatheit der von ihr untersuchten Akteure auf ungerecht-
fertigte Weise zu verletzen und mit der Produktion von Wissen aus dem Material
privater Handlungen auch normierende Wirkungen zu entfalten. Wir haben uns
als Kinder der Moderne lngst daran gewhnt, da die Aufklrungswissenschaften,
deren Spitze die Soziologie einnimmt, mit Tabus brechen [. . .]. Was aber ist davon
zu halten, wenn die Wissenschaft von der Gesellschaft, vollends haltlos geworden,
in die Schlafzimmer unserer Privatwohnungen eindringt und sich zwischen Bett,
Nachttisch und Kleiderschrank voyeuristisch zu schaffen macht?4 Schon immer
war der Quellenschutz eine Kernfrage sozialwissenschaftlicher Forschung, doch mit
der zunehmenden ffentlichen Verfgbarkeit vermeintlich privater Informationen
im digitalen Strukturwandel stellt sich diese Frage nochmals neu. Wie umgehen
mit eigentlich privaten Informationen, die ffentlich fr jeden zugnglich sind?5
Diese Hrden werden freilich ungleich grer, wenn es zudem um eine normative
Sozialkritik der Privatheit geht, die darberhinaus im Verdacht steht, paternalistisch
in die je individuellen Lebensplne hineinzuregieren und dort schlimmstenfalls
normierende Wirkungen zu entfalten. Wie also kritisieren kritische Sozialtheorien
das Private?

2 Vgl. hierzu klassisch: Simmel, Soziologie: Untersuchungen ber die Formen der Vergesellschaf-
tung [1908], S. 383ff. Goffman, Wir alle spielen Theater; dazu auch: Bailey, Some Meanings
of the Private in Sociological Thought, S. 381ff.; Nissenbaum, Privacy in Context: Technology,
Policy, and the Integrity of Social Life, S. 69ff. Solove, Understanding Privacy.
3 Vgl. zur bersicht und einer etwas anderen Einteilung der sozialwissenschaftlichen Forschung
auch: Ochs und Lw, Un/Faire Informationspraktiken, S. 15ff.
4 Mller-Doohm, Die kulturelle Kodierung des Schlafens, S. 110.
5 Alber, Wie ffentlich ist das Private?, S. 73ff.
150 Carlos Becker

Auch hier scheint eine Bestimmung vor allem ber die Abgrenzung zu anderen
Disziplinen mglich. Eine Kritik des Privaten oder des Privatheitsschutzes kapri-
ziert sich etwa in der Rechtswissenschaft auf Adaptionsprobleme zwischen dem
rechtlichen Schutz und den sozialen Praktiken der Privatheit oder Ungleichheiten
im Privatheitsschutz. Wie etwa muss der rechtliche Schutz der Privatheit durch den
digitalen Strukturwandel neu konturiert werden? Wer ist durch Privatheitsverletzun-
gen oder auch den Schutz von Privatheit von bestimmten Formen der Ungleichheit
betroffen oder wo kollidiert der Schutz der Privatheit mit anderen Rechten?6 Wie
lsst sich Privatheit berhaupt rechtlich fassen, ist Privatheit der richtige Begriff
und welche sozialen Praktiken knnen wir mit einem individualisierten Privatrecht
berhaupt fassen?7
Die Debatten in der Politischen Theorie und Philosophie gehen in eine hnliche
Richtung. Auch hier verbindet sich mit dem Versuch der Bestimmung, was Privat-
heit berhaupt ist, zugleich eine kritische Reexion darber, warum wenn ber-
haupt Privatheit geschtzt werden sollte.8 Gerade fr einen gesamtgesellschaftlich
argumentierenden Theoriezusammenhang war das Private als vorpolitischer Raum
natrlich stets verdchtig, sich auf ungerechtfertigte Weise den Pichten und Bin-
dungskrften der Gesellschaft und Demokratie zu entziehen.9 Vor allem mit dem
Aufkommen des Internets verstrkt sich nun abermals das Bemhen, den Wert des
Privaten zu vermessen, um auch die Kritik des Privaten neu auszurichten. Innerhalb
der Politischen Theorie lassen sich dabei zwei zentrale Wege herausarbeiten, die
den Wert des Privaten entweder von der Idee privater Autonomie ableiten10 oder
auf eine Idee der Demokratie bzw. ffentlicher Autonomie verweisen.11 Hierbei
lsst sich wiederum unterscheiden, ob das Private entweder als lebensweltliche
Vorbedingung politischer Urteilsbildung und einer gelingenden demokratischen
Lebensform oder als notwendiger Bestandteil einer egalitren, kommunikativ freien

6 Vgl. dazu exemplarisch: Gusy, Eichenhofer und Schulte, e-privacy; Lever, Privacy, Democracy
and Freedom of Expression, S. 162-180; Allen, Privacy in American Law.
7 Vgl. etwa: Albers, Privatheitsschutz als Grundrechtsproblem, S. 15ff.
8 Vgl. hierzu auch die Unterteilung unterschiedlicher Phasen der Auseinandersetzung mit Privatheit
bei Rssler, Wie wir uns regieren.
9 Vgl. etwa die kommunitaristisch inspirierte Kritik von Etzioni, The Limits of Privacy; zur Kritik am
privatrechtlichen Staat: Der Staat hebt den Unterschied der Geburt, des Standes, der Bildung, der
Beschftigung in seiner Weise auf, wenn er Geburt, Stand, Bildung, Beschftigung fr unpolitische
Unterschiede erklrt und damit als private Unterschiede einer politischen Bearbeitung entzieht;
nur so ber den besonderen Elementen konstituiert sich der Staat als Allgemeinheit. Marx, Zur
Judenfrage [1844], S. 354.
10 Vgl. paradigmatisch Rssler, Der Wert des Privaten.
11 Vgl. fr einen demokratischen Pluralismus: Solove, Understanding Privacy, S. 98ff. fr eine Idee
kommunikativer/demokratischer Freiheit berblickshaft: Becker und Seubert, Privatheit, kommu-
nikative Freiheit und Demokratie.
Kritische Theorie des Privaten 151

demokratischen Selbstbestimmung verstanden wird.12 Auch hier gibt es groe


berschneidungen zu rechtwissenschaftlichen Debatte, doch steht fr die Politische
Theorie immer auch zur Debatte, ob Privatheit zur Realisierung jener normati-
ven Werte beitrgt, die zu ihrem Schutz aufgerufen werden und was das fr den
Schutz der Privatheit bedeutet.13 Das hat nicht zuletzt zur Folge, dass die Politische
Theorie der Privatheit zunehmend auch den formalen Zuschnitt einer liberalen Pri-
vatheitskonzeption in Frage stellt, indem die sozialen und politischen Bedingungen
individueller Autonomie mit in die Reexion aufgenommen werden.14
Trotz vielfltiger berschneidungen lsst sich eine sozialtheoretische Kritik des
Privaten nun nicht passgenau in das Schema der wechselseitig aufeinander ver-
weisenden Positionen der Rechtswissenschaft und Politischen Theorie einfgen.
Die Gestalt und der Wert der Privatheit erschlieen sich fr jene nmlich erst aus
der vorliegenden sozialen Praxis, die gleichsam darber Auskunft gibt, inwieweit
etwa der theoretisch erschlossene Wert der Privatheit auch auf sozialpraktischer
Ebene normative Geltungskraft entwickeln kann. Gerade weil damit die tatsch-
lichen Verwirklichungschancen der durch die Privatheit geschtzten normativen
Werte in den Blick geraten, kann eine sozialtheoretische Kritik der Privatheit auch
solche Gefhrdungen der Privatheit beschreiben, die sich aus der inhaltlichen Fl-
lung der formal-juridischen Leerstelle der Privatheit ergeben. Bestimmte innere
Gefhrdungen des Privaten, die sich aus den privaten Handlungsvollzgen der
Menschen selbst ergeben etwa aus in sich widersprchlichen Bezugnahmen auf
das Konzept der Autonomie , lassen sich erst mit einem theoretischen Instrumen-
tarium entschlsseln, das ber einen, dem modernen (Privat-)Recht unterliegenden,
negativen Freiheitsbegriff15 hinausreicht. Hier steht pltzlich in Frage, ob sich
individuelle Autonomie, zu deren Schutz die Privatheit aufgerufen wird, in den
konkreten privaten Handlungsvollzgen von gesellschaftlichen Akteuren tatschlich
realisiert. Ebenso aus dem Blick geraten externe Gefhrdungen, die sich durch die
lebensweltliche Reproduktion von privaten Handlungsvollzgen fr die Gesamtge-
sellschaft ergeben. Fr kritische Sozialtheorien war in den allermeisten Fllen eine
Kritik gesamtgesellschaftlicher Strukturen immer auch mit einer Kritik privater
Handlungsvollzge verbunden. Freilich steht eine solche kritische Reexion ber
individuelle Freiheitsausbung und privater Handlungspraxis vor groen methodi-
schen Herausforderungen, weil sie zwischen den Polen eines falschen Paternalismus

12 Seubert, Der gesellschaftliche Wert des Privaten.


13 Vgl. etwa: Lever, Privacy Rights and Democracy; aus feministischer Sicht: Rssler, Gender and
Privacy, S. 52ff. auch DeCew, Privacy, S. 85ff.
14 Vgl. umfassend: Rssler, Should Personal Data be a Tradable Good?
15 Vgl. zur Unterscheidung von negativer und positiver Freiheit klassisch: Berlin, Zwei Freiheitsbe-
griffe.
152 Carlos Becker

und einer falschen ethischen Enthaltsamkeit16 hindurch manvrieren muss. Eine


Sozialkritik der Privatheit muss folglich ber ein liberales Paradigma hinausge-
hen und sich in der Frage der Privatheit eben nicht enthalten. Will sie sich nun
aber selbst nicht verdchtig machen, die private Autonomie einzelner Akteure zu
beschdigen, muss sie gleichwohl auch eine Grenze der Kritik benennen, die das
Private selbst schtzt. Dies soll in den folgenden Abschnitten exemplarisch an zwei
Beispielen untersucht werden.

2. Zu einer kritischen Theorie des Privaten


ber jemanden, der sich ernsthaft darber emprt, dass sein Gegenber Bananen
isst oder rote Cowboystiefel trgt, wird man lachen.17 Es sind solche privaten
Geschmacks- und Modefragen, die aus guten Grnden als unpolitisch gelten. Man
kann sich schwerlich eine sinnvolle Debatte darber vorstellen, ob es richtig oder
falsch ist, Bananen zu essen oder rote Cowboystiefel zu tragen.18 Das gilt zumin-
dest so lange, wie der private Geschmack keine symbolische Funktion besitzt. Wie
etwa hlt man es mit den Springerstiefeln neo-faschistischer Gruppierungen? Was
passiert, wenn die Banane zum Symbol rassistischer uerungen wird? Genau
hier zeigen sich erste Risse in der kategorialen Unterscheidung zwischen dem
Privaten und dem Politischen, die auch die Trennung zwischen dem moralisch
Richtigen und dem ethisch Guten aufweichen.19 Vielleicht gibt es tatschlich pri-
vate Geschmacksfragen, die wirklich unpolitisch sind; und dennoch ist der private
Geschmack auch abseits offensichtlicher Symbolisierung nie frei von politischen
Gehalten, die zugleich auf bestimmte Rechtfertigungspichten des Privaten ver-
weisen. Veranschaulichen kann das vielleicht der folgenden Fall: 1839 war es
elegant, beim Promenieren eine Schildkrte mit sich zu fhren. Das gibt einen
Begriff vom Tempo des Flanierens in den Passagen.20 Was sich im Kontext einer
um Zeit ringenden Moderne zunchst wie eine bizarre Angewohnheit vergangener
Epochen ausnimmt und allenfalls anekdotischen Charakter zu haben scheint, deutet
Walter Benjamin systematisch: Der Miggang des Flaneurs ist eine Demons-

16 Jaeggi, Kritik von Lebensformen, S. 18.


17 Ebd.
18 Ebd.
19 Schon dieses Beispiel macht deutlich, wie schwer die Trennung von privater Geschmacksfrage und
politischem Statement ist: Ist Mode als Symbol der Gruppenzugehrigkeit, Element von Subjek-
tivierungsprozessen oder Statuszuordnungen schon politisch oder muss Mode explizit politische
Botschaften verbreiten? Ist sie Ausdruck einer privaten Geschmacksfrage oder einer Lebensform;
was heit das fr den politischen Umgang damit? Vgl. dazu auch: Kaiser, Fashion and Cultural
Studies; auch Bourdieu, Die feinen Unterschiede, S. 322ff. (auch in Bezug zur Privatheit).
20 Benjamin, Das Passagen-Werk, S. 532.
Kritische Theorie des Privaten 153

tration gegen die Arbeitsteilung.21 Die Schildkrte als privates Accessoire wird
zum Ausdruck einer aufreizenden Entschleunigung, die sich gegen den rationalisie-
renden Zeitdruck des aufkommenden Kapitalismus richtet. Neben der Darstellung
des kritischen Impulses einer privaten Praxis ist die Methode entscheidend, die
Benjamin whlt: Er nimmt alltgliche Praktiken und Objekte in den Blick das
Gehen, den Brgerssteig und macht diese zum Gegenstand einer normativen
Gesellschaftsanalyse. Die Schnelligkeit, die Zielgerichtetheit des grostdtischen
Gehens lsst sich mit Benjamin als Ausdruck einer lebensweltlichen Rationali-
sierung begreifen, die dem Takt des Taylorismus gem keine Langsamkeit mehr
duldet und das Flanieren an sich zur Zeitverschwendung degradiert. Man mag
das Gehen fr eine zu vernachlssigende soziologische Kategorie halten, doch
offenbart sich in der soziologischen Analyse dieses letztlich hchst privaten Aktes
bereits die Ambivalenz eines politisch gereinigten Privatheitsbegriffs.22 Denn das
Gehen wie etwa die berhmte soziographische Studie von Jahoda und Lazardsfeld
ber die Arbeitslosen in Marienthal gezeigt hat ist nie blo privates Vergngen,
sondern es bildet in seiner Geschwindigkeit, im habituellen Auftritt23 gesellschaft-
liche Strukturen ab und zeigt soziale Spaltungen an, die durch das bloe Gehen
reproduziert werden. Wer zu langsam geht, wer gar stehen bleibt, dem wird schon
durch die Gehgeschwindigkeit der anderen deutlich, dass innerhalb der skizzierten
Gesellschaftsordnung keine Verwendung mehr fr ihn besteht.24 Er fllt aus der
zeitlichen Ordnung der Gesellschaft, die sich machtvoll in die Rhythmik des Gehens
einschreibt.
Was hier nur illustrativen Zwecken dient, lsst sich gleichwohl systematisch zum
Problem fr die Diskussion um den Schutz und Wert des Privaten erweitern. Die
gesellschaftliche Durchdringung des Privaten ist strukturell mit der Durchdringung
des Privaten durch soziale Machtverhltnisse verschlungen und lsst die Antwort
auf die Frage schwammig werden, was politisch und was privat, d. h. was aus guten
Grnden politischen Rechtfertigungsprozessen enthoben ist. Das gilt vor allem
dann, wenn sich sozialtheoretisch nachweisen lsst, dass sich im Privaten und ganz
besonders dadurch, dass etwas als privat gilt, soziale Machtstrukturen reproduzie-
ren und sich mglicherweise auch durch die Art fortsetzen, in der Menschen ihre
subjektive Freiheit konzipieren. Was hier in der alltglichsten Praxis des Gehens
nur illustriert werden sollte, entfaltet seine ganze Problematik freilich dann, wenn
das Private nicht nur zum zentralen Motor des Fortbestehens sozialer Ungleichheit,
sondern gleichsam zur entscheidenden Ressource einer diese Ungleichheiten bedin-
21 Ebd., S. 538.
22 Vgl. dazu auch Vergunst und Ingold, Ways of walking; Blomley, Rights of Passage.
23 Vgl. zu den Unterschieden krperlicher Platzierung: Bourdieu, Die feinen Unterschiede, S. 309ff.,
325ff.
24 Jahoda und Lazarsfeld, Die Arbeitslosen von Marienthal, S. 83ff.
154 Carlos Becker

genden konomischen Ordnung wird. Die konomische Durchsetzung des Privaten


kann dabei grob zwei Wege nehmen: Entweder wird das Private (z. B. Daten oder
Eigentum) direkt zur Ressource konomischer Kommodizierung25 oder als pri-
vater Haushalt zur Umwelt eines sich ausbreitenden konomischen Systems,
dessen zentrales Anliegen die mglichst subkutane Steuerung eines freiwilligen
Konsumverhaltens ist.26 In beiden Fllen setzt eine Kritik solcher Handlungsvoll-
zge im Inneren der Privatheit an und fragt von dort aus nach den Grnden des
Gelingens oder Misslingens individueller Freiheit im Rahmen der als privat klassi-
zierten Lebenswelten. Genau solche Bedrohungen des Privaten und ihr zugleich
bedrohliches Potenzial geraten jedoch aus dem Blick eines klassisch liberalen oder
juridischen Diskurses um den Schutz der Privatheit.27 Im Folgenden will ich zwei
zentrale Grundpfeiler der liberalen Deutung der Privatheit in den Blick nehmen und
mit den Einsichten kritischer Sozialtheorie konfrontieren.

a) Privat/ffentlich. Es war nicht zuletzt Pierre Bourdieu, der einen Groteil


seines akademischen Schaffens darauf ausgerichtet hat, nach den Grnden der
Stabilitt einer Gesellschaftsordnung zu fragen, die von massiven Ungleichheiten
gekennzeichnet war. Wie lie sich erklren, dass eine soziale Ordnung trotz dieser
inneren Spannungen nicht auseinanderel? Bekanntlich hat Bourdieu dies zum
Anlass genommen, den soziologischen Blick gerade auf jene Handlungsstruktu-
ren zu legen, die gemeinhin als privat oder gar unbewusst gelten, um im Kleinen
die Wirkungsweisen sozialer Machtverhltnisse zu untersuchen.28 Gerade in den
feinen Unterschieden privater Geschmacksfragen, in den unverdchtigen All-
tagsroutinen gesellschaftlicher Praxis, im habituellen In-Kontakt-Treten mit der
sozialen Welt offenbarten sich pltzlich die Grben sozialer Statuskmpfe, die sich
als feines, subkutan wirkendes Netz in die Strukturen je privater Handlungsvollzge
eingeschrieben haben. Wie jemand spricht, welches Essen, welche Kunst, welche
Musik jemand bevorzugt, wie er sich in sozialen Rumen bewegt und krperlich
platziert, konnte nach Bourdieu nicht mehr als unverdchtige individuelle Eigenart
oder Geschmacksfrage abgetan werden, sondern lie sich zunchst als klassen- oder
milieuspezische Ausprgung der Alltagskultur begreifen, die sich dann als sozial-
25 Vgl. schon hier: Rssler, Should Personal Data be a Tradable Good?, S. 141ff.; Sevignani, The
commodication of privacy, S. 733ff.
26 Vgl. zur Idee des Privaten als Systemumwelt konomischer Imperative, die das Private koloniali-
sieren: Habermas, Theorie des kommunikativen Handelns, Bd. 2, S. 470ff.
27 Das gilt freilich nicht fr alle Anstze, die sich im weitesten Sinne auf ein liberales Verstndnis
der Privatheit beziehen. Vgl. etwa Rssler, Should Personal Data be a Tradable Good?; Seubert,
Emanzipation und Beherrschung, S. 89ff.
28 Vgl. fr den folgenden Abschnitt: Bourdieu, Die feinen Unterschiede, S. 143ff.; Was heit spre-
chen?, S. 66ff.; Entwurf einer Theorie der Praxis, S. 164ff.; Bourdieu und Eagleton, Doxa and
Common Life, S. 265ff.
Kritische Theorie des Privaten 155

strukturelle Reproduktion gesellschaftlicher Machtverhltnisse entrtseln lie.29


Wie sich Menschen in privaten Interaktionen zueinander, wie sie sich zur sozialen
Welt verhalten ist fr Bourdieu stets aus sozialen Statuspositionen erklrbar und
zugleich der zentrale Mechanismus ihrer Reproduktion. Damit wird, wie im obigen
Beispiel angedeutet, der Raum privater Praxis gleichsam fr eine sozialtheoretische
Kritik geffnet, weil private Handlungen nicht nur Produkt, sondern zugleich Erzeu-
gungsprinzip sozialer Macht sind. Auch wenn man Bourdieus Determinismus und
seiner totalisierenden Macht- und Kapitaltheorie nicht folgen mag, kann er dennoch
berzeugend nachweisen, wie private Handlungsvollzge mit gesellschaftlicher
Macht verschrnkt sind und als solche einer sozialen Rechtfertigungspicht unterlie-
gen. Privatheit ist in sozialtheoretischer Hinsicht nie vorsozial; vielmehr lassen sich
private Handlungen als gesellschaftlich vermittelte kritisieren und auf ihren Beitrag
zur Reproduktion ungleicher Machtverhltnisse befragen. Das umfasst zugleich
eine kritische Infragestellung des Privatheitsstatus privater Handlungen (als solche,
die von Rechtfertigungspichten befreit sind) als auch eine Kritik der privaten
Handlungsvollzge selbst (als Ausdruck einer machtausbenden Lebensform etwa).
Michel Foucault hat aus theoretisch ganz anderer Perspektive eine hnliche
Fragestellung in den Blick genommen, die ich in aller Krze an zwei Beispie-
len diskutieren mchte. So zeigt er in seinen Studien zur Sexualitt, wie sich
gesellschaftliche Machtformationen hnlich wie bei Bourdieu nicht nur in die
Ausdrucksformen krperlicher Praxis einschreiben, sondern wie auch die intimsten
Formen sozialer Interaktion, wie wir sie beim Sex vornden, durch gesellschaftliche
Normierungen gekennzeichnet sind und sich soziale Machtverhltnisse bis in die
innerpsychische Triebkonomie eingravieren. Dabei reproduziert sich gleichsam
die gesellschaftliche Vorgabe gesunder Sexualitt im je einzelnen Handlungsakt
(auch in Abgrenzung zu ihr) und perpetuiert ihre normierende Wirkung.30 Hier zeigt
sich freilich die ganze Ambivalenz einer sozialtheoretischen Kritik der Privatheit
auf einen Schlag: Sexualpraktiken gelten aus guten Grnden als privat und doch
war genau die private Natur der Sexualitt oft Deckmantel fr massive seelische
und krperliche Verletzungen (etwa bei Vergewaltigungen in der als Privatraum
geschtzten Institution der Ehe). So schtzt die normierende Vorstellung einer

29 Vgl. auch in Bezug zu den obigen Ausfhrungen zum Gehen: Die krperliche Hexis [. . .] stellt
eine praktische Weise der Erfahrung und uerung des eigenen gesellschaftlichen Stellenwerts dar:
Das eigene Verhltnis zur sozialen Welt und der Stellenwert, den man sich in ihr zuschreibt, kommt
niemals klarer zur Darstellung als darber, in welchem Ausma man sich berechtigt fhlt, Raum
und Zeit des anderen zu okkupieren genauer den Raum, den man durch den eigenen Krper in
Beschlag nimmt, vermittels einer bestimmten Haltung, vermittels selbstsicher-ausgreifender oder
zurckhaltend-knapper Gesten [. . .], wie auch die Zeit, die man sprechend und interagierend auf
selbstsichere oder aggressive, ungenierte oder unbewute Weise in Anspruch nimmt. Bourdieu,
Die feinen Unterschiede, S. 739.
30 Vgl. hierzu Foucault, Der Wille zum Wissen, S. 28ff.
156 Carlos Becker

gesunden Sexualitt zum einen vor sexuellen Verletzungen, zum anderen gehen
mit ihnen zugleich Vorstellungen ungesunder, anormaler Sexualitt einher, die
bestimmte private Vorlieben, Konstellationen und Rume per se pathologisieren.
Seelische Verletzungen, die hier auftreten knnen, mssen sich dabei nicht nur in
direkten bergriffen, sondern knnen sich auch in normierenden Bildern gesun-
der oder geschlechtlich xierter Sexualitt uern.31 So schreiben sich auch im
intimsten Bereich der Sexualbeziehungen gesellschaftliche Machtprozesse ein und
fort, die zugleich die Schwierigkeit eines politischen Liberalismus offenbaren, sich
gegenber privaten Handlungsakten in diesem Sinne neutral zu verhalten.32 Gerade
Letzteres scheint nun insbesondere jene Argumente nochmals zu wiederholen, die
bereits eine feministische Kritik am Begriff der Privatheit gebt hat; und tatschlich
erweist sich die Diskussion in Teilen als deckungsgleich, denn auch hier wird
zunchst die These verteidigt, dass das Private politisch ist. Doch unterscheidet sich
die hier vorgeschlagene Rekonstruktion einer normativen Sozialkritik der Privat-
heit (oder der Trennung von Privatheit und ffentlichkeit) in zwei Punkten: Zum
einen hlt sie weiterhin an der Idee der Privatheit fest; kritikwrdig ist nicht das
Private an sich. Es wird dann problematisiert, wenn sich private Handlungsakte
als rechtfertigungsbedrftig erweisen, weil sie soziale Machtverhltnisse erzeugen
oder fortschreiben und als solche aus dem Blick einer liberalen Idee des Privat-
heitsschutzes fallen; zum anderen bezieht sich die Kritik nicht auf die konkrete
einzelne Handlung, sondern als sozialtheoretische Kritik auf ein Ensemble privater
Praktiken.

b) Autonomie. Foucault hat auf der anderen Seite mit der Idee der Gouverne-
mentalitt die Unterscheidung privat/ffentlich gar in direkter Auseinandersetzung
mit den politischen Ausformungen des (Neo)Liberalismus problematisiert, dabei
jedoch bereits einen anderen hier relevanten Aspekt im Auge gehabt. Gouvernemen-
talitt bezeichnet fr ihn eine gesellschaftliche Regierungsform, in der Regierung
dezentral verstanden wird und sich zwischen einem Netz gesellschaftspolitisch-
institutioneller Vorgaben und subjektiver Handlungsziele aufspannt, die sich kon-
gruent zueinander verhalten.33 Am Beispiel einer neoliberalen Ethik der Selbst-
verantwortung kann Foucault etwa deutlich machen, wie sich gesellschaftliche
Machtordnungen gar in die subjektiven Vorstellungen freiheitlicher Selbstverwirk-

31 Vgl. Foucault, Sex, Macht und die Politik der Identitt, hier insb. S. 305ff.
32 Freilich knnte genau diese Ambiguitt der Privatheit als zugleich schtzenswertes wie kritikwr-
diges Gut auf jene Aufgabenteilung hinauslaufen, deren Verteidigung sich dieser Text zur Aufgabe
gemacht hat.
33 Vgl. Foucault, Geschichte der Gouvernementalitt; ebenfalls: Brckling, Krasmann und Lemke,
Gouvernementalitt der Gegenwart.
Kritische Theorie des Privaten 157

lichung und krperlicher Praxis einschreiben.34 Gouvernementalitt bezeichnet


damit letztlich eine Form machtvoller Selbstregierung, die den gesellschaftlichen
Vorgaben gelingender Subjektwerdung folgt. Auf diese Weise schreiben sich jedoch
gesellschaftliche Machtdispositive in die privaten Handlungsziele ein, die gleich-
sam auf ein bestimmtes Ideal individueller Freiheit rekurrieren und individuelle
Freiheitsvorstellungen und Identittskonzeptionen von innen her reglementieren.
Der gesunde Krper, die Ausrichtung individueller Lebensziele an den Anforderun-
gen einer das Private zusehends vereinnahmenden Arbeitsethik, die konomische
Selbstdisziplinierung all das sind Beispiele einer die private Autonomie perforie-
renden gesellschaftlichen Normierung des gelingenden Lebens, die die Ausformung
individueller Autonomie trotz aller Schutzversprechen nicht unangetastet lassen.35
Gerade Judith Butler hat im Nachgang zu Foucault versucht, die Ausprgung
individueller Selbstwerdung, die gleichsam die Idee subjektiver Handlungsfhigkeit
und Autonomie umfasst, in den Kontext gesellschaftlicher Subjektivierungsord-
nungen zu stellen. Subjektwerdung ist fr sie immer ein Unterwerfungsprozess
unter die gesellschaftlichen Kategorien dessen, was diskursiv berhaupt als Subjekt
gelten kann und als solches gesellschaftlich anerkannt wird. Das gilt zunchst auf
existenzieller Ebene bei der Zuweisung von Geschlechtlichkeit oder psychischer
Gesundheit, die zugleich gesellschaftlich darber entscheidet, wie das Individuum
sozial verortet wird oder ob es berhaupt als handlungsfhiges Subjekt anerkannt
wird. Subjektwerdung grndet sich damit fr Butler ganz basal zunchst auf der
heteronomen Zuweisung eines Subjektstatus von auen.36 Diese Unterwerfung
verlngert sich jedoch auch graduell in weniger existenzielle Bereiche der eigenen
Identitt. Diskursive Anerkennungsordnungen fungieren bei Butler etwa auch als
Instanzen, die darber entscheiden welches Subjektnarrativ welche soziale Anerken-
nung verdient. Soziale Machtverhltnisse schreiben sich damit in die Art und Weise
ein, wie wir uns selbst verstehen und wie wir uns als anerkennungswrdiges Subjekt
selbst entwerfen; letztlich auch, wie wir uns als freies Subjekt denken. Fr Butler
werden Individuen im Anschluss an Althusser diskursiv als bestimmte Subjekte
durch eine gesellschaftliche Machtordnung angerufen und entwickeln gleichsam
von innen heraus ein Begehren, dieser Anerkennung versprechenden Anrufung
zu entsprechen.37 Autonomie ist damit zugespitzt an die Unterwerfung des Selbst
unter Subjektivittsnarrative gekoppelt, die in einer bestimmten Gesellschaft qua
Anerkennung Handlungsfhigkeit und damit Autonomie berhaupt erst garantieren.

34 Vgl. zum besonderen Verhltnis der neuen Regierungs- und Machtformen, die Foucault hier im
Blick hat: Lemke, Gouvermentalitt und Biomacht.
35 Vgl. hierzu auch Laufenberg, Sexualitt und Biomacht, S. 177ff.
36 Vgl. fr den folgenden Abschnitt: Butler, Das Unbehagen der Geschlechter, S. 22ff.; Noch ein-
mal, S. 52ff.; Die Macht der Geschlechternormen und die Grenzen des Menschlichen, S. 35ff.
37 Butler, Psyche der Macht, S. 101ff.
158 Carlos Becker

Nicht zuletzt die ltere Kritische Theorie hat genau dieser antinomischen Figur
der Autonomie groe Aufmerksamkeit gewidmet. Auch hier sind es vor allem
methodische berlegungen, die mich interessieren, so dass ich etwaige und bereits
breit diskutierte sozialtheoretische Einsprche auen vor lasse. Horkheimer und
Adorno versuchen etwa im berhmten Kapitel zur Kulturindustrie in der Dialektik
der Aufklrung zu zeigen, wie sich konomische Imperative ber massenmediale
Kanle in die Bedrfnisstrukturen von Individuen einschreiben. Dabei zeichnen
die Autoren ein Zirkel von gesellschaftlich unerfllten Bedrfnissen nach einem
gelingenden und ffentlich anerkannten Leben und dem stets scheiternden Versuch
nach, diese Bedrfnisse durch massenmediale Produktionen zu befriedigen. Die
These ist, dass die massenmedial verbreitete Standardisierung dessen, was als
ntzliches Leben oder gelingende Subjektivitt gilt, oder die simple Exklusivitt
dessen, was medial berhaupt zur Sprache kommt, zu einem umfassenden Bedrfnis
fhrt, sich diesen ausgefahrenen Assoziationsgleisen38 standardisierter Subjekt-
und Handlungskonzeptionen gem zu verhalten vielleicht gar im Namen der
eigenen Freiheit, die zunehmend nach Gesetzen [operiert], die man als ichfremd
erfhrt.39
Was Horkheimer und Adorno in berspitzer Darstellung zeigen wollen, ist,
dass die kulturindustrielle Produktion sich durch eine bestimmte Form der Gleich-
frmigkeit der Darstellung gesellschaftlicher Wirklichkeit auszeichnet, die auf
hintergrndige Weise zugleich performativ festlegt, was anerkennungswrdiger
Teil dieser gesellschaftlichen Wirklichkeit ist und bei den Individuen dazu fhrt,
diesen kulturellen Anforderungen entsprechen zu wollen. In der Kulturindustrie
ist das Individuum illusionr nicht blo wegen der Standardisierung ihrer Produkti-
onsweise. Es wird nur so weit geduldet, wie seine rckhaltlose Identitt mit dem
Allgemeinen auer Frage steht.40 Das stetige Scheitern, der medial verbreite-
ten biographischen Perfektion zu entsprechen, fhrt fr Horkheimer und Adorno
alsbald zur inneren Aushhlung und Entleerung individueller Selbstbestimmung,
die sich nicht mehr an sich selbst, sondern an den medial verbreiteten Bildern
und Hllen gelingender Subjektivitt orientiert und von innen her austrocknet.41
Das gilt fr die Autoren vor allem deshalb, als gelingende Subjektivitt immer
auch mit bestimmten Vorgaben des Verfgens ber bestimmte materielle Gter
einhergeht, der die Bilder eines gelingenden Lebens mit bestimmten Formen des
konomischen Konsums kurzschliet.42 ber die medial und gesellschaftlich ver-

38 Horkheimer und Adorno, Dialektik der Aufklrung, S. 162.


39 Adorno, Negative Dialektik, S. 221.
40 Horkheimer und Adorno, Dialektik der Aufklrung, S. 181.
41 Vgl. dazu auch: Seubert, Emanzipation und Beherrschung.
42 Vgl. Rssler, Should Personal Data be a Tradable Good?, S. 141ff.; Sevignani, The commodi-
cation of privacy, S. 733ff.
Kritische Theorie des Privaten 159

breiteten Narrative gelingender Subjektivitt dringt eine politische konomie in


die Vorstellungen individueller Selbstverwirklichung ein, die bis in die je indivi-
duelle Bedrfnisstruktur hineinreicht und dort pathologische Wirkungen zeitigt.
Private Handlungsvollzge werden hier von innen bedroht, weil sich subjektive
Handlungsziele nicht nur als Produkte gesellschaftlicher Machtformationen zeigen,
sondern weil sie selbst im Versuch der Erfllung dieser gesellschaftlich wirksamen
Ansprche zugleich zur Reproduktion dieser Machtformationen beitragen. Je
fester die Positionen der Kulturindustrie werden, um so summarischer kann sie
mit dem [privaten] Bedrfnis der Konsumenten verfahren, es produzieren, steuern,
disziplinieren.43 Pltzlich werden individuelle Selbstverwirklichung und innerpsy-
chische Triebkonomie selbst rechtfertigungsbedrftig, wenn sich zeigen lsst, dass
diese entscheidende Teile im Zirkel von Manipulation und rckwirkendem Be-
drfnis44 sind und als solche gesellschaftliche Macht ausben. Letztlich ist auch
Adornos Minima Moralia genau dem Versuch gewidmet, Alltagsphnomene als
bis ins Leiblich-Geistliche hineinreichende Ausdrucksgestalten der kapitalistischen
Lebensform45 zu dechiffrieren und auch die alltglichen Routinen und privaten
Handlungsminiaturen einer Kritik zu unterziehen, weil sie sich im Gefge gesell-
schaftlicher Sozialbeziehungen als enorm machtvoll erweisen. Davon bleibt auch
die Idee der Freiheit nicht unberhrt, die sich fr Adorno in der gesellschaftlichen
Praxis auf pathologische Weise mit konomischen Prinzipien der Nutzenkalku-
lation und (innerpsychischen) Rationalisierung verbindet. Als solche ist private
Selbstverwirklichung, ist private Subjektkonstitution nie harmlos. Sie knnen zu
Vehikeln gesellschaftlicher Machtordnungen werden und lassen sich als solche
auch kritisieren.

3. Kritik der Privatheit oder Kritik von Lebensformen


Nun stellt sich freilich die Frage, ob es sich in den skizzierten Fllen tatschlich um
eine Kritik der Lebensfhrung von jeweils konkreten Einzelnen handelt. Es hatte
sich bereits oben gezeigt, dass es einer sozialtheoretischen Kritik der Privatheit
darum nicht gehen kann. Natrlich knnen wir uns Flle vorstellen, in denen das
private Handeln Einzelner direkt Schaden anrichtet und dieses Handeln tatschlich
allein auf der individuellen Entscheidung eines einzelnen Individuums beruht und
damit Kritik verdient. Eine solche Kritik liee sich von zwei Seiten formulieren:
Zum einen knnte ein solches Verhalten auf der Grundlage eines liberalen harm
principle kritisiert werden. Als Privatperson anderen zu schaden, bedeutet nicht nur

43 Horkheimer und Adorno, Dialektik der Aufklrung, S. 170.


44 Ebd., S. 145.
45 Honneth, Eine Physiognomie der kapitalistischen Lebensform, S. 165ff.
160 Carlos Becker

einen unrechtmigen Eingriff in die Freiheit des/der Anderen, sondern auch eine
formale Verletzung des Gleichheitsprinzips wechselseitig zuerkannter Freiheiten.46
Auf der anderen Seite knnten wir das Verhalten auch inhaltlich kritisieren und
hypothetisch aufzeigen, dass es gar nicht im Interesse des Einzelnen sein knnte, in
dieser Form zu handeln. Eine solche therapeutische Kritik47 wrde nun tatschlich
den konkreten Lebensentwurf oder die Lebensfhrung des Einzelnen kritisieren und
etwa auf innere Widersprche von Wnschen und Interessen hin befragen. Es wird
schnell deutlich, dass letztlich beiden Optionen fr eine sozialtheoretische Kritik
der Privatheit ausscheiden. Der eine Weg formuliert keine inhaltliche Kritik an
privaten Handlungen, der andere Weg nimmt private Handlungen nur als je einzelne
private Handlungen in den Blick. Genau zwischen diesen beiden Optionen der
ethischen Enthaltsamkeit eines (politischen) Liberalismus und der (mglicherweise
paternalistischen) therapeutischen Kritik individueller Lebensfhrung verortet sich
nun eine sozialtheoretische Kritik der Privatheit. In allen vorgestellten Positionen
ging es ja gerade nicht darum, dem Einzelnen konkret vorzuschreiben wie er sein
Leben zu fhren hat, sondern das jeweils einzelne private Handeln als sympto-
matisch fr eine soziale Praxis, als Teil eines kollektiven Gefges zu deuten, das
gesellschaftliche Machtordnungen stabilisiert, reproduziert oder konstituiert. Es
geht darin um eine Kritik von Lebensformen und kollektiven Handlungsmustern,
die sich in jeweils privaten Handlungsakten reproduzieren.48
In Anschluss an Rahel Jaeggi lassen sich Lebensformen nun als Gefge sozia-
ler Praktiken verstehen, die sich soziologisch beschreiben lassen. hnlich wie in
Milieu- oder Feldtheorien zeichnen sich Lebensformen hier durch eine Materiali-
sierung und Institutionalisierung sozialer Handlungen und durch die Gewohnheit
und kulturelle Eingelebtheit von sozialen Praktiken aus. Soziale Praktiken sind
dabei als verstetigte Handlungsabfolgen zu verstehen, die im Zusammenspiel mit
normativen Leitbildern eine Lebensform konstituieren.49 Lebensformen lassen sich
nach Jaeggi dabei als Komplexe verstehen, die pragmatistisch gewendet auf
gesellschaftliche Problemlsungen ausgerichtet sind. Sie sind teilgesellschaftliche
Entwrfe dessen, wie ein gutes Leben im Angesicht gesellschaftlicher Herausfor-
derungen zu fhren ist und rahmen sowohl soziale Problemlsungsstrategien als
auch gesellschaftliche Lernprozesse, die sich im Verlauf und Nachgang von Krisen
einstellen. Jaeggi macht nun auch in Auseinandersetzung und Abgrenzung mit
46 Das knnte etwa in radikaler Form auf das genannte harm principle hinauslaufen, mit dem wir
sowohl die schdigende Wirkung des Verhaltens auf die Freiheitsausbung anderer wie auch die
Ungleichheit kritisieren knnen, die mit der Aufkndigung der Reziprozitt einhergeht. Vgl. Mill,
ber Freiheit, S. 21ff.
47 Vgl. zum Begriff der therapeutischen Kritik: Habermas, Theorie des kommunikativen Handelns,
Bd. 1, S. 42f.
48 Vgl. zu einem solchen Verstndnis: Jaeggi, No Individual can resist, S. 65ff.
49 Vgl. Jaeggi, Kritik von Lebensformen, S. 67ff.
Kritische Theorie des Privaten 161

den hier vorgetragenen Positionen kritischer Sozialtheorie deutlich, dass sich


die Kritik von Lebensformen als interne Kritik zu entwerfen hat. Lebensformen
knnen damit nicht im avantgardistischen Gestus marxistischer Ideologietheorie
einfach als falsch klassiziert werden,50 sondern daraufhin befragt werden, ob
sie ihrem Begriff entsprechen d. h. ob die normativen Leitbilder (etwa Vorstel-
lungen der Freiheit oder Gerechtigkeit) mit der sozialen Praxis ihrer etwaigen
Verwirklichung zusammenhngen oder ob sie die Probleme wirklich lsen kn-
nen, fr deren Lsung sie gesellschaftlich auf- und eintreten.51 Das umfasst letztlich
auch eine Analyse von gelingenden oder dezitren Lernprozessen, die Lebens-
formen daraufhin unterscheiden, wie sie auf gesellschaftliche Krisenphnomene
problemlsend reagieren und ob die Problemlsung dem Niveau der Problemlage
entspricht.52 Zentral fr die hiesige Fragestellung ist nun, dass sich Lebensformen
als Gebilde begreifen lassen, die zugleich politische und private Fragen, zugleich
ethische und moralische Aspekte umfassen. Lebensformen sind als Ensembles
privater Handlungsabfolgen politisch. Sie reproduzieren als Gefge habitueller
Verhaltensstrukturen, Subjektivittsnarrative, sozial eingelebter Freiheitsvorstellun-
gen und struktureller Bedrfnisdispositionen eine gesellschaftliche Ordnung, die
durch Machverhltnisse gekennzeichnet ist. Also solche lassen sich Lebensformen
nicht nur intern kritisieren (also ob sie gelingen, ob sie z. B. individuelle Freiheit
ermglichen), sondern auch extern kritisieren (ob sie selbst Macht ausben, also
z. B. hegemonial werden). Dabei lassen sich Lebensformen entweder als Ganzes
kritisieren oder das private Verhalten Einzelner, das als symptomatischer, als bei-
spielhafter Ausdruck einer kritikwrdigen Lebensform enttarnt und kritisiert wird.
Auch hier geht es nicht direkt um das tatschlich private, je einzelne Verhalten,
sondern um die Reproduktion eines sozialen Handlungsmusters, das als solches
einer sozialtheoretischen Kritik zugefhrt werden soll. Eine tatschliche Kritik des
individuellen, privaten Verhaltens knnte nur dann relevant werden, wenn es etwa
um die (bruchlose, kritiklose, unreektierte) Partizipation an einer Lebensform geht,
die wiederum einer sozialtheoretischen Kritik zugefhrt werden soll. Aber letztlich
ginge es auch hier um eine therapeutische Kritik, die sowohl methodisch als auch
(theorie)politisch dezidiert von einer Sozialkritik der privater Handlungsakte unter-
schieden werden msste. Eine Kritik von Lebensformen fokussiert demnach auf
soziologisch beschreibbare Handlungsmuster, die sich im Privaten reproduzieren.
Die kritische Diagnose privater Handlungsakte und individueller Freiheitsvorstel-
lungen ist demnach nie auf den konkreten Einzelnen ausgerichtet, sondern auf
kollektive Handlungsmuster, die sich symptomatisch in den privaten Handlungen
Einzelner zeigen.
50 Vgl. dazu Jaeggi, Was ist Ideologiekritik?, S. 266ff.
51 Vgl. Jaeggi, Kritik von Lebensformen, S. 227.
52 Vgl. ebd., S. 332ff.
162 Carlos Becker

4. Zurck zur Privatheit?


Sowohl die letzten Ausfhrungen als auch die vorgestellten Anstze machen nun
gleichermaen deutlich, das mit der Kritik des Privaten gerade nicht gemeint sein
kann, die Privatheit als Konzept im Ganzen zu verwerfen. Ob Butler, Bourdieu,
Foucault, Horkheimer oder Adorno: Sie alle treffen sich letztlich in der wie auch
immer ausgearbeiteten Vorstellung, dass das Private weiterhin als zentraler Ort
individueller Freiheit und Befreiung Bestand haben muss. Adornos Fundamentalkri-
tik der kapitalistischen Moderne erkennt die residualen Reste individueller Freiheit
in den vorsozialen Erfahrungen moderner Kunst und Musik. Die begrifich und
sozial nicht vorgeprgte sthetische Erfahrung, an der der Begriffsschematismus
der Moderne scheitert und damit eine schwache Utopie individueller Freiheit of-
fenbart, ist gleichsam an die Existenz einer Rckzugsmglichkeit gebunden, in
der diese private Erfahrung berhaupt mglich wird. Das Private als vorsozialer
Rckzugsort wird auch fr Adorno letztlich die Voraussetzung eben jener sozialen
Distanznahme, in der sich eine Befreiung vom gesellschaftlichen Zugriff auf das
Leben in Anstzen realisieren liee. Erst hier kann auch die Falschheit individueller
Selbstgesetzgebung, die Fremdheit subjektiver Handlungsziele individuell erfahren
und berprft werden.53 Das Private ist damit vor allem ein Ort der Befreiung
von den Bindungskrften eines sozialen Zusammenhangs, der Subjekte in einer
bestimmten Form anruft und auch ihre Vorstellungen individueller Selbstverwirkli-
chung prgt. Auch fr Butler und Foucault scheint letztlich eine solche individuelle
Praxis der Desidentikation von sozialen Zuschreibungen, des Sich-Entziehens,
der Rekontextualisierung, der Re-Konguration von Subjektnarrativen auf die Be-
deutung des Privaten hinzuweisen, das als jener Raum begriffen werden knnte,
in dem berhaupt noch die Mglichkeit einer experimentellen Selbsterprobung
tendenziell mglich ist.54 Erst im Schutzraum der Privatheit scheint eine befreite
Selbsterfahrung mglich, die einen von der sozialen Picht befreit, jemand zu sein.
Auch Bourdieu hat sich nicht direkt mit dem Begriff der Privatheit auseinander-
gesetzt, doch auch hier scheint die soziologische Selbstaufklrung ber die eigenen
habituellen Prgungen auf einen letztlich privaten Akt hinauszulaufen, in dem aus
der Distanz die Struktur und Eigenart der eigenen Teilnahme an sozialen Praktiken
reexiv durchdrungen werden soll. Die Aufdeckung der habituellen Determination
eigener Handlungen und Subjektdispositionen wird von Bourdieu dabei nicht allein
als fundamentale Form der Selbstaufklrung, sondern auch direkt als Freiheitsge-
winn, als zentraler Baustein individueller Autonomie begriffen. Zwar lsst sich dies
nicht direkt mit dem Begriff der Privatheit verbinden, doch weist Bourdieu indirekt
auf einen zweiten Aspekt hin, der die Bedeutung der Privatheit hervorhebt. Die
53 Adorno, sthetische Theorie, S. 491ff.
54 Butler, Das Unbehagen der Geschlechter, S. 209ff.
Kritische Theorie des Privaten 163

private Distanznahme (wie auch immer diese mglich sein mag) wird zur Grundlage
einer reexiven Teilnahme an sozialer Praxis und damit auf einer zweiten Ebene zur
Vorbedingung individueller Autonomie.
Zum einen ist das Private demnach als Rckzugsort zu verstehen, der eine
reexive Teilnahme an sozialen Praktiken mglich macht, weil sich der Einzelne
erst in der (immer auch prekren) Distanznahme ber seine eigene Verwobenheit
in soziale Praktiken gewahr werden kann, die sein Leben prgen und in die er
eingebettet ist. Autonomie bedeutet hier die Reexion ber und die etwaige reexive
Neubestimmung der Teilnahme an sozialer Praxis. Zum anderen skizzieren die
Autoren das Private als tatschlich vorsozialen Ort, in dem es vor allem um die
Befreiung vom Zugriff dieser sozialen Praktiken geht, ohne die wir als Subjekte nicht
handeln knnen, die aber stets die Gefahr beinhalten, uns als Individuen praktisch
zu vereinnahmen. Damit sind letztlich zwei sich im stetigen, dialektischen Konikt
zueinander bendliche Freiheitsmomente benannt, die sich mit den Begriffen von
Autonomie und Befreiung fassen lassen und zumindest kursorisch auf den Wert der
Privatheit innerhalb der skizzierten Sozialtheorien verweisen.55

5. Rechtliche und soziale Schutzrume


Fasst man die obigen Ausfhrungen zusammen ergibt sich ein komplexes Bild.
Eine hier exemplarisch vorgetragene sozialtheoretische Kritik des Privaten macht
nochmals deutlich, worin zugleich die Gefahren und der Wert des Privaten liegen.
Sie fordert bestimmte Grundlagen des liberalen Paradigmas der Privatheit heraus
und macht zugleich auf eine Idee der Privatheit aufmerksam, die diesen liberalen
Positionen hnlich ist; ja vielleicht knnen die hier nur skizzierten kritischen Sozi-
altheorien sogar noch deutlicher als manche liberale Anstze herausarbeiten, warum
wir auch ohne direkte Eingriffe des Staates oder anderer gesellschaftlicher Institu-
tionen fr einen Schutz der Privatheit pldieren sollten. Das Gelingen autonomer
Lebensfhrung wird hier nicht blo als abstrakte Mglichkeit konzipiert, sondern
sozialtheoretisch auf seine tatschliche Verwirklichung hin befragt. Darin lsst sich
Privatheit als ambivalentes Gebilde verstehen, das zugleich autonomieermglichend
wie autonomieeinschrnkend, zugleich machterhaltend wie machtzersetzend begrif-
fen werden kann. Nimmt man diese sozialtheoretische Einsicht ernst, dann scheint
das Gesagte auf eine Art Aufgabenteilung des Privatheitsschutzes hinauszulaufen.
Zum einen scheint es auch aus der Sicht der hier in den Blick genommenen Sozi-
altheorien weiterhin einer rechtlich und politisch gesicherten Privatheit zu bedrfen,
die den Einzelnen tatschlich rein formal mit der Mglichkeit ausstattet, sich zu sich
selbst als ein in soziale Praktiken eingebettetes Wesen reexiv zu verhalten oder
55 Menke, Autonomie und Befreiung, S. 675ff.
164 Carlos Becker

von bestimmten Zugriffen der Gesellschaft zu schtzen und sich diesen ohne Recht-
fertigung entziehen zu knnen. Ein Recht auf informationelle Selbstbestimmung
etwa stattet den Einzelnen idealerweise nicht nur mit der Mglichkeit aus, sich
ber das freie Verfgen-knnen ber die eigenen Daten als Subjekt autonom nach
auen hin entwerfen zu knnen. Vielmehr scheint ein Recht auf informationelle
Selbstbestimmung auch Formen permanenter gesellschaftlicher Sichtbarkeit zu
verhindern, die an sich zu jenen Normierungsprozessen fhren knnen, die oben
skizziert worden sind. Das Bewusstsein etwa darber, jederzeit einer potentiellen
Verhaltenskontrolle im privaten Bereich ausgesetzt sein zu knnen oder berhaupt
im privaten Bereich nur noch marginale Rckzugsmglichkeiten vor den Anspr-
chen der Gesellschaft zu haben, fhrt fast zwanglug zu Normierungsprozessen
sei es durch soziale Medien, mobile Kommunikationsapparate, durch die berwa-
chung von Kommunikationspraktiken oder durch neue Formen von Versicherungen,
die privates Wohlverhalten nanziell entlohnen.
Zum anderen impliziert Letzteres aber auch einen Schutz der Privatheit, der
ber diese rechtliche Ebene hinaus geht und auf soziale Konventionen der Priva-
theit und des in sozialen Praktiken eingelebten Privatheitsschutzes verweist. Das
umfasst sowohl bestimmte Interaktions- und Beziehungsformen wie Intim- und
Freundschaftsbeziehungen, denen wir gemeinhin ein wechselseitiges Interesse an
der Wahrung der Privatheit unterstellen, als auch die tatschliche Akzeptanz gesell-
schaftlicher Distanznahme, also die tatschlich zugestandene Mglichkeit, sich den
sozialen Anforderungen gelingender Subjektivitt etc. wirksam zu entziehen. Dabei
geht es letztlich auch um die soziale Anerkennung und Akzeptanz individueller
Andersartigkeit, die von sozialer Sanktionierung befreit werden muss. In diesem
Sinne liee sich letztlich auch Adornos schwache Utopie einer Gesellschaft, in der
man ohne Angst verschieden sein kann, als Credo einer sozialkritischen Reexion
ber das Private verstehen. Erst durch einen auch sozial verwirklichten und indi-
viduell erfahrbaren Schutz des Privaten lsst sich tatschlich eine Verwirklichung
individueller Freiheit erwarten, die nicht jene pathologischen Zge trgt, wie sie
oben skizziert wurden.
Kritische Theorie des Privaten heit damit aber nicht nur sozialtheoretisch die
Freiheitsmglichkeit der Privatheit zu verteidigen und zugleich auf die innere
Gefhrdung des Privaten und die Bedrohung durch die Privatheit hinzuweisen. Kri-
tische Theorie des Privaten kann im Wortsinn des Kritikbegriffs auch unterscheiden
heien und zwar die Unterscheidung zwischen einer rechtlich-formalen Ermgli-
chung der Privatheit und ihrer sozialtheoretischen Rechtfertigung und Kritik. So
lsst sich aus den eben rekonstruierten Positionen kritischer Sozialtheorie entneh-
men, dass wir Privatheit zugleich schtzen und kritisieren sollten. Es bedarf auch
aus der Perspektive dieser Theorien (zumindest lassen sie sich derartig deuten) eines
rechtlich-politischen Schutzes privater Freirume als Ermglichungsbedingungen
Kritische Theorie des Privaten 165

individueller Freiheit. Zugleich aber sollten wir das Private mit den Mitteln der
Soziologie als symptomatischen Ausdruck einer Lebensform kritisieren knnen.
Folgt man diesen Ausfhrungen, dann luft dies letztlich auf eine Aufgabentei-
lung der Disziplinen hinaus. Whrend Rechtswissenschaft und politische Theorie
weiterhin die Aufgabe zukommt, Privatheit als formalen Freiraum individueller
Selbstverwirklichung nach Auen hin zu verteidigen und in Bezug zu anderen
gesellschaftlichen Institutionen und Werten zu setzen, kommt einer sozialtheoreti-
schen Perspektive auf Privatheit die Aufgabe zu, das Private auch von innen her zu
kritisieren und auf ihre Wirkungen auf das gesellschaftliche Zusammenleben hin zu
befragen. Vielleicht lsst sich erst so etwa bestimmten Formen einer sozialtheore-
tisch problematischen, aber rechtlich nicht recht greifbaren Praxis der freiwilligen
Selbstoffenbarung in digitalen Medien kritisch auf den Zahn fhlen und im Ganzen
sozialen Wandlungsprozessen besser begegnen, die den Privatheitsschutz immer
wieder vor neue Herausforderungen stellen.

Literatur
Adorno, Theodor W. sthetische Theorie. Frankfurt am Main: Suhrkamp, 1973.
Minima Moralia. Reexionen aus dem beschdigten Leben. Berlin und Frankfurt
am Main: Suhrkamp, 1951.
Negative Dialektik. Frankfurt am Main: Suhrkamp, 1975.
Alber, Ina. Wie ffentlich ist das Private? Sozialforschung in digitalen Welten zwi-
schen Sichtbarkeit und Anonymitt. In: Forschungsjournal Soziale Bewegungen
28.3 (2016), S. 7382. DOI: 10.1515/fjsb-2015-0310.
Albers, Marion. Privatheitsschutz als Grundrechtsproblem. In: Privatheit. Stra-
tegien und Transformationen. Hrsg. von Stefan Halft und Hans Krah. Passau:
Stutz, 2013, S. 1544.
Allen, Anita L. Privacy in American Law. In: Privacies: Philosophical Evaluati-
ons. Hrsg. von Beate Rssler. Stanford, 2004, S. 1939.
Bailey, Joe. Some Meanings of the Private in Sociological Thought. In: Socio-
logy 34.3 (Aug. 2000), S. 381401. DOI: 10.1177/S0038038500000250.
Becker, Carlos und Sandra Seubert. Privatheit, kommunikative Freiheit und De-
mokratie. In: Datenschutz und Datensicherheit (DuD) 40.2 (2016), S. 7378.
Benjamin, Walter. Das Passagen-Werk. Bd. V-1. Gesammelte Schriften. Frankfurt
am Main: Suhrkamp, 1982.
Berlin, Isaiah. Zwei Freiheitsbegriffe. In: Freiheit. Vier Versuche. Frankfurt am
Main: Fischer, 2006.
Blomley, Nicholas. Rights of Passage: Sidewalks and the Regulation of Public Flow.
New York: Routledge, 2011.
166 Carlos Becker

Bourdieu, Pierre. Die feinen Unterschiede. Frankfurt am Main: Suhrkamp, 1987.


Entwurf einer Theorie der Praxis. Auf der ethnologischen Grundlage der kabyli-
schen Gesellschaft [1972]. Frankfurt am Main: Suhrkamp, 2009.
Was heit sprechen? Zur konomie des sprachlichen Tausches. Wien: Brauml-
ler, 1990.
Bourdieu, Pierre und Terry Eagleton. Doxa and Common Life: An Interview. In:
Mapping Ideology. Hrsg. von Slavoj Zizek. London: Verso, 1994, S. 265277.
Brckling, Ulrich, Susanne Krasmann und Thomas Lemke, Hrsg. Gouvernementa-
litt der Gegenwart - Studien zur konomisierung des Sozialen. Frankfurt am
Main: Suhrkamp, 2000.
Butler, Judith. Das Unbehagen der Geschlechter. Frankfurt am Main: Suhrkamp,
1990.
Die Macht der Geschlechternormen und die Grenzen des Menschlichen. Frankfurt
am Main: Suhrkamp, 2015.
Noch einmal: Krper und Macht. In: Michel Foucault. Zwischenbilanz einer
Rezeption - Frankfurter Foucault-Konferenz 2001. Hrsg. von Axel Honneth und
Martin Saar. Frankfurt am Main: Suhrkamp, 2003, S. 5267.
Psyche der Macht Das Subjekt der Unterwerfung. Frankfurt am Main: Suhr-
kamp, 2001.
DeCew, Judith Wagner. Privacy. In: The Stanford Encyclopedia of Philosophy.
Hrsg. von Edward N. Zalta. Spring 2015. 2015. URL: http://plato.stanford.edu/
entries/privacy/.
Etzioni, Amitai. The Limits of Privacy. New York: Basic Books, 1999.
Foucault, Michel. Der Wille zum Wissen. Sexualitt und Wahrheit I. Frankfurt am
Main: Suhrkamp, 1983.
Geschichte der Gouvernementalitt. Frankfurt am Main: Suhrkamp, 2004.
Sex, Macht und die Politik der Identitt. Ein Interview. In: Analytik der Macht.
Hrsg. von Daniel Defert, Franois Ewald und Jacques Lagrange. Frankfurt am
Main: Suhrkamp, 2005, S. 301315.
Goffman, Erving. Wir alle spielen Theater. Mnchen und Zrich: Piper, 1988.
Gusy, Christoph, Johannes Eichenhofer und Laura Schulte. e-privacy: Von der
Digitalisierung der Kommunikation zur Digitalisierung der Privatsphre. In:
Jahrbuch des ffentlichen Rechts der Gegenwart, Neue Folge 64 (2016), S. 386
409.
Habermas, Jrgen. Theorie des kommunikativen Handelns. Frankfurt am Main:
Suhrkamp, 1981.
Honneth, Axel. Eine Physiognomie der kapitalistischen Lebensform: Skizze der
Gesellschaftstheorie Adornos. In: Dialektik der Freiheit: Frankfurter Adorno-
Konferenz 2003. Hrsg. von Axel Honneth. Frankfurt am Main: Fischer, 2005,
S. 165187.
Kritische Theorie des Privaten 167

Horkheimer, Max und Theodor W. Adorno. Dialektik der Aufklrung. Bd. 5. Max
Horkheimer. Gesammelte Schriften. Frankfurt am Main, 1987.
Jaeggi, Rahel. Kritik von Lebensformen. Frankfurt am Main: Suhrkamp, 2013.
No Individual can resist: Minima Moralia as Critique of Forms of Life. In:
Constellations 12.1 (Mrz 2005), S. 6582.
Was ist Ideologiekritik? In: Jaeggi, Rahel und Tilo Wesche. Was ist Kritik?
Frankfurt am Main: Suhrkamp, 2009, S. 266295.
Jahoda, Marie und Paul Felix Lazarsfeld. Die Arbeitslosen von Marienthal. Ein
soziographischer Versuch ber die Wirkungen langandauernder Arbeitslosigkeit
[1933]. Frankfurt am Main: Suhrkamp, 1975.
Kaiser, Susan B. Fashion and Cultural Studies. London: Berg Publishers, 2012.
Laufenberg, Mike. Sexualitt und Biomacht: Vom Sicherheitsdispositiv zur Politik
der Sorge. Bielefeld: Transcript, 2014.
Lemke, Thomas. Gouvermentalitt und Biomacht. Wiesbaden: VS Verlag fr Sozi-
alwissenschaften, 2008.
Lever, Annabelle. Privacy, Democracy and Freedom of Expression. In: The Social
Dimensions of Privacy. Hrsg. von Beate Roessler und Dorota Mokrosinska.
Cambridge: Cambridge University Press, 2015, S. 162180.
Privacy Rights and Democracy. In: Comtemporary Political Theory 5.2 (2006),
S. 142162.
Marx, Karl. Zur Judenfrage [1844]. In: MEW, Bd. 1. Berlin: Dietz Verlag, 1981,
S. 347377.
Menke, Christoph. Autonomie und Befreiung. In: Deutsche Zeitschrift fr Philo-
sophie 58.5 (2010), S. 675694.
Mill, John Stuart. ber Freiheit [1859]. Stuttgart: Reclam, 2010.
Mller-Doohm, Stefan. Die kulturelle Kodierung des Schlafens oder: Wovon das
Schlafzimmer ein Zeichen ist. In: Soziale Welt 47.1 (1996), S. 110122.
Nissenbaum, Helen. Privacy in Context: Technology, Policy, and the Integrity of
Social Life. Stanford: Stanford University Press, 2009.
Ochs, Carsten und Martina Lw. Un/Faire Informationspraktiken: Internet Privacy
aus sozialwissenschaftlicher Perspektive. In: Internet Privacy: Eine multidis-
ziplinre Bestandsaufnahme. Hrsg. von Johannes Buchmann. acatech Studie.
Heidelberg und Berlin: Springer, 2012.
Rssler, Beate. Der Wert des Privaten. Frankfurt am Main: Suhrkamp, 2001.
Gender and Privacy. A Critique of the Liberal Tradition. In: Privacies: Philo-
sophical Evaluations. Stanford: Stanford University Press, 2004.
Should Personal Data be a Tradable Good? On the Moral Limits of Markets in
Privacy. In: The Social Dimensions of Privacy. Hrsg. von Beate Roessler und
Dorota Mokrosinska. Cambridge: Cambridge University Press, 2015, S. 141
161.
168 Carlos Becker

Rssler, Beate. Wie wir uns regieren. Soziale Dimensionen des Privaten in der
Post-Snowden ra. In: WestEnd 13.1 (2016), S. 103118.
Seubert, Sandra. Der gesellschaftliche Wert des Privaten. In: Datenschutz und
Datensicherheit (DuD) 36.2 (2012), S. 100104.
Emanzipation und Beherrschung. Zur Kritik des Privaten im digitalen Zeitalter.
In: WestEnd 13.1 (2016), S. 89102.
Sevignani, Sebastian. The Commodication of Privacy on the Internet. In: Science
and Public Policy 40.6 (2013), S. 733739.
Simmel, Georg. Soziologie: Untersuchungen ber die Formen der Vergesellschaf-
tung [1908]. Bd. 11. Simmel Gesamtausgabe. Frankfurt am Main, 1992. Kap. Das
Geheimnis und die geheime Gesellschaft, S. 256303.
Solove, Daniel J. Understanding Privacy. Cambridge, Mass.: Harvard University
Press, 2008.
Vergunst, Jo Lee und Tim Ingold, Hrsg. Ways of Walking: Ethnography and Practice
on Foot. Aldershot: Routledge, 2008.
Privatheit als Freiheit

Die konomische Sicht


Arnold Picot, Dominik van Aaken und Andreas Ostermaier

Das Thema Privatsphre spielt in der wirtschaftswissenschaftlichen Forschung


eine sehr untergeordnete Rolle. In den wenigen Fllen, in denen sich konomen
ausdrcklich mit Privatheit befassen, scheinen sie keine spezischen Argumente fr
den Schutz der Privatsphre zu liefern.1 So bemerkt etwa George Stigler, dass in
some respects this interest in privacy is paradoxical, for the average citizen has more
privacy [. . .] than ever before.2 Posner sieht in der Frage der Privatheit lediglich
a natural extension of the economics of information.3 Die Marketingwissenschaft
spricht nach unserem berblick bei der Diskussion ihrer Methoden und Strategien
zur Erforschung des Kundenverhaltens zwar verschiedene ethische Aspekte an
und erwhnt auch die Notwendigkeit des Schutzes der Privatsphre gem den
jeweiligen rechtlichen Regelungen; eine systematische Reexion der Rolle von
Privatheit und ihres Spannungsfeldes mit wirtschaftlichen Strategien ndet sich
jedoch kaum.4 Implizit wird in den meisten konomischen Modellen davon ausge-
gangen, dass die Gewinnung zustzlicher Informationen, die auch aus dem engsten
Bereich von Untersuchungssubjekten stammen knnen, der Verbesserung von un-
ternehmerischen Strategien und letztlich der Versorgungsqualitt des Kunden ntzt
und somit legitim ist. Die Frage mglicher Nachteile durch die Beeintrchtigung
oder Verletzung der Privatsphre wird weitestgehend nicht gestellt.

* Prof. Dr. Arnold Picot | Ludwig-Maximilians-Universitt Mnchen | picot@lmu.de


Prof. Dr. Dominik van Aaken | Universitt Salzburg | dominik.vanaaken@sbg.ac.at
Dr. Andreas Ostermaier | Technische Universitt Mnchen | andreas.ostermaier@tum.de
Dieses Kapitel sttzt sich streckenweise auf einen frheren Aufsatz der Autoren (Aaken, Ostermaier
und Picot, Privacy and Freedom). Er geht aber, insbesondere hinsichtlich der anwendungsbezoge-
nen berlegungen und Recherchen, deutlich darber hinaus. Wir danken Herrn Michael Friedewald
fr wertvolle Hinweise zur berarbeitung des Manuskripts.
1 Dies legt auch der berblick von Brown nah, vgl. Brown, The Economics of Privacy, Data Protec-
tion and Surveillance.
2 Stigler, An Introduction to Privacy in Economics and Politics, S. 623.
3 Posner, Introduction.
4 Vgl. z. B. Kotler u. a., Grundlagen des Marketing; Picot, Ethik und Absatzwirtschaft aus markt-
wirtschaftlicher Sicht.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_11
170 Arnold Picot, Dominik van Aaken und Andreas Ostermaier

Dies verwundert insofern, als es schon frh Stimmen gab, die einen engen
Zusammenhang zwischen den Werten der Privatheit und Freiheit hervorheben. So
betrachtet Hirshleifer Privatheit als autonomy within society5 und Schoeman fasst
Privatheit als ein auf sich selbst bezogenes Verhalten eines Individuums, welches
frei von sozialer Kontrolle ist.6 Dieser wichtige Gedanke ndet sich bereits bei
John Stuart Mill, wenn er schreibt:

When society is itself the tyrant society collectively, over the


separate individuals who compose it [. . .] it practices a social
tyranny more formidable than many kinds of political oppression.[. . .]
There needs to be protection also against the tyranny of the prevailing
opinion and feeling; against the tendency of society to impose [. . .]
its own ideas and practices as rules of conduct on those who dissent
from them.7

Privatsphre und Freiheit sind also eng verknpft. Freiheit bildet gerade in markt-
wirtschaftlichen, privatwirtschaftlich organisierten Wirtschaftssystemen einen zen-
tralen Eckpfeiler, weil sich die Idee der berlegenheit dezentraler Entscheidungen
nur auf Basis von Freiheiten im jeweiligen institutionellen Rahmen verwirklichen
und entfalten lsst: Souvernitt und Freiheit des Konsumenten bei der Verwendung
seiner Lebenszeit und seiner verfgbaren Mittel, Freiheit des handelnden Unter-
nehmers bei der Wahl seiner Geschftsmodelle und Geschftspartner, Freiheit des
Investors bei der Auswahl der Projekte, in denen er seine Mittel bindet, Freiheit
von Wissenschaft, Forschung und Entwicklung bei der Verfolgung von neuen Ideen.
Begrenzt werden diese Wahlfreiheiten nur durch demokratische Rechtssetzung,
welche allerdings selbst als die Verwirklichung von Wahlfreiheiten jedes einzelnen
Brgers interpretiert werden kann.8
Wird nun die Wahlfreiheit jedes Einzelnen beschnitten oder gar beseitigt, muss
die Legitimitt des marktwirtschaftlichen und auch demokratischen Systems grund-
legenden Schaden nehmen. Insofern ist es von zentraler Bedeutung, den Freiheits-
aspekt von Privatheit zu bestimmen und zu diskutieren.

5 Hirshleifer, Privacy.
6 Schoeman, Privacy and Social Freedom.
7 Mill, On Liberty and Other Writings, S. 13.
8 Vgl. dazu beispielsweise Brennan und Buchanan, The Reason of Rules; Buchanan, Equality, Hier-
archy, and Global Justice.
Privatheit als Freiheit 171

1. Privatsphre als Teil der Freiheit


In der Tradition von Hirshleifer9 und Schoemann10 wollen wir Privatsphre als
Freiheit von sozialer Kontrolle fassen, soweit das Handeln nur den- bzw. diejenige
selbst betrifft.11 Sie ist damit mehr als der Schutz bestimmter personenbezogener
Informationen, wenngleich diese natrlich auch dazu gehren. Privatsphre umfasst
das gesamte selbstbezgliche Erleben, Benden und Verhalten eines Individuums,
sofern nicht andere in so relevanter Weise dadurch betroffen sind, dass ein Anspruch
auf ffnung entsteht. Selbstverstndlich ist diese Grenzziehung nur unscharf mg-
lich und u. a. stark kulturabhngig. Aber im Grundsatz ist das freiheitsbezogene
Konzept von Privatheit von zentraler, auch wirtschaftswissenschaftlicher Bedeu-
tung.
Eine wichtige Implikation dieser Konzeptualisierung von Privatheit ist, dass jeder
Eingriff in die Privatsphre zugleich eine Beschneidung der Freiheit darstellt. Mit
anderen Worten: Die Privatsphre ist eine besondere Form von Freiheit. Anhand
von Abbildung 1 wollen wir die Beziehung zwischen Privatheit und Freiheit etwas
nher erlutern.

Beschneidung der Freiheit


Ja Nein

Eingriff in die
Privatsphre
Ja 
Nein 
Abbildung 1.: Das Verhltnis zwischen Privatsphre und Freiheit

Sofern Beschneidungen der Freiheit nicht die Privatsphre betreffen (Feld un-
ten links) ergibt sich kein Privatheitsproblem: So begrenzen zwar beispielsweise
Verkehrsregeln gewissermaen die Freiheit, sich im Straenverkehr zu verhalten,
wie man mchte; es ist aber sicherlich nicht nur vom privaten Interesse, wie sich
jemand auf ffentlichen Straen verhlt. Insofern beschrnken Verkehrsregeln die
Freiheit, allerdings nicht die Privatsphre.
Wenn es keine Freiheitsbeschrnkung gibt, knnen auch keine Eingriffe in die
Privatsphre und damit in die persnliche Freiheit erfolgen (rechte Spalte). Damit
9 Hirshleifer, Privacy.
10 Schoeman, Privacy and Social Freedom.
11 Aaken, Ostermaier und Picot, Privacy and Freedom.
172 Arnold Picot, Dominik van Aaken und Andreas Ostermaier

gehen wir davon aus, dass all die Eingriffe, die wir intuitiv unter einer Beschrn-
kung von Privatsphre fassen, automatisch Eingriffe in die Freiheit bedeuten. Ein
typisches Beispiel wre das Rauchverbot in der eigenen Wohnung: Es greift in
meine Privatsphre ein und beschneidet zugleich meine Freiheit. Dies trifft auch
fr das Tracking von Suchverhalten im Internet ohne vorherige Zustimmung zu;
denn aus letzterem kann sich abgesehen von der unerwnschten Beobachtung
privaten Verhaltens eine knftige Freiheitsbeschrnkung ergeben. So kann die
Weitergabe von meinen Suchprolen an Dritte in Verhaltensnderungen mir ge-
genber resultieren. Man denke beispielsweise an Personen, die im Internet nach
chronischen Krankheitsbildern suchen: Versicherungsgesellschaften werden auf
dieses Suchverhalten mit erhhten Prmienzahlungen reagieren bzw. keine oder
aber nur begrenzte Versicherungspolicen anbieten, was unmittelbare Wirkung auf
die Wahlfreiheit der Betroffenen nach sich zieht.12

2. Privatsphre als instrumenteller und intrinsischer Wert


Die Beispiele machen klar: Privatheit ist zu verstehen als Freiheit zur Selbstbe-
stimmung des eigenen, auf das Individuum bezogene Verhalten ohne Kontrolle
oder Einwirkung Dritter. Sie ist somit Bestandteil des umfassenderen Konzepts
der Freiheit. Dabei ist zu unterscheiden, ob Freiheit als Mittel zum Zweck (also
als instrumenteller Wert) oder aber als Selbstzweck (also als intrinsischer Wert)
verstanden wird. In instrumenteller Sicht kann Freiheit fr andere Ziele eingesetzt,
ggf. auch geopfert werden.13 Bezogen auf Privatheit bedeutet dies, dass Einschrn-
kungen oder gar die Aufgabe von Privatheit dann hingenommen werden knnen,
wenn sich dadurch z. B. Wohlstandsgewinne erzielen lassen (so liegt es auf der
Hand, dass wirkungsvollere Geschftsmodelle durch die Privatsphre verletzende
Erkenntnisse realisiert werden knnen). Demgegenber drfte bei intrinsischem
Freiheitsverstndnis Freiheit bzw. Privatheit nicht der Steigerung des Wohlstands
geopfert werden.14 Diese Betrachtungsweise entspricht der Position und Tradition
eines vom Individuum ausgehenden Liberalismus und ist in unserer Kultur und
Wirtschaftsordnung tief verankert.
Wenn freilich Freiheit im Sinne von Privatheit mit der Freiheit von anderen
konigiert, ist ein Ausgleich zu suchen, der ggf. auch die Einschrnkung von Pri-
vatheit mit sich bringen kann. Eine solche Abwgung ist oftmals schwierig und
keineswegs immer eindeutig anzustellen. Als Beispiel kann die private Informa-

12 Brown, The Economics of Privacy, Data Protection and Surveillance.


13 Vgl. beispielsweise Harsanyi, Cardinal Welfare, Individualistic Ethics, and Interpersonal Compa-
risons of Utility.
14 Vgl. dazu Buchanan, Equality, Hierarchy, and Global Justice.
Privatheit als Freiheit 173

tion ber eine ansteckende Erkrankung dienen. Unter welchen Voraussetzungen


ist es z. B. seitens des Arztes geboten, diese Information ffentlich zu machen
und ggf. Verhaltensbeschrnkungen aufzuerlegen, um die Freiheit Dritter nicht zu
gefhrden? Fr derartige Wertkonikte gibt es zahlreiche Beispiele und unterschied-
liche Lsungsanstze, die sich im institutionellen Regelwerk einer Gesellschaft
niederschlagen.
Etwas anderes ist es, wenn ein Individuum freiwillig Freiheit bzw. Privatheit
teilweise oder temporr aufgibt und dafr Gegenleistungen erhlt, wenn also Privat-
heit bzw. Freiheit als handelbares Gut angesehen wird. Das ist z. B. dann der Fall,
wenn jemand bei einer Transaktion im Internet willentlich private Informationen
preisgibt, um so zuknftig in den Genuss personizierter Angebote zu kommen;15
oder wenn man entgeltlich einen Arbeitsvertrag mit spezischen Verpichtungen
abschliet und damit seine Freiheit, ggf. auch seine Privatheit (wenn z. B. bestimm-
te Informationen und Versprechungen hinsichtlich Gesundheit und Lebenswandel
gegeben werden) u. U. erheblich einschrnkt. Die Mglichkeit, so etwas zu tun, ist
Teil individueller Freiheit.

3. Grenzen des Handelns mit Privatsphre: Die Reversibilitt


von Vertrgen
Freiheit und damit auch Privatheit sind grundstzlich handelbare Gter.16 Allerdings
gilt dies nur unter der Voraussetzung, dass der Handel mit der eigenen Freiheit
bzw. Privatheit freiwillig sowie mit wohlinformierter Zustimmung erfolgt und dass
Freiheit nicht auf unabsehbare Dauer aufgegeben wird. Insbesondere Vertrge,
die Freiheiten handeln, mssen reversibel sein. So schrieb schon Mill, dass The
principle of freedom cannot require that [an individual] should be free not to be
free.17 So wie man seine Freiheit nicht irreversibel aufgeben knnen soll, so soll
aus gleichen Grnden auch die Aufgabe von Privatheit nicht unwiderruich mglich
sein. Dieser wichtige normative Gedanke wird von Mill wie folgt erlutert:

[A]n exception to the doctrine that individuals are the best judges of
their own interest is when an individual attempts to decide irrevocably
now, what will be best for his interest at some future and distant
time. [. . . ] When persons have bound themselves by a contract, not
simply to do some one thing, but to continue doing something for
15 Vgl. Schreiner und Hess, konomie der Privatsphre.
16 Die vor kurzem in Kraft getretene Datenschutz-Grundverordnung der Europischen Union kodi-
ziert diesen Gedanken mit dem Recht auf Datenportabilitt. Vgl. Jlicher, Rttgen und Schnfeld,
Das Recht auf Datenbertragbarkeit.
17 Mill, On Liberty and Other Writings, S. 95.
174 Arnold Picot, Dominik van Aaken und Andreas Ostermaier

ever or for a prolonged period, without any power of revoking the


engagement, the presumption which their perseverance in that course
of conduct would otherwise raise in favour of its being advantageous
to them, does not exist; and any such presumption which can be
grounded on their having voluntarily entered into the contract [. . . ]
is commonly next to null. The practical maxim of leaving contracts
free, is not applicable without great limitations in case of engagement
in perpetuity.18

Unser heutiger Liberalismus baut auf der Grundvoraussetzung auf, dass Men-
schen ihre Freiheit nicht irreversibel einschrnken drfen. Menschen haben nicht
die Freiheit, aus eigenen Stcken dauerhaft unfrei zu sein. Dies gilt auch fr die Pri-
vatheit als ein Teil der Freiheit. Da Privatsphre eine besondere Form von Freiheit
ist, mssen Eingriffe in die Privatsphre ebenso reversibel sein. Diese Folgerungen
besitzen fr die Beurteilung und Gestaltung der Privatheitsproblematik in einer
Welt der Digitalisierung, die u. a. durch die Erfassung, Analyse und Speicherung
groer, potenziell personenbezogener, also auf die Privatheit bezogene Datenmen-
gen gekennzeichnet ist, besonderes Gewicht.
Aus den vorangegangenen Errterungen ergeben sich wichtige Minimalprinzipi-
en fr den Schutz von Privatheit und personenbezogenen Daten.

Datenschutzregeln mssen freiwillige und informierte Zustimmung voraussetzen.


Diese ist zur Legitimation von Vertrgen in liberalen Gesellschaftsordnungen
immer notwendig. Dies gilt also auch bei Privatsphre als Vertragsgegenstand.
Datenschutzregeln mssen das Prinzip der Reversibilitt garantieren. Vertrags-
partner mssen ihre Vertragsbeziehung beenden und dabei die berlassung von
Daten rckabwickeln knnen.
Wer Daten Dritten berlsst, muss dem Betroffenen immer noch Reversibilitt ga-
rantieren knnen. Etwaige Dritte mssen also ihrerseits Reversibilitt garantieren.
Dieses Prinzip lsst sich als Vererbung bezeichnen (in Analogie zur Vererbung
bei der objektorientierten Programmierung).

Das Erfordernis der Zustimmung ist in den meisten praktischen Zusammenhn-


gen weitgehend, wenn auch lngst nicht immer zufriedenstellend, gegeben. Denn
bei praktisch allen Diensten und Internetanwendungen willigt der Nutzer in der
Regel in eine Reihe (freilich oftmals schwer verstndlicher und kaum durchschau-
barer)19 Nutzungs- und Geschftsbedingungen ein, so dass zumindest in formaler
18 Mill, Principles of Political Economy, S. 345f.
19 Vgl. beispielsweise Bowie und Jamal, Privacy Rights on the Internet.
Privatheit als Freiheit 175

Hinsicht die ja gesetzlich geforderte Zustimmung erfllt ist.20 Inwieweit das auch
fr die beiden anderen Prinzipien, nmlich Reversibilitt und Vererbung, gilt, ist
im Folgenden exemplarisch zu betrachten. Dazu werden die Nutzungsbedingungen
von vier sehr weit verbreiteten Internetdiensten (Amazon.com, eBay, Facebook,
Google) unter dem Aspekt von Reversibilitt und Vererbung nher untersucht.

4. Reversibilitt und Vererbung in der Praxis: Die Flle


Amazon, eBay, Facebook und Google
Reversibilitt bezieht sich nach dem hier entwickelten Verstndnis nicht allein
auf irgendeine Form des Vergessens, sondern sollte nach Mglichkeit durch
die physische Lschung elektronischer Daten und ihrer Verlinkung mit anderen
Datenbestnden realisiert werden; denn Reversibilitt bedeutet, dass der Status quo
ante soweit als mglich wieder herzustellen ist. Das Erfordernis der Reversibilitt
stellt sich insbesondere, wenn ein Kunde einen Vertrag, der einen Eingriff in die
Privatsphre legitimiert, kndigt (und z. B. einen Internetdienst verlsst und sein
Konto dort schliet). In diesem Fall muss ihm die Mglichkeit der Reversibilitt
angeboten werden. Untersucht man die Nutzungsbedingungen der vier genann-
ten Internetdienstleister unter diesem Blickwinkel, so gelangt man zu folgenden
Erkenntnissen:
In den Privacy Notes von Amazon.com ndet nden sich keine Aussagen zur
Kontolschung und zum Verbleib der Daten.21 Damit muss davon ausgegangen
werden, dass hier keine Reversibilitt der Daten gegeben ist. Bei eBay nden sich
folgende Aussagen: Upon your request, we will close your account and remove
your personal information from view as soon as reasonably possible, based on your
account activity and in accordance with applicable national laws. [. . . ] We will
honor any statutory right you might have to access, modify or erase your personal
information.22
Im Gegensatz zu Amazon nden sich bei eBay explizite Regelungen. Allerdings
scheint eBay nur zu garantieren, dass persnliche Informationen nicht mehr gesehen
werden knnen. Offen bleibt, wie eBay weiterhin mit diesen Informationen umgeht.

20 Ob eine ausdrckliche Zustimmung erforderlich ist oder Zustimmung schon vorausgesetzt werden
kann, wenn der Nutzer nicht widerspricht (opt in versus opt out), ist Gegenstand einer eigenen
Diskussion.
21 Vgl. die Conditions of use und die Privacy notice auf http://www.amazon.com (besucht am 20.
Juni 2015). Dies trifft auch auf den deutschen Ableger von Amazon.com zu, vgl. die Allgemeinen
Geschftsbedingungen und die Datenschutzerklrung auf http://www.amazon.de (besucht am
22. Juli 2016).
22 Vgl. eBay (15. Juni 2015), User Privacy Policy Notice auf http://pages.eBay.com/
help/policies/privacy-policy.html (besucht am 20. Oktober 2015).
176 Arnold Picot, Dominik van Aaken und Andreas Ostermaier

Aus Sicht von Nutzern aus Deutschland positiv zu werten ist, dass nationales
Datenschutzrecht des Kunden in jedem Fall umgesetzt wrde, so dass das relativ
restriktive deutsche Datenschutzrecht hier zur Geltung kme.
Facebook uert sich zu dem Problemkreis wie folgt: Information associated
with your account will be kept until your account is deleted, unless we no longer
need the data to provide products and services. [. . . ] When you delete your account,
we delete things you have posted, such as your photos and status updates.23 Rever-
sibilitt wird hier demnach nicht umgesetzt. Mit dem Nebensatz unless . . . bleibt
vllig offen, wofr und wie lange die Daten von Facebook genutzt werden. Ledig-
lich gepostete Fotos und Meldungen, die andere Nutzer einsehen knnten, werden
gelscht. Allerdings ist der kundenbezogene Datenbestand, der sich aufgrund der
Nutzungshistorie bei dem Dienstleister aufbaut, weitaus umfangreicher und kann
erhalten bleiben.
Bei Google ist Folgendes zu nden: Whenever you use our services, we aim
to provide you with access to your personal information. If that information is
wrong, we strive to give you ways to update it quickly or to delete itunless
we have to keep that information for legitimate business or legal purposes. [. . . ]
We may reject requests that are unreasonably repetitive, require disproportionate
technical effort [. . . ], risk the privacy of others, or would be extremely impractical
[. . . ].24 Hier steht ganz offensichtlich business purpose ber dem Datenschutz
und der Privatheit (unless . . . ). Lschungen werden auch nur angeboten, wenn
sie einfach zu erledigen sind. Ferner wird das Problem in gewisser Weise auf den
Nutzer zurckgewlzt, indem ihm die Verwaltung seiner persnlichen (hier nicht
weiter spezizierten) Daten in Aussicht gestellt wird.
Hinsichtlich der aus dem Grundprinzip der Freiheit abgeleiteten Forderung der
Reversibilitt ist demnach bei diesen vier Dienstleistern einiges nachzuholen. Da
diese zu den grten der Branche gehren und dementsprechend unter starker
Beobachtung der Presse, Politik und anderer Institutionen stehen, ist zu vermuten,
dass andere Unternehmen das Reversibilittserfordernis nur in Ausnahmefllen
realisieren.
Zudem mssen gem des Erfordernisses der Vererbung die Internetdienstleister
sicherstellen, dass die Weitergabe von Daten den Anforderungen des mit dem Kun-
den abgeschlossenen Vertrages entspricht. Dies impliziert auch, dass alle Parteien
die Kndigung des Vertrages respektieren und den ursprnglichen Zustand der
Privatsphre wieder herstellen. Vererbung bezieht sich auf das Erfordernis, dass
Reversibilitt auch diejenigen zusichern mssen, die Besitz oder Verfgungsmacht
23 Vgl. Facebook (30. Januar 2015), Data Policy auf http://www.facebook.com/about/privacy (be-
sucht am 20. Oktober 2015).
24 Vgl. Google (19. August 2015), Privacy Policy auf http://www.google.com/policies/privacy (be-
sucht am 20. Oktober 2015).
Privatheit als Freiheit 177

ber persnliche Daten von Kunden erlangen, die der Dienstleister gespeichert
hat. Das knnen insbesondere Kooperations- oder Geschftspartner oder auch neue
Eigentmer sein. Eine Durchsicht der Nutzungsbedingungen von Amazon.com,
eBay, Facebook und Google kommt zu den folgenden Resultaten:
Amazon.com garantiert die Vererbung im laufenden Geschft, nicht aber fr den
Fall, dass Amazon.com verkauft wird: We share customer information only as
described below and with subsidiaries [. . . ] that either are subject to this Privacy
Notice or follow practices at least as protective as those described in this Privacy
Notice. Und weiter: Also, in the unlikely event that Amazon.com [. . . ] or
substantially all of its assets are acquired, customer information will of course be
one of the transferred assets.25
Die Praxis der Weitergabe von Daten an Dritte ist bei eBay ziemlich detailliert
geregelt: If we were to merge with or be acquired by another company, [. . .], we
will require that the new combined entity follow this Privacy Notice with respect
to your personal information. Und weiter: In addition, we may retain personal
information from closed accounts to comply with national laws, prevent fraud,
collect any fees owed, resolve disputes, troubleshoot problems, assist with any
investigation, enforce our User Agreement and take other actions permitted or
required by applicable national laws.26 Im Falle von Fusion oder bernahme wird
die Fortfhrung der bislang praktizierten Schutzregelungen zugesichert. Sofern
nationale Gesetze dies vorsehen, behlt eBay Daten auch nach Kontoschlieung.
Bei Facebook scheint Vererbung im laufenden Geschft transparent geregelt. Fr
den Fall des Unternehmensverkaufs gibt es jedoch keine Schutzmechanismen: We
transfer information to vendors, service providers, and other partners [. . . ] These
partners must adhere to strict condentiality obligations in a way that is consistent
with this Data Policy and the agreements we enter into with them. Und weiter: If
the ownership or control of all or part of our [Facebook] Services or their assets
changes, we may transfer your information to the new owner.27
Bei Google lassen die Formulierungen based on our instructions and in compli-
ance with our Privacy Policy recht viel Spielraum. Im Falle eines Unternehmens-
verkaufs wird der Kunde nur benachrichtigt, wenn schwchere Schutzregeln zur
Geltung kommen ndern kann der Kunde daran nichts: We provide personal
information to our afliates or other trusted businesses or persons to process it for
us, based on our instructions and in compliance with our Privacy Policy and any
other appropriate condentiality and security measures. Und weiter: If Google is
involved in a merger, acquisition or asset sale, we will continue to ensure the con-
25 Vgl. Amazon.com (3. Mrz 2014), Amazon.com Privacy Notice auf http://www.amazon.com/
privacy (besucht am 20. Oktober 2015).
26 Vgl. eBay, User Privacy Policy Notice.
27 Vgl. Facebook, Data Policy.
178 Arnold Picot, Dominik van Aaken und Andreas Ostermaier

dentiality of any personal information and give affected users notice before personal
information is transferred or becomes subject to a different privacy policy.28
Versucht man eine Synopse der gewonnenen Einblicke, so ergibt sich das in
Abbildung 2 dargestellte Bild.

Reversibilitt Vererbung

Amazon.com  

Ebay 
 
Facebook  

Google  

Abbildung 2.: Erfllung der Kriterien Reversibilitt und Vererbung (=erfllt; 
= teil-
weise erfllt; = nicht erfllt)

Demnach kann derzeit allein eBay mit einer gewissen Erfllung der beiden
Prinzipien der Reversibilitt und der Vererbung aufwarten, whrend die anderen drei
Unternehmen den hier entwickelten Anforderungen nicht gerecht werden. Es steht
zu vermuten, dass es bei sehr vielen anderen Internetdiensten und -applikationen
nicht anders aussieht. Zudem ist selbst bei Datenschutzerklrungen, die explizit
die Reversibilitt und Vererbung formal bercksichtigen, keineswegs sichergestellt,
dass diese in der Praxis auch eingehalten werden. Dazu ist ebenso eine effektive
berwachung der Regelungen wie auch eine Sanktionierung von Regelversten
erforderlich.

5. Zusammenfassung
Reversibilitt als freiheitssicherndes Prinzip bei der (teilweisen) Aufgabe von Priva-
theit ist eine sehr schwache Voraussetzung fr eine Politik, welche Privatsphre und
Freiheit angemessen sichern will. Einem solchen Prinzip sollten auch Menschen,
die auf den Schutz der Privatsphre keinen Wert legen, zustimmen stellt die Wahl-
freiheit doch ein grundlegendes Prinzip unserer marktwirtschaftlichen Ordnung dar.

28 Vgl. Google, Privacy Policy.


Privatheit als Freiheit 179

Gleichgltig ob ein Eingriff in die Privatsphre geringfgig oder schwerwiegend


ist, er muss reversibel sein und die Reversibilitt ist durch Vererbungsregeln abzu-
sichern. Der Einwand, dass ein Eingriff schon nicht so schlimm sei, trgt in dem
Zusammenhang nicht.
Reversibilitt schliet als Schutzmechanismus selbst Eingriffe in die Privatsphre
nicht aus ggf. auch nicht schwerwiegende. Der Betroffene muss aber selbstver-
stndlich vorab und mglichst gut informiert einem solchen Eingriff zustimmen.
Die Forderung nach Reversibilitt hat freilich weitreichende praktische Konse-
quenzen. Obwohl sie nur eine schwache Voraussetzung darstellt, drfte ihr kaum
ein Datenschutzstandard gengen. Dies zumindest legt die Analyse der groen
Unternehmen Amazon.com, eBay, Facebook und Google nahe. Technisch ist ihre
Umsetzbarkeit nicht trivial; neuere Anstze der Datenarchitektur, des Daten- und
des Kontraktmanagement etwa die Initiative zum Industrial Data Space29 oder
der Einsatz von Blockchain Technology30 knnen fr derartige Anforderungen
erprobungsfhige Lsungen bereitstellen, die grundstzlich auch eine Realisierung
in der Breite in Aussicht stellen.

Literatur
Aaken, Dominik van, Andreas Ostermaier und Arnold Picot. Privacy and Freedom:
An Economic (Re-)Evaluation of Privacy. In: Kyklos International Review for
Social Sciences 67.2 (2014), S. 133155.
Bowie, Norman E. und Karim Jamal. Privacy Rights on the Internet: Self-
Regulation or Government Regulation? In: Business Ethics Quarterly 16.3
(2006), S. 323342.
Brennan, Geoffrey und James M. Buchanan. The Reason of Rules. Constitutional
Political Economy. Cambridge: Cambridge University Press, 1985.
Brown, Ian. The Economics of Privacy, Data Protection and Surveillance. In:
Handbook on the Economics of the Internet. Hrsg. von Johannes M. Bauer und
Michael Latzer. Edward Elgar, 2016, S. 247261.
Buchanan, James M. Equality, Hierarchy, and Global Justice. In: Social Philoso-
phy & Policy 23.1 (2006), S. 255265.
Fraunhofer-Gesellschaft und Industrial Data Space e.V. Industrial Data Space
Digitale Souvernitt ber Daten. White Paper. 2016. URL: https : / / www.
fraunhofer.de/de/forschung/fraunhofer-initiativen/industrial-data-space.html
(besucht am 09. 09. 2016).

29 Vgl. Fraunhofer-Gesellschaft und e.V., Industrial Data Space.


30 Vgl. z. B. Zyskind, Nathan und Pentland, Enigma, Decentralizing Privacy: Using Blockchain to
Protect Personal Data.
180 Arnold Picot, Dominik van Aaken und Andreas Ostermaier

Harsanyi, John C. Cardinal Welfare, Individualistic Ethics, and Interpersonal


Comparisons of Utility. In: Journal of Political Economy 63.4 (1955), S. 309
321.
Hirshleifer, Jack. Privacy: Its Origin, Function, and Future. In: Journal of Legal
Studies 9.4 (1980), S. 649664.
Jlicher, Tim, Charlotte Rttgen und Max von Schnfeld. Das Recht auf Daten-
bertragbarkeit Ein datenschutzrechtliches Novum. In: ZD Zeitschrift fr
Datenschutz 6.8 (2016), S. 358362.
Kotler, Philip u. a. Grundlagen des Marketing. 5. Au. Mnchen: Pearson Studium,
2011.
Mill, John Stuart. On Liberty and Other Writings. Cambridge: Cambridge Universi-
ty Press, 2003.
Principles of Political Economy. New York: Oxford University Press, 1998.
Picot, Arnold. Ethik und Absatzwirtschaft aus marktwirtschaftlicher Sicht. In:
Handwrterbuch der Absatzwirtschaft. Hrsg. von Bruno Tietz. Stuttgart: Schffer-
Poeschel, 1974, S. 562574.
Posner, Richard A. Introduction. In: Journal of Legal Studies 9.4 (1980), S. 621.
Schoeman, Ferdinand D. Privacy and Social Freedom. Cambridge: Cambridge
University Press, 1992.
Schreiner, Michael und Thomas Hess. konomie der Privatsphre: Eine Annhe-
rung aus drei Perspektiven. In: Datenschutz und Datensicherheit (DuD) 36.2
(2012), S. 105109.
Stigler, George J. An Introduction to Privacy in Economics and Politics. In: The
Journal of Legal Studies 9.4 (1980), S. 623644.
Zyskind, Guy, Oz Nathan und Alex Sandy Pentland. Decentralizing Privacy:
Using Blockchain to Protect Personal Data. In: Proceedings 2015 IEEE Security
and Privacy Workshops (SPW 2015), 21 May 2015, San Jose, Cal. IEEE, 2015,
S. 180184. DOI: 10.1109/SPW.2015.27.
Enigma: Decentralized Computation Platform with Guaranteed Privacy. arXiV
Whitepaper. Cambridge, Mass.: MIT Media Lab, 2015. URL: http://web.media.
mit.edu/~guyzys/data/enigma_full.pdf (besucht am 09. 09. 2016).
Informationelle Selbstbestimmung aus
ordnungskonomischer Sicht
Malte Dold und Tim Krieger

1. Einleitung
Digitale Daten gelten als das neue l des 21. Jahrhunderts.1 Doch whrend die
lmrkte etablierten, wenn auch nicht perfekten Regeln folgen, sind die Regeln auf
den Informationsmrkten noch im Entstehen. Weder national noch international ist
durch legislative Manahmen oder die Rechtsprechung ausreichend geklrt, wie
die Eigentums- und Verfgungsrechte an personenbezogenen Daten zuzuordnen
sind, d. h. wie und von wem private Informationen nutzbar gemacht werden drfen
und wem die Ertrge aus der Nutzung der Informationen zustehen.2
Aus konomischer Sicht ist ein Zustand ungeklrter Verfgungsrechte nahezu
immer inefzient, d. h., dass die Allokation auf den Mrkten nicht zu einem Wohl-
fahrtsmaximum fr die Gesellschaft fhrt.3 Das vorliegende Kapitel widmet sich aus
einer ordnungskonomischen Perspektive der Frage, warum Informationsmrkte
fr private Daten unter den aktuell bestehenden Rahmenbedingungen nicht efzient
funktionieren und welcher Regelsetzungen es bedarf, um diesen suboptimalen Zu-
stand zu berwinden. Dabei soll der Fokus auf personenbezogenen Informationen
liegen, die in Form von Daten bei der privaten Nutzung von (Online-)Mrkten gene-
riert werden, so dass ein Bezug zum Recht auf informationelle Selbstbestimmung
im Internet hergestellt werden kann.4

* Malte Dold, Prof. Dr. Tim Krieger | Albert-Ludwigs-Universitt Freiburg | {malte.dold;tim.


krieger}@vwl.uni-freiburg.de
1 World Economic Forum, Personal Data.
2 In Deutschland deniert 3 Abs. 1 Bundesdatenschutzgesetz (BDSG) personenbezogene Daten als
Einzelangaben ber persnliche oder sachliche Verhltnisse einer bestimmten oder bestimmbaren
natrlichen Person. Wir verwenden im Folgenden private Informationen und personenbezoge-
ne Daten als synonyme Begriffe.
3 Coase, The Problem of Social Cost.
4 Informationelle Selbstbestimmung ist aus einer konomischen Sicht dann gegeben, wenn der Ver-
braucher seine privaten Daten souvern verwenden kann und ihm die Ertrge der Nutzung zustehen.
Eine przisere Denition erfolgt in Abschnitt 2.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_12
182 Malte Dold und Tim Krieger

Der ordnungskonomische Ansatz in der Tradition der Freiburger Schule stellt


die Frage, wie die formellen und informellen Regeln beschaffen sein mssen, damit
sich eine Wirtschaftsordnung herausbildet, die es den Mitgliedern einer Gesell-
schaft erlaubt, ihre individuellen Handlungen so zu koordinieren, dass sich eine
efziente Ressourcenallokation verwirklicht. Statt die konkreten Ergebnisse von
Tauschhandlungen auf Mrkten zu betrachten, geht man davon aus, dass innerhalb
eines sinnvoll gewhlten Regelrahmens (und nur innerhalb dieses Rahmens) Markt-
transaktionen zu wohlfahrtsoptimalen Ergebnissen fhren. Eucken formuliert als
Grundprinzip der Wirtschaftsordnung einen Leistungswettbewerb mit funktionie-
rendem Preissystem und mglichst scharfem Wettbewerb, der starke Leistungs- und
Innovationsanreize setzt und zugleich die (Konsumenten-)Souvernitt oder, wei-
ter gefasst, die Freiheit des Einzelnen schtzt.5 Zwei konstituierende Prinzipien
fr einen funktionierenden Leistungswettbewerb sind im Kontext der vorliegenden
Untersuchung zu betonen: Zum einen das Prinzip des Privateigentums, d. h. der
klaren Zuordnung der Verfgungsrechte an materiellen und immateriellen Gtern
auf private Akteure, und zum anderen das Prinzip der Vertragsfreiheit, wonach
das Eigentum nach eigenem Belieben und zum alleinigen Nutzen des Eigentmers
gehandelt werden kann.
Auf dem Markt fr personenbezogene Informationen sind die klare Zuordnung
der Verfgungsrechte und die Freiheit, mit diesen handeln zu knnen (oder dies
nicht zu tun), Grundvoraussetzungen fr Leistungsanreize und ein efzientes Markt-
geschehen. Im Allgemeinen wird dem (deutschen) Recht auf informationelle Selbst-
bestimmung kein Eigentums- oder Verfgungsrecht an personenbezogenen Daten
zugeschrieben, da es sich um ein Schutzrecht fr Persnlichkeitsrechte handelt, das
sich weder vertraglich handeln noch aufgeben lsst. Dennoch lsst sich aus einer
rechtskonomischen Perspektive leicht argumentieren, dass die informationelle
Selbstbestimmung dann konomisch efziente Leistungsanreize setzt, wenn sie
als ein Recht zur souvernen Nutzung privater Daten interpretiert wird, durch das
die Mglichkeit geschaffen wird, sich die Ertrge der Informationsverwendung
vollstndig selber anzueignen.6 Diesem Blickwinkel soll in diesem Kapitel gefolgt
werden.
Momentan steht einer efzienten Regelsetzung bei der privaten Datennutzung
allerdings neben der oben genannten juristischen Interpretation des Rechts auf
informationelle Selbstbestimmung als Schutzrecht die auf digitalen Mrkten
(vor allem im internationalen Kontext) vorherrschende frhkapitalistische Einstel-
lung diametral entgegen, dass derjenige, der als erster einer Information eines

5 Eucken, Grundstze der Wirtschaftspolitik.


6 Sugden, The Opportunity Criterion.
Informationelle Selbstbestimmung aus ordnungskonomischer Sicht 183

Dritten habhaft geworden ist, diese nach eigenem Gutdnken zur Steigerung des
persnlichen Nutzens oder Gewinns verwenden kann.7
Die Suche nach geeigneten Rahmensetzungen fr Informationsmrkte wird durch
verschiedene weitere Faktoren behindert. Zunchst verfgt das Gut Information
ber sehr spezische Eigenschaften, die gem der traditionellen Wohlfahrtskono-
mik Marktversagen verursachen. So lsen Informationen, die in Umlauf gebracht
werden, in der Regel positive Externalitten auf andere Nutzer aus, denen keine
(monetren) Gegenleistungen entgegenstehen. Darber hinaus haben Informationen
den Charakter ffentlicher Gter, da Dritte nur sehr schwer von der Verwendung
einmal publik gewordener Daten ausgeschlossen werden knnen. Beides verhindert
eine efziente Marktallokation, lsst sich aber durch die Schaffung klar denierter
und durchsetzbarer Eigentumsrechte zumindest verringern.
Zugleich ist zu beachten, dass personenbezogene Informationen kaum aus der
ffentlichkeit in das Private zurckgefhrt werden knnen. Weil sich private In-
formationen kaum vom Individuum als Trger der Informationsmerkmale trennen
lassen, hilft die Verffentlichung privater Informationen, ein Individuum durch
Rckschluss zu identizieren. Die verhaltenskonomische Literatur beurteilt die
Fhigkeit der Verbraucher, bei der Internet- und Smartphone-Nutzung rational zu
agieren und die Langzeitwirkung einer Informationsentuerung vollstndig zu an-
tizipieren, kritisch.8 Menschliche Fehleinschtzungen scheinen hier eher die Regel
als die Ausnahme zu sein, was zu weiteren Verzerrungen des Marktergebnisses und
zu substantiellen Wohlfahrtsverlusten aufseiten der Verbraucher fhrt.9
Die Debatte ber die informationelle Selbstbestimmung muss auch und gera-
de vor dem Hintergrund der zuvor geuerten berlegungen zu wirtschaftlichen
Anreizen, unvollkommenen Mrkten und nicht perfekt rationalem Individualverhal-
ten gefhrt werden. Der ordnungspolitische Ansatz fragt dabei, wie man in einer
Marktwirtschaft in einer im Aggregat wohlfahrtssteigernden Weise mit personen-
bezogenen Daten umgehen kann und sollte, die einen inhrenten monetren Wert
haben, selbst wenn dieser von vielen Verbrauchern bei der Internetnutzung offen-
bar nicht erkannt wird.10 Damit knnen Informationen zum gegenseitigen Nutzen

7 Diese Problematik unterminiert auch das juristische Schutzrechtskonzept der informationellen


Selbstbestimmung in fundamentaler Weise, da ein Schutzrecht, das nicht durchsetzbar ist, wirkungs-
los bleibt.
8 Vgl. u. a. Acquisti und Grossklags, Privacy and rationality in individual decision making; Be-
resford, Kbler und Preibusch, Unwillingness to Pay for Privacy; Marreiros u. a., Now that You
Mention it; Steinfeld, I Agree to the Terms and Conditions.
9 Madrian, Applying Insights from Behavioral Economics to Policy Design.
10 Benndorf und Normann, The Willingness to Sell Personal Data; Grossklags und Acquisti, When
25 Cents is too much.
184 Malte Dold und Tim Krieger

aller Beteiligten gehandelt werden,11 was impliziert, dass die von Datenschtzern
angemahnte Datensparsamkeit12 als eigenstndiges und erstrebenswertes Ziel von
Verbraucherhandeln aus einer gesamtgesellschaftlichen Sicht zu begrenzt ist. Ein
Appell zur Datensparsamkeit kommt - konomisch gesprochen der Aufforde-
rung gleich, nutzenstiftende Tauschmglichkeiten auszuschlagen, und ignoriert den
Trade-off zwischen Datenschutznotwendigkeiten einerseits und den marktlichen
Anforderungen an Informationsverfgbarkeit andererseits.
Es wird im Folgenden zu klren sein, warum eine rechtlich abgesicherte Sou-
vernitt der Informationsemittenten im Hinblick auf ihre privaten Informationen
derzeit nicht gewhrleistet ist und ob und wie dies durch eine Klarstellung der
Verfgungsrechte gendert werden kann. Weiterfhrend wird nach den Mglichkei-
ten, Chancen und Herausforderungen mglicher Regelsetzungen gefragt, die die
Marktkrfte nutzen, um das gesellschaftliche Wohlfahrtsmaximum zu erreichen,
ohne dabei die bestehenden Restriktionen und Limitationen durch individuelle
Charakteristika der Akteure, die Eigenschaften des Gutes Information sowie die
marktlichen Gegebenheiten auer Acht zu lassen. Hierbei wird an traditionelle
ordnungspolitische Konzeptionen angeknpft und insbesondere an der Problematik
der Verfgungsrechte an privaten Informationen angesetzt.

2. Wohlfahrtsoptimale Informationsmrkte, Inefzienzen und


informationelle Selbstbestimmung
Informationelle Selbstbestimmung bzw. Privatheit kann konomisch als die Ver-
schleierung privater Informationen vor der Nutzung durch Dritte und damit als
die Summe der unverdnnten Verfgungsrechte an persnlichen Informationen
verstanden werden.13 Im Internet sind einmal offenbarte Daten nahezu nicht mehr
aus der Welt zu schaffen und knnen von Dritten beliebig weiter verwendet werden,
um damit vornehmlich auf Seiten der Unternehmen (Mehr-)Werte zu schaffen.
Das private Verfgungsrecht an Informationen ist hier durch geteilte Eignerschaft
verdnnt worden.
11 Vgl. u. a. Posner, The Economics of Privacy; Varian, Economic Aspects of Personal Privacy;
Calzolari und Pavan, On the optimality of privacy in sequential contracting.
12 Z.B. Schaar, Privacy by Design.
13 Posner, The Right of Privacy; Schwartz, Property, Privacy, and Personal Data; damit schliet
das konomische Verstndnis von Privatheit an die klassische Denition von Westin an: Privacy is
the claim of individuals, groups or institutions to determine for themselves when, how, and to what
extent information about them is communicated to others. Vgl. Westin, Privacy and freedom; fr-
here Verstndnisse von Privatheit bezogen sich strker auf die Freiheit, tun und lassen zu knnen,
was man will, bzw. auf das physische Abwehrrecht, in Ruhe gelassen zu werden. Vgl. Brandi-
matre und Acquisti, The Economics of Privacy, beide Aspekte sind jedoch fr die konomische
Analyse von geringerer Bedeutung.
Informationelle Selbstbestimmung aus ordnungskonomischer Sicht 185

Diese Einschrnkung ndert jedoch nichts an der grundstzlichen Tatsache, dass


Privatheit eine Ressource ist, die ber Informationsmrkte prinzipiell handelbar
ist.14 Dementsprechend sind der Markt fr Privatheit und der Markt fr private
Informationen als zwei Seiten derselben Medaille zu verstehen. Verschleierte
Daten verursachen fr beide Marktseiten bestimmte Kosten (bspw. direkte Kosten
der Verschlsselungstechnologie, Opportunittskosten in Form von entgangenen
Markttransaktionen) und Nutzen (bspw. Schutz der Privatsphre, Vertrauen in
Mrkte).15
Im Kontext der folgenden Analyse wird auf den Markt fr private Konsumen-
tendaten abgestellt. Hier sind die Verbraucher die Informationsanbieter und die
Unternehmen die Informationsnachfrager.16 Konsumentendaten knnen dabei als
Beiprodukt auf normalen Gtermrkten (bspw. in Form von beobachtbaren Kaufge-
wohnheiten, Bestelladressen etc.) anfallen oder der unmittelbare Inhalt marktlicher
Transaktionen sein (bspw. in Form des Weiterverkaufs von Datenbankinhalten).

2.1. Individuelle Entscheidungskalkle


Im Kern der konomischen Theorie stehen Entscheidungskalkle ber unterschied-
liche Alternativen mit ihren jeweiligen Vor- und Nachteilen. Fr das Individuum
ergibt sich unmittelbar ein Optimierungsproblem, das in einem konomischen (aber
wie gesehen nicht zwangslug juristischen) Sinne den Kern der informationel-
len Selbstbestimmung ausmacht. Der einzelne private Informationsanbieter kann
unter optimalen Bedingungen als Marktteilnehmer selbst bestimmen, in welchem
Umfang er private Informationen auf dem Markt offenbart, fr die er von den
Informationsnachfragern, zumeist Unternehmen, einen nutzenstiftenden Gegen-
wert erhlt. Dieser Gegenwert kann nanzieller Natur oder eine Dienstleistung
(bspw. eine App) sein. Ein rationales, d.h. vollstndig informiertes oder perfekt
antizipierendes Individuum wird die Kosten und Nutzen seines Handelns sorgfltig
gegeneinander abwgen und gerade die richtige Menge an Informationen bzw. eine

14 Varian, Economic Aspects of Personal Privacy.


15 Kosten und Nutzen von Privatheit sind u. a. aufgrund der Komplexitt und Abstraktheit des Ph-
nomens auf individueller Ebene nicht leicht zu quantizieren. Dies legt den Schluss nahe, dass
der konomische Marktwert der Privatheit tendenziell von ihren Trgern nicht erkannt bzw. unter-
schtzt wird. Allerdings spricht genau diese Beobachtung dafr, dass Privatheit im digitalen Raum
vornehmlich als Verfgungsrecht an persnlichen Daten begriffen und institutionalisiert werden
sollte, da damit eine quantizierbare Einheit geschaffen wrde, die auch von den Individuen als
konomisch wertvoll wahrgenommen wird.
16 Wir abstrahieren davon, dass Verbraucher als Nachfrager fr Informationen ber das Konsumver-
halten anderer Verbraucher (bspw. auf Restaurantbewertungsplattformen wie Yelp) auftreten kn-
nen. Verbraucher stellen hierbei Informationen ohne kommerzielle Interessen anderen Nutzern zur
Verfgung, so dass kein Markt im herkmmlichen Sinne entsteht.
186 Malte Dold und Tim Krieger

geeignete Auswahl an Informationen offenbaren, die seinen individuellen Nutzen


maximiert.17
Die Summe der individuellen Konsumentenentscheidungen stellt das Informa-
tionsangebot auf dem Markt fr private (digitale) Konsumentendaten dar. Hinzu
kommen die Entscheidungen der Marktteilnehmer aus der Unternehmenswelt, die
die Informationsnachfrage bilden. Digitale Mrkte zeichnen sich in der Regel durch
einen hohen Komplexittsgrad und eine relative Unbersichtlichkeit aus, weshalb
aus konomischer Sicht zu klren ist, wie Nachfrager und Anbieter mglichst
kostengnstig und zufriedenstellend zu Tauschabschlssen kommen. Informationen
helfen dabei, weil sie wie ein transaktionskostensenkender Schmierstoff wirken
und die Grundlage fr prferenzbefriedigende Konsum- sowie optimale Produk-
tionsentscheidungen sind.18 Fr gewhnlich stehen Informationen aber nicht zu
jeder Zeit und an jedem gewnschten Ort bzw. Markt in der gewnschten Qualitt
und Menge zur Verfgung. Die verfgbare Daten- bzw. Informationsmenge fllt
hinter die notwendige Bedarfsmenge zurck, sodass Mrkte ihre Lenkungsfunktion
nicht mehr efzient erfllen knnen.19
Die Ursachen knnen auf unterschiedlichen Ebenen des Konsumentenverhaltens
verortet werden. Einerseits knnen die Verbraucher in systematischer Weise von
einem strikten Rationalverhalten abweichen. Dies wre bspw. dann der Fall, wenn
sie durch Produktmarketing zu Spontankufen verleitet werden, die spter Reuege-
fhle auslsen,20 oder wenn ihre kognitiven Fhigkeiten nicht ausreichen, um die
Konsequenzen ihrer Kaufhandlung sorgfltig genug abzuwgen.21 So wird von der
verhaltenskonomischen Literatur angezweifelt, dass Verbraucher in der Lage sind,
die langfristigen Folgen einer Informationsoffenbarung korrekt abzuschtzen und
daher mehr Informationen preisgeben, als es fr sie gnstig wre.22
Andererseits kann eine Nichtoffenbarung von privaten Verbraucherdaten eine
sehr rationale Reaktion auf eine Verdnnung von Verfgungsrechten sein, wenn
aus Sicht des Verbrauchers die Kosten (bspw. monetre Kosten, wie Preisdiskrimi-
nierung oder Kreditdatenmissbrauch, oder nicht-monetre Kosten, etwa Stigmati-
sierung oder psychisches Unbehagen) den Nutzen der Datenabgabe bersteigen.23
Dies gilt vor allem dann, wenn opportunistisches Verhalten der anderen Marktseite
17 Stigler, An Introduction to Privacy in Economics and Politics.
18 Haucap, Ordnungspolitik und Kartellrecht im Zeitalter der Digitalisierung.
19 Posner, The Economics of Privacy.
20 Oliver, Satisfaction.
21 Thaler und Sunstein, Nudge.
22 Taylor, Consumer Privacy and the Market for Customer Information.
23 Experimentelle Studien deuten darauf hin, dass die Kosten-Nutzen-Abwgung eher zugunsten der
Datenfreigabe ausfllt, sobald materielle Vorteile durch die Weitergabe ihrer Daten entstehen. Vgl.
u. a. Benndorf und Normann, The Willingness to Sell Personal Data; Beresford, Kbler und Prei-
busch, Unwillingness to Pay for Privacy.
Informationelle Selbstbestimmung aus ordnungskonomischer Sicht 187

vermutet wird.24 Die informationsnachfragenden Unternehmen knnten die Daten


zum (nanziellen) Schaden des Individuums benutzen und sich die mglichen
Ertrge daraus allein aneignen, was eine Umverteilung von Informationsrenten von
den Konsumenten zu den Unternehmen bedeuten wrde. Dies kann soweit fhren,
dass die Informationsanbieter die De-facto-Verfgungsrechte an privaten, selbst
intimen Daten verlieren.25 Weil ihr persnlicher Anteil am Kooperationsgewinn aus
dem gegenseitigen Informationsgeschft gering bis nicht existent ist bzw. Sorgen
vor einer unkontrollierten Weitergabe ihrer Daten an Dritte bestehen,26 werden
ausreichend kompetente, aber risikoaverse Informationsanbieter auf Markttransak-
tionen verzichten.27 Datensparsamkeit wre in einem solchen Falle selbst gewhlt
und das beobachtbare Ergebnis eines inefzienten Marktprozesses, bei dem die
Verfgungsrechte an privaten Informationen nicht gesichert und durchsetzbar sind.
Die alleinige Beobachtung, dass die verfgbare Konsumentendatenmenge hinter
der notwendigen Bedarfsmenge zurckbleibt, ist nur eine notwendige, jedoch kei-
ne hinreichende Bedingung fr einen staatlichen Eingriff in das Marktgeschehen.
Potenziell kann jedes Informationsproblem eines Marktes auch durch einen funkti-
onsfhigen privaten Informationsmarkt gelst werden. Nicht immer allerdings ist
es mglich, einen solchen Markt zu etablieren. Umgekehrt fhrt ein zu beobach-
tendes systematisches Ignorieren von gebotener Datensparsamkeit unmittelbar zu
der Frage, inwieweit die Verbraucher einen staatlichen Schutz bentigen, um ihre
Verfgungsrechte wahrnehmen zu knnen.28
Die (experimentelle) Beobachtung scheint eine solche Forderung zu untersttzen.
Werden Verbraucher auf Privatheit und informationelle Selbstbestimmung ange-
sprochen, uern sie hug eine starke Prferenz fr den Schutz ihrer persnlichen
Daten.29 Diese expressiven Prferenzen bertragen sich jedoch kaum bis gar
nicht in aktives Handeln.30 Eine Politik der reinen Verbrauchererziehung (etwa in

24 Acquisti, Taylor und Wagman, The Economics of Privacy.


25 Das Tracken des Surfverhaltens von Internetnutzern durch Cookies (teilweise ohne das Wissen
oder die Zustimmung der Verbraucher) kann Unternehmen bspw. Daten ber sexuelle Vorlieben der
Nutzer verschaffen.
26 Acquisti, The Economics of Personal Data and Privacy.
27 Dies fhrt u. a. dazu, dass viele Nutzer, die anfnglich groe Sympathien fr soziale Netzwerke
und Instant-Messaging-Dienste wie Facebook oder WhatsApp gezeigt haben, ihre Nutzerkonten
deaktivieren und auf andere verschlsselte Dienste zurckgreifen.
28 Da der monetre Wert von Informationen mit deren Persnlichkeitsgehalt steigt, werden rmeren
Haushalten starke Anreize gesetzt, gerade die sensibelsten Daten zu monetarisieren. rmere Ver-
braucher machen sich damit angreifbarer als besser situierte Verbraucher. Vgl. Jentzsch, State-of-
the-Art of the Economics of Cyber-Security and Privacy.
29 Vgl. Marreiros u. a., Now that You Mention it.
30 In wiefern ein solches Verhalten im Rahmen des Privacy-Paradoxons erklrt werden kann, ist in der
Forschung umstritten. Mittlerweile gibt es eine Reihe von Studien, die dessen Tragweite anzweifeln,
und die das Konsumentenverhalten durch andere Faktoren (bspw. der Kontextabhngigkeit von
188 Malte Dold und Tim Krieger

Richtung Datensparsamkeit) erscheint aus konomischer Sicht kaum angebracht,


da sie die schon vorhandene Unsicherheit der Verbraucher nur vergrert, aber
keine institutionellen Rahmenbedingungen schafft, die mehr Datensicherheit bieten.
Ein institutionalisiertes Recht auf informationelle Selbstbestimmung kann dann,
wenn es konomisch sinnvoll gestaltet ist, umso mehr eine staatliche Regelsetzung
darstellen, die hilft, Marktversagen zu berwinden und die Allokation von Gtern
und Informationen zu verbessern.

2.2. Produkteigenschaften und Marktstrukturen


Die Ordnungskonomik misst dem Problem der Machtkonzentration groe Bedeu-
tung bei. Digitale Informationsmrkte zeichnen sich durch Netzwerkeffekte aus.
Je mehr Anbieter und Nachfrager auf einem Informationsmarkt zusammentreffen,
desto effektiver ist der Matchingprozess und desto hher der generierbare Nutzen
jedes Einzelnen, aber auch des Aggregats der Marktteilnehmer.31 Die Netzwerkef-
fekte wirken hierbei in Richtung einer Art natrlichen Monopols fr die jeweiligen
Marktplattformen, denn ein Ausweichen auf konkurrierende kleinere Plattformen
ist aus individueller Sicht wenig attraktiv. Verbraucher werden ihre Daten an diejeni-
gen Informationsnachfrager verkaufen, die ihnen am meisten bieten, sei es in Form
direkter Preisnachlsse oder in Form des grten Angebots.32 Whrend die Kon-
zentration auf eine Plattform einerseits durch die Netzwerkeffekte nutzensteigernd
wirkt, birgt sie andererseits die Gefahr der Bildung eines Machtmonopols, bei dem
die Nutzer ausgebeutet werden. Eine solche Entwicklung wre wohlfahrtssenkend,
was erklren kann, warum die Wettbewerbsaufsicht ordnungspolitisch sinnvoll
immer wieder gegen Anbieter wie Facebook oder Amazon vorgeht.
Auch traditionelle Flle des Marktversagens wie externe Effekte und ffentliche
Gter werden in der Ordnungskonomik thematisiert. Die Offenbarung privater
Informationen fhrt zu deren sofortiger Verfgbarkeit fr jeden beliebigen Infor-
mationsnachfrager. Dies gilt unabhngig von der Frage, ob er fr die Information
zuvor gezahlt hat oder nicht. Ist die offenbarte Information werthaltig, so kann sie
direkt in der Verwertungskette weiterverwendet werden und auf diesem Wege zu
Nutzensteigerungen oder Gewinnen fhren. Bei dieser positiven Externalitt fallen
private und soziale Nutzen der Datenoffenbarung auseinander. Der Informations-
anbieter wgt private Kosten (durch die Freigabe der Informationen) und privaten
Nutzen (bspw. einer App) gegeneinander ab und whlt die individuell optimale

Entscheidungen) erklren. Vgl. Friedewald u. a., The Context-Dependence of Citizens Attitudes


and Preferences Regarding Privacy and Security; Dienlin und Trepte, Is the privacy paradox a
relic of the past?
31 Haucap, Ordnungspolitik und Kartellrecht im Zeitalter der Digitalisierung.
32 Jentzsch, State-of-the-Art of the Economics of Cyber-Security and Privacy.
Informationelle Selbstbestimmung aus ordnungskonomischer Sicht 189

Aufgabe von Privatheit. Er ignoriert jedoch die weitergehenden sozialen Nutzen


seines Handelns, weil diese fr ihn weder Nutzen- noch Budgetwirkung haben.
Die sozialen Nutzen bersteigen die privaten und das Wohlfahrtsmaximum wird
verfehlt, weil das individuelle Informationsangebot inefzient niedrig ist.
Dieser Effekt wird durch die Nichtausschliebarkeit Dritter von der Nutzung der
Informationen, einer wesentlichen Eigenschaft ffentlicher Gter,33 noch verschrft.
Zum einen haben Informationsanbieter einen strategischen Anreiz, ihre wahren
Prferenzen durch ein angepasstes Nutzerverhalten im Internet zu verschleiern.
In der Hoffnung, dass andere Nutzer ihren Wunsch nach bspw. ffentlichen G-
tern strker ausdrcken (und ggf. zur Zahlung herangezogen werden), knnen sie
sich zurckhalten, um als Trittbrettfahrer von den Beitrgen anderer zu protieren.
Zum anderen (und konomisch relevanter) wird auf den Erwerb von Informatio-
nen verzichtet, um abzuwarten, ob nicht andere Nutzer die Informationen kaufen
und dann verffentlichen.34 Wegen fehlender Zahlungsbereitschaften und damit
Marktnachfrage kommt es zu einer Unterbereitstellung des Gutes Information.
Angesichts der Tatsache, dass die Verfgungsrechte de facto bei den informati-
onsnachfragenden Unternehmen liegen, knnten sie diesen im Prinzip auch formal
zugeordnet werden. Die Verbraucher mssten, wenn sie die Nutzung ihrer Da-
ten verhindern wollen, die Nichtweitergabe ihrer Daten von den Inhabern der
Verfgungsrechte erkaufen. Sollte ein solcher Markt besser funktionieren als der
bestehende Markt fr private Informationen, wrde die nderung der Zuordnung
der Verfgungsrechte nach Coase die Wohlfahrt erhhen. Verschiedene Argumente
sprechen allerdings gegen einen solchen Ansatz. Erstens drfte eine solche Verf-
gungsrechtenderung weder politisch noch juristisch durchsetzbar sein. Zweitens
knnen auch die neuen Verfgungsrechteinhaber die Vertraulichkeit der Daten
nicht garantieren.35 Drittens kann sich die wohlfahrtserhhende Wirkung nur bei
bereits offenbarten Daten entfalten, whrend davon ausgegangen werden muss,
dass zuknftige Nutzer sich wiederum bewusst datensparsam verhalten werden.
Und viertens deutet die experimentelle Literatur an, dass eine Anfangsverteilung

33 Die Nichtausschliebarkeit ist im Vergleich zur Nichtrivalitt das in diesem Kontext relevantere
Charakteristikum. Ein ffentliches Gut, das berwiegend die Eigenschaft der Nichtausschliebar-
keit aufweist, aber rival in der Konsumnutzung ist, wird als Allmendegut bezeichnet.
34 Ein typisches Beispiel sind Testergebnisse aus Verbraucherzeitschriften, die nicht kuich erwor-
ben, sondern gegoogelt werden.
35 Der Streit zwischen Apple und dem FBI ber die Entschlsselung des Mobiltelefons des Terror-
attentters von San Bernadino ist in diesem Zusammenhang aufschlussreich. Apple hat sich auf
den Standpunkt gestellt, dass die Sicherheit von privaten Daten auf ihren Mobilgerten zum Mar-
kenkern ihres Unternehmens gehrt, weshalb eine Kooperation mit dem FBI nicht mglich wre.
Das FBI musste die Daten deshalb selber entschlsseln, was auch gelang, zugleich aber auch das
Privatheitsversprechen von Apple entwertet hat.
190 Malte Dold und Tim Krieger

von Verfgungsrechten, wie sie das Recht auf informationelle Selbstbestimmung


darstellt, sehr wohl allokative Wirkungen zugunsten der Rechteinhaber entfalten.36

3. Ordnungspolitik auf Informationsmrkten und das Recht


auf informationelle Selbstbestimmung
Der vorherige Abschnitt hat umfassend die Strukturen von (Online-)Mrkten fr
personenbezogene Informationen aufgezeigt und dabei auf die Probleme hingewie-
sen, durch die die Funktionsfhigkeit und Efzienz dieser Mrkte eingeschrnkt
werden. Der ordnungspolitische Ansatz argumentiert, dass wnschenswerte Markt-
ergebnisse (d. h. eine efziente Allokation und ggf. wnschenswerte Verteilung)
von geeigneten Rahmensetzungen fr die betroffenen Mrkte abhngen. Wie bereits
beschrieben, ist die Vorstellung, beobachtbares Marktversagen mit einem simplen
staatlichen Eingriff zu beseitigen, vorschnell. Die tieferliegende Problematik der
Informationsmrkte der Internet- und Smartphone-ra liegt gerade in der noch
unvollstndigen Ausgestaltung von Eigentums- und Verfgungsrechten sowie der
fehlenden Durchsetzbarkeit von Verfgungsrechten.37 Bevor ein Eingriff in die
Marktprozesse erwogen wird, ist zu berprfen, ob und wie verbesserte Ordnungs-
regeln die Dezite eines unregulierten Marktprozesses beseitigen oder zumindest
einhegen knnen. Neue Regelsetzungen sind vor allem dann erstrebenswert, wenn
sie den Marktmechanismus und den Wettbewerb strken.
Whrend in der momentanen Diskussion um die Gestaltung der Mrkte fr
personenbezogene Informationen der Datenschutzgedanke vor allem in einem
rechtlichen und technologischen Sinne dominiert, betrachtet der ordnungskono-
mische Ansatz schwerpunktmig die Regelsetzungen bei den Eigentums- und
Verfgungsrechten und die Durchsetzung dieser Rechte. Whrend das (konomisch
interpretierte) Recht auf informationelle Selbstbestimmung das Verfgungsrecht
ber private Daten dem Grundsatz nach sichert, ist dessen Durchsetzbarkeit nicht
ausreichend gegeben. Damit stellt sich die Frage, wie das Recht auf informationelle
Selbstbestimmung als Verfgungsrecht ber die eigenen Daten abgesichert werden
kann.

36 Hanemann, Willingness to Pay and Willingness to Accept.


37 Nimmt man an, dass das Recht auf informationelle Selbstbestimmung ein Verfgungsrecht ber
die eigenen Daten darstellt, so wird die Problematik der Nichtdurchsetzbarkeit besonders offen-
sichtlich.
Informationelle Selbstbestimmung aus ordnungskonomischer Sicht 191

3.1. Nachhaltige und abgesicherte Vermarktlichung von privaten


Informationen
Private Gter, die auf Mrkten gehandelt werden, zeichnen sich dadurch aus, dass
eine Nutzung durch Dritte (oder eine gemeinsame Nutzung mit Dritten) ausge-
schlossen bzw. fr eine solche Nutzung ein Entgelt erhoben werden kann, so dass
ein Wettbewerb um die Gter (und damit ein Markt) entsteht. Fr das Gut Informati-
on gelten diese Charakteristika nur eingeschrnkt (siehe Abschnitt 2). Um dennoch
die positiven Wirkungen des Wettbewerbs auf die Wohlfahrt realisieren zu knnen,
mssen private Informationen durch sinnvolle Regelsetzungen vermarktlicht wer-
den. Hierbei gilt es, das Gut Information so abzugrenzen, dass es handelbar wird,
und zugleich die Verfgungsrechte mglichst eindeutig zu denieren. Dabei kann
der Grundsatz der Einheit von Haftung und Kontrolle herangezogen werden, der
besagt, dass derjenige, der fr eine Handlung oder in diesem Falle Information
allein haftet, auch die alleinige Kontrolle im Sinne des alleinigen Verfgungsrechts
ber diese Information haben muss, um optimale Verhaltensanreize zu setzen. Na-
turgem stehen dem verantwortlichen Individuum im Umkehrschluss auch allein
die Ertrge der Nutzung der Information zu.
Der Grundsatz von Haftung und Kontrolle ist in den Grundordnungen von Ln-
dern wie Deutschland in der Regel fest verankert, allerdings fr den Fall der
Informationsnutzung noch nicht hinreichend konkretisiert. Drei zentrale Aspekte
mssen hierbei bercksichtigt werden. Erstens muss das entsprechende Recht, etwa
das Recht auf informationelle Selbstbestimmung, auf einer Rechtsebene verankert
sein, die der inhaltlichen Bedeutung der Daten entspricht. Dies kann bspw. in der
Verfassung oder durch hchstrichterliche Entscheidungen geschehen. Zweitens
mssen die Eigentumsrechte des Einzelnen klar dokumentiert sein, was im Fall
von personenbezogenen Daten nicht trivial ist, aber fr das Verhindern einer Ver-
dnnung von Verfgungsrechten essentiell ist. Drittens muss ein (ggf. informelles)
Grundverstndnis darber herrschen, wie der Gesetzgeber und/oder die Gerichtsbar-
keit in einem unspezizierten Einzelfall das Verfgungsrecht allozieren sollte (bspw.
nach dem Grundsatz der Efzienz im Sinne einer Gesamtschadensminimierung).
Eine zentrale Magabe fr die Vermarktlichung von Informationen stellt die
Transparenz dar.38 Das zu handelnde Gut muss in seinem Umfang und Verwen-
dungszweck klar deniert sein. Erst auf dieser Basis kann es gelingen, den monet-
ren Gegenwert der Informationen und damit die Strke der konomischen Anreize

38 Fr eine hnlich gelagerte juristische Interpretation der Kriterien Transparenz, Schadensminimie-


rung und Haftung, vgl. Orr, Gander und Hhn, Report on methodology and criteria for incorpora-
ting perception issues in the design phase of new surveillance systems.
192 Malte Dold und Tim Krieger

zu bestimmen.39 Der Gesetzgeber und die Rechtsprechung mssen daher fr die


sich aus den Verfgungsrechten ergebenden Haftungsfragen wirksame Anreize
zur Sicherung und Durchsetzung der Rechte schaffen, wobei gerade das Durchset-
zungsproblem seit Jahren die eigentliche Herausforderung darstellt. In jngster Zeit
scheint sich die Rechtsprechung dieser Frage verstrkt anzunhern, whrend der Ge-
setzgeber weiterhin zgerlich wirkt. Sofern die Durchsetzung der Verfgungsrechte
nicht ber die Strkung der Marktinstitutionen gelingt, was nur in eingeschrnktem
Mae mglich sein wird (siehe Abschnitt 3.2), ist das Strafma bei der Missach-
tung der Rechte der strkste Anreiz fr wirtschaftliche Akteure, die Rechte aus
eigenem Interesse einzuhalten.40 Ein ausreichend scharfer Strafrahmen (bei hoher
Aufdeckungswahrscheinlichkeit und effektiver gerichtlicher Durchsetzung), der
wirtschaftlich sprbar ist, und eine Verankerung der Beweislast auf der Seite der
informationsnachfragenden Unternehmen verndern deren Kosten-Nutzen-Kalkl
zugunsten der Einhaltung der Verfgungsrechte der Verbraucher.41
Ein solcher Ansatz wirkt naturgem nur indirekt in Richtung der Einhaltung
und Durchsetzung der Verfgungsrechte an privaten Informationen. Ein Missbrauch
kann nicht gnzlich ausgeschlossen werden, jedoch wird er unwahrscheinlicher und
kann in der lngeren Frist zu einer Normbildung im Bereich der grundstzlichen
Akzeptanz von Privatheit auf beiden Marktseiten fhren. Dabei hilft auch die
aktuelle Rechtsprechung des Europischen Gerichtshofs, die zu einer deutlichen
Strkung der Rechte der Informationseigentmer gefhrt hat. Trotz aller weiterhin
offenen Fragen untersttzt sie das Verfgungsrecht an privaten Informationen durch
eine verbesserte Sanktionierbarkeit von Missbruchen, so dass sich das Kosten-
Nutzen-Kalkl der Unternehmen in Richtung des Datenschutzes verschiebt. So
wurde das Recht auf Vergessenwerden ebenso gestrkt42 wie die unkontrollierte
bermittlung von Daten im Safe-Harbor-Abkommen erschwert.43
Fast noch wichtiger als diese konkreten Entscheidungen ist das Signal des EuGH,
dass Datenschutzfragen verstrkt im Sinne der Informationseigner behandelt wer-
39 Transparenz hat allerdings nicht per se einen wohlfahrtserhhenden Wert. Solange Informationen
nicht zum Schaden des Eigentmers der Rechte, also typischerweise des privaten Nutzers, einge-
setzt werden, kann Efzienz auch in einer intransparenten Umwelt erreicht werden.
40 Dies gilt umso mehr, wenn man bedenkt, dass persnliche Informationen heute immer weniger
lokal in Datenbanken gespeichert und geschtzt werden knnen, sondern sich auf vielfltige Weise
online in vernetzten Systemen abbilden; vgl. hierzu das Kapitel von Trpe et als. in diesem Band.
41 Die neue EU-Datenschutz-Grundverordnung (DS-GVO, Verordnung (EU) 2016/679) ist dabei ein
Schritt in die richtige Richtung. Allerdings orientiert sie sich beim Strafrahmen am Wettbewerbs-
recht. Hierbei lsst sich kritisch anmerken, dass das Strafma in der DS-GVO noch hher ausfallen
msste, um eine abschreckende Wirkung zu entfalten, weil davon auszugehen ist, dass die Aufde-
ckungswahrscheinlichkeit bei datenrechtlichen Versten systematisch geringer ausfallen drfte als
bei wettbewerbsrechtlichen.
42 Europischer Gerichtshof, Urteil in der Rechtssache C-131/12.
43 Europischer Gerichtshof, Urteil in der Rechtssache C-362/14.
Informationelle Selbstbestimmung aus ordnungskonomischer Sicht 193

den. Dies bewirkt, dass sich das Kosten-Nutzen-Kalkl der informationsnachfra-


genden Unternehmen verschiebt, weil sich die Kosten der Informationsnutzung
im Erwartungswert erhhen. Es steigt die Wahrscheinlichkeit von Klagen ebenso
wie die Chance, dass ein anhngiger Prozess verloren wird. Darber hinaus wirkt
das Prjudiz der EuGH-Rechtsprechung auf die nationale Ebene zurck und strkt
die Normbildung im Bereich des Privatheitsverstndnisses. Damit wird ein gene-
relles Handlungsparadigma geschaffen, um auch bei unklaren bzw. nicht durch
die Gesetzgebung abgedeckten Privatheitskonikten eine eindeutige Zuordnung
der Verfgungsrechte vornehmen zu knnen. Die Tatsache, dass diese Ausdifferen-
zierung des Rechts- und Ordnungsrahmens bisher nicht weiter vorangeschritten
ist, hngt stark mit der relativen Neuigkeit der digitalen Informationsmrkte und
deren globalen Zuschnitt zusammen. ber die Zeit wird sich die Rechtsprechung
zumindest in Europa vereinheitlichen und ausdehnen. In welche Richtung sie sich
entwickeln wird, kann durch frhzeitige politische Rahmensetzungen beeinusst
werden. Umgekehrt bedeutet dies aber auch, dass ein Recht auf informationelle
Selbstbestimmung, das jetzt in Frage gestellt wird, spter umso schwerer einen
verbindlichen Rechtscharakter bekommen und zur Norm werden kann.

3.2. Strkung von Marktinstitutionen


Der zweite ordnungskonomische Ansatzpunkt fr die privaten Informationsmrk-
te bezieht sich auf die Verbesserung und Strkung der Marktinstitutionen. Ihm
unterliegt die Vorstellung, dass nur Mrkte mit einem hinreichend groen Wettbe-
werbspotenzial ihre allokative Lenkungswirkung in einer efzienten Weise ausfllen
knnen. Ein funktionierender Marktmechanismus setzt voraus, dass die Marktmacht
einzelner Akteure gering gehalten wird. Ein scharfes Wettbewerbsrecht ist daher
notwendig, um das Entstehen von Marktkonzentrationen im Internet zu kontrollie-
ren und ggf. zu verhindern. Entscheidend ist dabei zu beachten, dass Marktprozesse
dynamischer Natur sind. Der Erfolg eines einzelnen Grounternehmens kann die
Folge einer berlegenen Innovation sein, die fr sich genommen erstrebenswert
ist, um die Gesamtwohlfahrt zu maximieren. Die Marktmacht eines Unterneh-
mens endet oftmals mit der nchsten Innovation eines Konkurrenten. Aus diesem
Grund sollte die Wettbewerbsordnung vor allem die Offenheit und den Zugang der
Online-Mrkte fr neue Konkurrenten und Innovationen strken. Erst wenn dies
nicht mehr uneingeschrnkt ermglicht werden kann, werden einzelfallspezische
Regulierungsmanahmen ntig.44
Doch auch im Zusammenspiel von Informationsangebot und -nachfrage lsst
sich der Marktmechanismus strken. Hierbei kommt es weitaus fter als viel-
44 Aktuell untersucht das Bundeskartellamt, ob Facebook seine marktbeherrschende Stellung auf den
Informationsmrkten missbraucht.
194 Malte Dold und Tim Krieger

fach vermutet zu rein marktlichen Lsungen, bei denen der Staat lediglich die
Lsungsmglichkeiten durch entsprechende Rahmenbedingungen absichert. Der
Ordnungsrahmen hilft in diesem Fall, die Marktinstitutionen in Richtung allokativer
Efzienz zu leiten. Ein solcher Ansatz besteht u. a. im Fall von asymmetrischer In-
formation zwischen Anbietern und Nachfragern. So kommt es durch die Unkenntnis
der Qualitt oder Zuverlssigkeit der jeweils anderen Marktseite regelmig zur Ent-
stehung vorvertraglicher Transaktionskosten. Diese knnen jedoch durch rationales
Verhalten der Marktakteure selbst reduziert werden. Werden bspw. glaubwrdige
Vertrauenssignale ex ante ausgesendet (Signalling), so werden die Kontrollkosten
der anderen Marktseite reduziert (verringerte Notwendigkeit des Screenings). Es
kommt ex post zu weniger Vertragsstreitigkeiten und das moralische Risiko nach
Vertragsabschluss wird abgeschwcht.45 Es lohnt sich fr keine Seite, vom Ver-
tragsinhalt abzuweichen, da Reputationsverluste drohen und zuknftige Geschfte
verhindert werden. Der Staat untersttzt dies mit der Absicherung der Glaubwrdig-
keit von Marktsignalen und Kontrollprozessen durch Regeln. Umgekehrt gilt, dass
je geringer die Bereitschaft ist, wegen des Fehlens solcher Regeln Informationen zu
offenbaren, desto hher sind die Transaktionskosten und desto weniger Wohlfahrt
wird auf dem Markt erzielt.
Des Weiteren wird durch eine verbesserte Bereitstellung von Informationen
(bspw. in Vergleichsportalen) der Wettbewerb innerhalb der beiden Marktseiten
intensiviert, weil sich die Beweglichkeit der Akteure auf dem Markt erhht. Diese
werden dadurch angereizt, wahre Informationen ber sich preiszugeben. Hier-
durch wird eine positive Korrelation zwischen Marktsignal und Produkt- bzw. Ak-
teursqualitt gewhrleistet, sodass Informationen glaubwrdiger werden. Falsche
Marktsignale (d. h. Informationen, die von der tatschlichen Produktqualitt abwei-
chen) werden bestraft, indem die Akteure zu anderen Vertragspartnern abwandern.
Die hohe Beweglichkeit der Akteure auf den Mrkten fhrt folglich dazu, dass
die Vorteile durch eine erhhte Reputation im Vergleich zu den Anreizen, sich
opportunistisch zu verhalten, gestrkt werden. Die Akteure werden seltener den
kurzfristigen Gewinn durch Vertragsbruch und Missbrauch von Qualittssignalen
whlen, weil sie langfristige Reputationsverluste befrchten, die zu geringeren
Gewinnen durch eine geringere Anzahl von Wiederholungskufen fhren. Der
Markt fr personenbezogene Daten kann sich unter diesen Umstnden vergrern,
was erneut positive Wohlfahrtswirkungen zur Folge htte. Eine solche Entwicklung
kann aus einem privaten Gewinninteresse entstehen, jedoch ist eine untersttzende

45 Multiseller/Multibuyer-Plattformen wie Amazon oder Ebay haben sich vor allem deshalb durch-
setzen knnen, weil hier beide Marktseiten zentrale Informationen ber sich als Vertrauenssignale
preisgeben. Ebay nutzt hierfr ein einsehbares Bewertungsschema, das zum Reputationsaufbau ge-
nutzt werden kann. Bei Amazon sind es die Produktbewertung auf der Angebotsseite und die eigene
Kaufhistorie auf der Seite der Nachfrager, die zu passgenauen Produktempfehlungen fhren.
Informationelle Selbstbestimmung aus ordnungskonomischer Sicht 195

Rahmensetzung vonseiten des Staates dabei hilfreich etwa durch die rechtliche
Zulassung von vergleichenden Verbrauchertests46 oder Datenschutz-Zertikaten
mit funktionierendem Monitoring.47

4. Abschlieende Bemerkungen
In Zeiten zunehmender Digitalisierung werden wichtige volkswirtschaftliche Res-
sourcen verschwendet, wenn man an einem zu eng verstandenen Privatheits- bzw.
Freiheitsbegriff festhlt und immer hhere Abwehrmauern um das private Indi-
viduum baut.48 Absolute Abwehrrechte - sowohl gegen staatliche Willkr bei
der Datenerhebung als auch gegen unternehmerische Zweckentfremdung bei der
Datenverwendung sollten zwar weiterhin der normative Anspruch sein. Jedoch
sollte man den Verbrauchern auch nicht verheimlichen, dass sie ber enorme Assets
in Form ihrer persnlichen Daten verfgen, welche sie auf abgesicherten Infor-
mationsmrkten selbstbewusst, offensiv und vor allem gewinnbringend veruern
knnen.
In einem liberalen Sinne ist das Recht auf informationelle Selbstbestimmung
nicht nur das (Schutz-)Recht auf Privatheit der eigenen Daten, sondern auch das
durchaus konomisch zu verstehende Recht, mit eben diesen Daten tun und
lassen zu knnen, was man will. Die Handelbarkeit der Daten wird aus ordnungs-
konomischer Sicht wiederum durch garantierte, unverdnnte und sanktionierbare
Verfgungsrechte gewhrleistet. Dem Eigentmer des Verfgungsrechts muss durch
entsprechende institutionelle Rahmensetzung die Mglichkeit gegeben werden, sei-
ne Rechte wahrzunehmen und deren Weitergabe zu kontrollieren bzw. dafr ange-
messen entlohnt zu werden. Die Grundstze des Schutzes des geistigen Eigentums
knnen hierbei als Grundlage dienen.
Vor dem Hintergrund der berlegungen dieses Kapitels kann es daher nicht dar-
um gehen, blind in den Reigen nach immer mehr Datensparsamkeit einzustimmen,
sondern dafr zu sorgen, dass sich die Marktteilnehmer darauf verlassen knnen,
dass Vertrauliches nicht ohne Zustimmung und Wissen zu kommerziellen oder
kriminellen Zwecken weiterverwendet wird. Eine konomie, in der man Angst
haben muss, dass die freiwillige Weitergabe privater Informationen zu einem sp-
teren Zeitpunkt einen nanziellen oder anderen Schaden mit sich bringt, schafft

46 Bspw. wurden vergleichende Warentests in Deutschland im Jahr 1960 in einem Musterprozess vor
dem OLG Stuttgart fr zulssig erklrt und fhrten wenige Jahre danach zur Einrichtung der Stif-
tung Warentest. Die Wirkung dieser Entwicklung fr den Wettbewerb auf den Mrkten fr Ver-
brauchsgter kann nicht hoch genug eingeschtzt werden.
47 Jentzsch, Was knnen Datenschutz-Gtesiegel leisten?
48 Fr eine vertiefte Auseinandersetzung ber den konomischen Zusammenhang von Freiheit und
Privatheit bzw. siehe das Kapitel von Picot et als. in diesem Band.
196 Malte Dold und Tim Krieger

ein Klima des Misstrauens. Potentiell vorteilhafte Transaktionen werden im Kei-


me erstickt und individuelle ebenso wie gesamtwirtschaftliche Wohlfahrtgewinne
verschenkt. Der ordnungskonomische Ansatz einer Strkung und sanktionierten
Absicherung von Verfgungsrechten an privaten Daten trgt zu einer Verminderung
dieser ngste bei und befrdert die efzienzerhhende Normbildung im Bereich
der grundstzlichen Akzeptanz von Privatheit auf beiden Marktseiten.

Literatur
Acquisti, Alessandro. The Economics of Personal Data and Privacy. Background
Paper 3. Paris: Organisation for Economic Co-operation und Development
(OECD), 1. Dez. 2010. URL: https://www.oecd.org/sti/ieconomy/46968784.pdf
(besucht am 09. 09. 2016).
Acquisti, Alessandro und Jens Grossklags. Privacy and rationality in individual
decision making. In: IEEE Security and Privacy 3.1 (2005), S. 2633.
Acquisti, Alessandro, Curtis R. Taylor und Liad Wagman. The Economics of
Privacy. In: Journal of Economic Literature 52.2 (2016), S. 442492.
Benndorf, Volker und Hans-Theo Normann. The Willingness to Sell Personal
Data. Discussion Paper 143. Dsseldorf: Dsseldorf Institute for Competition
Economics, Apr. 2014.
Beresford, Alastair R., Dorothea Kbler und Sren Preibusch. Unwillingness
to Pay for Privacy: A Field Experiment. In: Economics Letters 117.1 (2012),
S. 2527.
Brandimatre, Laura und Alessandro Acquisti. The Economics of Privacy. In:
The Oxford Handbook of the Digital Economy. Hrsg. von Martin Peitz und Joel
Waldfogel. Oxford: Oxford University Press, 2012, S. 547571.
Calzolari, Giorgio und Alessandro Pavan. On the optimality of privacy in sequen-
tial contracting. In: Journal of Economic Theory 130.1 (Sep. 2006), S. 168
204.
Coase, Ronald Harry. The Problem of Social Cost. In: The Journal of Law and
Economics 1.3 (Okt. 1960), S. 144.
Dienlin, Tobias und Sabine Trepte. Is the privacy paradox a relic of the past?
An in-depth analysis of privacy attitudes and privacy behaviors. In: European
Journal of Social Psychology 45 (2015), S. 285297. DOI: 10.1002/ejsp.2049.
Eucken, Walter. Grundstze der Wirtschaftspolitik. Tbingen: Francke, Bern und
Mohr, 1952.
Europischer Gerichtshof. Urteil in der Rechtssache C-131/12, Google Spain SL,
Google Inc./Agencia Espaola de Proteccin de Datos, Gonzlez, Mario Costeja.
Pressemitteilung Nr. 70/14. Luxemburg, 14. Apr. 2013.
Informationelle Selbstbestimmung aus ordnungskonomischer Sicht 197

Urteil in der Rechtssache C-362/14 Maximillian Schrems/Data Protection Com-


missioner. Pressemitteilung Nr. 117/15. Luxemburg, 6. Okt. 2015.
Friedewald, Michael u. a. The Context-Dependence of Citizens Attitudes and
Preferences Regarding Privacy and Security. In: Data Protection on the Move:
Current Developments in ICT and Privacy/Data Protection. Hrsg. von Serge
Gutwirth, Ronald Leenes und Paul De Hert. Bd. 24. Law, Governance and
Technology. Dordrecht: Springer, 2016. Kap. 3, S. 5174.
Grossklags, Jens und Alessandro Acquisti. When 25 Cents is too much: An Experi-
ment on Willingness-To-Sell and Willingness-To-Protect Personal Information.
In: Proceedings of the Sixth Workshop on the Economics of Information Security
(WEIS 2007), Pittsburgh, PA. 2007.
Hanemann, Michael. Willingness to Pay and Willingness to Accept: How Much
Can They Differ? In: American Economic Review 81.3 (1991), S. 635647.
Haucap, Justus. Ordnungspolitik und Kartellrecht im Zeitalter der Digitalisierung.
Ordungspolitische Perspektiven 77. Dsseldorf: Dsseldorf Institute for Compe-
tition Economics, Okt. 2015.
Jentzsch, Nicola. State-of-the-Art of the Economics of Cyber-Security and Privacy.
IPACSO Deliverable 4.1. Waterford: Waterford Institute of Technology, Feb.
2016. URL: https://www.econstor.eu/dspace/bitstream/10419/126223/1/Jentzsch_
2016_State-Art-Economics.pdf (besucht am 17. 04. 2016).
Was knnen Datenschutz-Gtesiegel leisten? In: Wirtschaftsdienst 92 (2012),
S. 413419.
Madrian, Brigitte C. Applying Insights from Behavioral Economics to Policy
Design. In: Annual Review of Economics 6.1 (2014), S. 663668.
Marreiros, Helia u. a. Now that You Mention it: A Survey Experiment on Information,
Salience and Online Privacy. CESifo Working Paper 5756. Mnchen: Center for
Economic Studies & Ifo Institute, Feb. 2016.
Oliver, Richard L. Satisfaction: A Behavioral Perspective on the Consumer. London
und New York: Routledge, 2014.
Orr, Elisa, Hans-Helmuth Gander und Sebastian Hhn. Report on methodology
and criteria for incorporating perception issues in the design phase of new sur-
veillance systems. SURVEILLE Deliverable 3.6. Florence: European University
Institute, Dez. 2013.
Posner, Richard A. The Economics of Privacy. In: American Economic Review
71.2 (1981), S. 405409.
The Right of Privacy. In: Georgia Law Review 12 (1977), S. 393422.
Schaar, Peter. Privacy by Design. In: Identity in the Information Society 3.2
(2010), S. 267274.
Schwartz, Paul. Property, Privacy, and Personal Data. In: Harvard Law Review
117 (Mai 2004), S. 20562128.
198 Malte Dold und Tim Krieger

Steinfeld, Nili. I Agree to the Terms and Conditions. In: Computers in Human
Behavior 55 PB (2016), S. 9921000. DOI: 10.1016/j.chb.2015.09.038.
Stigler, George J. An Introduction to Privacy in Economics and Politics. In: The
Journal of Legal Studies 9.4 (1980), S. 623644.
Sugden, Robert. The Opportunity Criterion: Consumer Sovereignty without the
Assumption of Coherent Preferences. In: American Economic Review 94 (Sep.
2014), S. 10141033.
Taylor, Curtis R. Consumer Privacy and the Market for Customer Information.
In: The RAND Journal of Economics 35.4 (2004), S. 631650.
Thaler, Richard H. und Cass R. Sunstein. Nudge: Improving Decisions about Health,
Wealth, and Happiness. New Haven: Yale University Press, 2008.
Varian, Hal R. Economic Aspects of Personal Privacy. Technical Report. Berkeley,
Cal.: University of California Berkeley, 1996.
Verordnung (EU) 2016/679 des Europischen Parlaments und des Rates vom
27. April 2016 zum Schutz natrlicher Personen bei der Verarbeitung personen-
bezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie
95/46/EG (Datenschutz-Grundverordnung). In: Amtsblatt der Europischen
Union L 119 (4. Mai 2016), S. 188. URL: http : / / eur- lex . europa . eu / legal -
content/DE/TXT/?uri=OJ:L:2016:119:TOC.
Westin, Alan F. Privacy and freedom. New York: Atheneum, 1967.
World Economic Forum. Personal Data: The Emergence of a New Asset Class.
Cologny und Geneva, 2011. URL: http://www3.weforum.org/docs/WEF%5C_
ITTC%5C_PersonalDataNewAsset%5C_Report%5C_2011.pdf (besucht am
09. 09. 2016).
Teil III.

Weiterentwicklung und knftige


Ausgestaltung der informationellen
Selbstbestimmung
Rettung der informationellen Selbstbestimmung
durch die Teilung der digitalen Sphre?

Ein Vorschlag aus subjekttheoretischer Perspektive


Innokentij Kreknin

1. Einleitung
Diesem Aufsatz liegt die Frage zugrunde, ob es mglich sei, in einer digitalisierten
Mediengesellschaft die informationelle Selbstbestimmung (iSB) von Akteuren zu
erhalten. Zum gegenwrtigen Zeitpunkt fllt die Antwort negativ aus, da die Idee
einer allumfassenden informationellen Selbstbestimmung schon aus Sicht der Sub-
jekttheorie nicht funktioniert. Stattdessen sind graduale und relationale Formen als
Balanceakt zwischen Autonomie und Heteronomie des einzelnen Subjekts mg-
lich. Das Problem der iSB wird als Problem kontextueller Integritt in komplexen
und dezentrierten Kommunikationssystemen fassbar. Ein Modell, wie mit diesen
Problemen umgegangen werden kann, bieten autoktionale Poetiken. Auf solchen
Beispielen aufbauend wird ein Vorschlag zur Lsung des Dilemmas prsentiert, der
darin besteht, die Sphre des Digitalen in zwei voneinander strikt abgetrennte und
funktional unterschiedlich wirksame Bereiche zu teilen.

2. Informationelle Selbstbestimmung und ihr Wert


Aus der Sicht der Privatheitsforschung kann die iSB am ehesten dem Pol der infor-
mationellen Privatheit zugewiesen werden, was zugleich fr viele TheoretikerInnen
den Kern dessen darstellt, worum es bei Privatheitsfragen generell geht.1 Fr eine
Perspektive aus subjekttheoretischer Sicht wird dabei vor allem die philosophische

* Dr. Innokentij Kreknin | Technische Universitt Dortmund | i.kreknin@gmx.net.


1 Vgl. u. a. die klassische Denition in Westin, Privacy and freedom, S. 7; vgl. auch Rssler, Der
Wert des Privaten, S. 202.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_13
202 Innokentij Kreknin

Begrndung des Werts der iSB relevant, bei der sich immer wieder folgende Set-
zung ndet: Nur wenn informationelle Selbstbestimmung zumindest bis zu einem
bestimmten Grad vorliegt, kann individuelle Autonomie existieren.2
Dieser Aspekt des Graduellen dient als Ansatzpunkt, um das Paradigma individu-
eller Autonomie durch dasjenige der relationalen Autonomie zu ersetzen, denn die
Gradualitt der iSB, so kann man schlussfolgern, sorgt auch fr graduelle Auspr-
gungen von Autonomie. Die Annahme dieses wechselhaften Verhltnisses bedingt,
dass es kein einfaches Schwellenmodell gibt. (Man ist autonom, oder man ist es
eben nicht.) Stattdessen muss immer von Aushandlungsprozessen zwischen Auto-
nomie und Heteronomie ausgegangen werden, mit denen ein Individuum bestndig
konfrontiert ist. Dieses Modell der relationalen Autonomie3 ist am besten geeignet,
um die komplexen Machtverhltnisse einer digitalisierten Mediengesellschaft und
ihre Wirkungen auf das Subjekt zu beschreiben.

2.1. Philosophische Perspektive


Ausgehend vom Individuum und dem als absolut erachteten Wert von dessen per-
sonaler Autonomie ergeben sich zwei Szenarien, in denen informationelle Selbst-
bestimmung berhaupt erst operativ Anwendung ndet. Das eine ist das Szenario
der Interaktion mit Dispositiven, zu deren machtvoll umgesetzten Intentionen
sich das Individuum verhalten muss Beispiele wren das brokratische System,
staatsseitige berwachungspraktiken aber auch die Monetarisierungsmodelle von
Unternehmen. Das andere Szenario ist das einer Interaktion unter peers, also sich
potentiell auf gleicher Macht- und Hierarchiestufe bendenden Personen. Beide
werden aus Subjektperspektive relevant.
Das Szenario der Aushandlung der iSB gegenber Dispositiven kann am ein-
drcklichsten immer noch am Beispiel von Foucaults Panoptismus vermittelt wer-
den.4 Er ist dabei nicht auf den bei Bentham entlehnten architektonischen Aspekt
zu beschrnken, sondern als eine komplexe Metapher zu verstehen, die hier nicht
nur den Wert der informationellen Selbstbestimmung verdeutlichen kann, sondern
auch die Anbindung an die weiter unten verhandelten Subjekttheorien ermglicht.
Die Grundidee der architektonischen Anlage bei Bentham bestand darin, dass
sich im Zentrum eines Gebudes ein Beobachtungspunkt fand, von welchem aus ein
Reprsentant der Macht alle Insassen der Anlage berwachen konnte, ohne selbst

2 Rssler, Der Wert des Privaten, S. 203; Oshana, Autonomy and the Question of Authenticity,
S. 411.
3 Oshana, Personal Autonomy and Society; sowie etwas differenzierter Christman, Relational
Autonomy, Liberal Individualism, and the Social Construction of Selves.
4 Vgl. zur Kritik der trivialen und reduzierenden Verwendungen in den Surveillance-Studies vor al-
lem Caluya, The post-panoptic society?
Rettung der informationellen Selbstbestimmung 203

fr diese sichtbar zu sein. Die Insassen waren isoliert in Zellen untergebracht, ohne
die Mglichkeit des Kontakts untereinander, sie waren Objekt einer Information,
niemals Subjekt in einer Kommunikation.5 Durch die Unsichtbarkeit der Beobach-
tungsinstanz fr die Insassen war es nicht notwendig, dass sie jeweils tatschlich zu
jedem Zeitpunkt berwacht wurden. Dieser Aspekt ist fr Foucault der springende
Punkt, von dem aus er seine Gedanken entwickelt. Fr den vorliegenden Aufsatz
sind zwei davon besonders relevant:
1. Das architektonische Panopticon ist fr Foucault die Metapher fr ein all-
gemeineres Prinzip, den Panoptismus. Dessen Pointe besteht darin, dass es das
ideale Sinnbild einer Disziplinargesellschaft darstellt, deren Agency sich in die
Objekte der potentiellen berwachung einschreibt. Die fehlende informationelle
Selbstbestimmung fhrt dazu, dass die Subjekte des Panopticons zu reinen Be-
obachtungsobjekten degradiert werden und ber diesen Zustand wissen, sich
ihm entsprechend verhalten. Welchen Zweck die Anlage auch immer verfolgt
ihre Ordnung wird zu einer Subjekttechnologie, die die Ordnung des Systems
aufrechterhalten soll:

Derjenige, welcher der Sichtbarkeit unterworfen ist und dies wei,


bernimmt die Zwangsmittel der Macht und spielt sie gegen sich
selber aus; er internalisiert das Machtverhltnis, in welchem er gleich-
zeitig beide Rollen spielt; er wird zum Prinzip seiner eigenen Unter-
werfung.6

Die Efzienz des Panoptismus wird also nicht durch aktive Einussnahme der
Macht gewhrleistet, sondern dadurch, dass es die fehlende informationelle Selbst-
bestimmung veranschaulicht und dadurch disziplinierend wirkt.
2. Der Panoptismus ist seiner Idee nach mit demokratischen Prinzipien kompati-
bel. Bereits bei Foucault ist auch der Aufseher in der Mitte, der als Verkrperung
der Agency den Ort der Macht besetzt, durch andere Instanzen und Akteure kon-
trollierbar:

Jede panoptische Institution [. . . ] kann ohne weiteres diesen zuflli-


gen und unaufhrlichen Inspektionen zugnglich sein, und zwar nicht
nur fr beauftragte Kontrolleure, sondern fr das Publikum; jedes
beliebige Mitglied der Gesellschaft hat das Recht, mit seinen eigenen
Augen wahrzunehmen, wie die Schulen, die Spitler, die Fabriken, die
Gefngnisse funktionieren. Es besteht also keine Gefahr, da die der
panoptischen Maschine zu verdankende Machtsteigerung in Tyrannei
5 Foucault, berwachen und Strafen, S. 257.
6 Ebd., S. 260.
204 Innokentij Kreknin

entarten knnte; die Disziplinaranlage wird demokratisch kontrolliert


[. . . ].7

So betrachtet kann man sich Szenarien vorstellen, in denen die Insassen das
Panopticon temporr verlassen, um zu berprfen, ob die Aufseherinstanz eine
Agency in ihrem Sinne durchsetzt, um anschlieend dann wieder sich dem Prinzip
der Beobachtbarkeit zu unterwerfen.8
Die Quintessenz des panoptischen Modells in Hinblick auf den Wert und die
Gestaltung der iSB besteht somit darin, dass die Einschrnkung und Manipulation
der iSB als eine Machtwirkung beschrieben werden kann, die von den Subjekten
selbst soweit internalisiert wird, dass sie selbst zu den aktiven Wirkungsmecha-
nismen dieser Macht werden, wenn sie sich der verkrperten Agency konform
verhalten. Whrend eine vollstndige berwachung, verbunden mit der Drohung
von Sanktionen bei nonkonformem Verhalten, die Subjekte in der Tat komplett
in ihrer Handlungsfreiheit einschrnkt und sie zu reinen Objekten der Macht de-
gradiert, sind jedoch auch Abstufungen mglich, die das demokratische Gefge
auch im Zustand des Panoptismus intakt belassen. Diese Erkenntnis ist alles an-
dere als trivial; ihr Grundprinzip kommt jedoch am strksten da zum Tragen, wo
informationelle Selbstbestimmung auf der Ebene von Subjektbeziehungen wirksam
wird.

2.2. Subjekttheoretische Perspektive


Aus einer poststrukturalistisch informierten Perspektive ist das Subjekt keine Tran-
szendentalie mit Eigenschaften, die ihm a priori, d. h. vor aller Erfahrung, zu-
kommen,9 sondern wird als eine sich prozessual generierende und historisch wie
kontextuell wandelnde Gre verstanden, die von einer grundstzlichen Dialektik
durchzogen ist: Es ist die agierende, beobachtende, selbstbestimmte Instanz, aber
zugleich auch dasjenige, das unterworfen ist, das bestimmten Regeln unterliegt
und sich ihnen unterwirft.10
Man wird zum Subjekt erst im Zuge sich historisch, kulturell und kontextuell
unterscheidender Subjektivationspraktiken, die sich auf drei unterschiedlichen und
doch stets in Verbindung stehenden Ebenen verorten lassen:11

7 Foucault, berwachen und Strafen, S. 266.


8 Es wre einzuwenden, dass sie dabei jedoch nicht selbst zu Beobachtern der anderen Insassen
werden drfen.
9 Reckwitz, Subjekt, S. 13.
10 Ebd., S. 14.
11 Vgl. ausfhrlicher: Kreknin, Poetiken des Selbst, S. 1626.
Rettung der informationellen Selbstbestimmung 205

1. Ebene des psychischen Systems (Bewusstsein). Dies ist der Ort des Des-
cratesschen Cogito ergo sum, er umfasst die Prozesse, in denen Menschen sich
ihrer selbst bewusst werden, sich bestimmte Attribute zuweisen und damit ihre
eigene Identitt in einer tglichen Identittsarbeit herstellen.12 Wenn man der u. a.
bei Niklas Luhmann vertretenen These folgt, dass psychische Systeme im Modus
kognitiver Geschlossenheit operieren,13 dann ist diese Ebene ein geschlossenes
System, dessen sinngenerierende Prozesse fr niemanden sonst einsehbar sind.
Gleichwohl ist es darauf angewiesen, permanent Input aus der zweiten Ebene zu
verarbeiten, wobei es sich dafr der Codes aus der dritten Ebene bedienen muss. In
vielen Autonomie-Theorien wird hier die Nagelprobe angesetzt, ob Autonomie vor-
handen ist oder nicht.14 Aufgrund der Abgeschlossenheit der psychischen Prozesse
ergibt es jedoch mehr Sinn, diese Fragestellung auf die Ebene der Interaktion bzw.
der Kommunikation zu verschieben.

2. Ebene der Kommunikation und Interaktion (soziales Band). Dies ist die
eigentliche Arena, auf der die Frage nach informationeller Selbstbestimmung rele-
vant wird, denn hier spielt sich das antagonistische Verhltnis von Selbstdenition
und Anrufung15 ab, in denen das Subjekt als sozial relevante Gre erschaffen
wird. Jede Selbstbestimmung als Subjekt, die auf der ersten Ebene gettigt wurde,
muss kommunikativ oder zumindest zeichenhaft umgesetzt werden. Ist man von
anderen als Subjekt, also als jemand, der ber die Prozesse der ersten Ebene ver-
fgt, erkannt worden, so knnen auf der Basis des subjekttechnischen Inventars
der dritten Ebene Eigenschaften zugewiesen werden, die einen als Individuum
ausweisen.16 Erst nach dem Ablauf dieser Prozesse ist es fr ein Subjekt mglich,
die sozial anschlussfhige Form einer Person anzunehmen und damit auch aktiv
in das Gefge des sozialen Bandes einzugreifen, eine feste Koordinate darin zu
bilden.17 Von dieser Anlage aus lassen sich auch die Begriffe Figur, Subjekt
und Person differenzieren: Einer Figur wird lediglich ein virtueller Subjektstatus
12 Vgl. zum Begriff der Identittsarbeit aus narrationspsychologischer Perspektive Keupp, Diskursa-
rena Identitt, S. 34f. Der Begriff wird auch als daily identity practice in den aktuellen Life-
Writing-Studies angewendet, vgl. Eakin, Autobiography as Cosmogram.
13 Luhmann, Soziale Systeme, S. 92ff., S. 142f.
14 Dies ist oft mit der Frage verbunden, ob das Subjekt authentisch sei, was in meinem Modell keine
Rolle spielt, da die ethische Grundierung des Authentizittsbegriffs nicht mit einer medienbasierten
Heuristik der Subjektanalyse vereinbar ist.
15 Reckwitz, Subjekt, S. 14: Der Einzelne wird zum Subjekt, indem er sich innerhalb einer kulturellen
Ordnung als solches anrufen lsst.
16 Vgl. dazu Butler, Psyche der Macht, S. 15.
17 Das hier vorausgesetzte Verstndnis von der Form Person basiert auf Luhmanns Konzeptionen,
die von Sabine Kampmann folgend zusammengefasst werden: Die jeweils kontextspezisch aus-
wahlbaren Beschreibungen eines Menschen bilden das Medium, vor dessen Hintergrund die Form
Person je aktuell entsteht. Der Begriff Person eignet sich demzufolge, die verschiedenen einem
206 Innokentij Kreknin

zuerkannt, einer Person hingegen wird ein realer, also alltagswirklich relevanter
Subjektstatus zugewiesen und sie im sozialen Band verortet. Figur und Objekt
haben keinen informationellen Handlungsraum, den sie selbst aktiv beeinussen
knnen. Autonome Subjekte hingegen mssen aus ihrer inneren Perspektive her-
aus einen informationellen Handlungsraum auf der Ebene der Kommunikation so
fr sich beanspruchen, dass dieser Anspruch auch fr alle anderen (autonomen)
Personen prinzipiell gleichwertig gelten sollte.
Norbert Ricken spricht in Hinblick auf diese Prozesse von einer doppelten[n]
Differenz zwischen Mensch bzw. Akteur und Subjekt einerseits und in Inter-
Subjektivitt [. . . ] andererseits, in welcher die Gleichzeitigkeit des Ungleichzeiti-
gen also die Prsenz von Heteronomie und Autonomie zugleich, gedacht werden
muss.18 Mit anderen Worten: Man muss im Zusammenspiel der Ebenen eins und
zwei von einer doppelte[n] Relationalitt19 ausgehen, die Selbstwahrnehmung,
Fremdwahrnehmung und Selbstwahrnehmung als potentielle Fremdwahrnehmung
umfasst. Wenn nun Subjektivationsprozesse in den Rahmen eines Kommunikations-
paradigmas gesetzt werden, bedeutet dies, dass die Idee einer absoluten informa-
tionellen Selbstbestimmung schon an der Grenze der kognitiven Geschlossenheit
scheitert. Zwar mag, wie Helen Nissenbaum anmerkt, ein Eremit vollstndige in-
formationelle Selbstbestimmung genieen, solange er von niemandem beobachtet
wird.20 Fr die vorliegenden berlegungen ist aber ein solcher spekulativer Fall
uninteressant, da er an der tglichen Subjektivationspraxis vorbei zielt. Es ist er-
giebiger, sich vor Augen zu fhren, dass die doppelte Relationalitt des Subjekts
immer nur durch Kommunikation, d. h. zwischen Subjekt und Subjekt/Dispositiv
funktional gemachte Information, aktualisiert werden kann. Auf das Subjekt refe-
rierende (und es erschaffende) Information muss, mchte sie als der Kategorie der
iSB zugehrig angesehen werden, stets das Potential haben, auf beiden Seiten der
Unterscheidung von Ebene eins und zwei funktional sein zu knnen. Dies bedeutet
jedoch auch, dass alle Daten, die in ihrer Gesamtheit als operativ fr informationelle
Selbstbestimmung anzusehen sind, zwischen den Polen Autonomie (Selbstbezug,
Intention, Kontrolle) und Heteronomie (Fremdbezug, Selbstbezug als Fremdbezug,
Kontingenz) changieren also niemals komplett von dem Subjekt determiniert
werden knnen, auf das sie verweisen.

Individuum zugewiesenen Identittszuschreibungen kommunikativ zu einem Rollenenensemble zu


bndeln [. . .]. Kampmann, Funktionsrolle Autor Andrea Fraser, S. 152f.
18 Alle Zitate in Ricken, Zur Logik der Subjektivierung, hier S. 39.
19 Ebd., S. 45.
20 Nissenbaum, Privacy in Context, S. 73: we may all readily agree that no one (except possibly a
hermit or someone living in total isolation) can have absolute control over all information about
him- or herself.
Rettung der informationellen Selbstbestimmung 207

Die Mechanismen dieser zweiten Ebene der Subjektivation formieren sich nicht
ausschlielich im Austausch zwischen Subjekten, sondern auch im Verhltnis von
Subjekten zu Dispositiven, wie z. B. dem Bildungs-, Gesundheits- oder Mediensys-
tem, die uns ebenfalls als Subjekte identizieren und als Funktion ihres Dispositivs
anschlieen.
Hier ndet sich eine Analogie zum demokratischen vs. totalitren Panopti-
con: In unserem Verhltnis zu peers knnen wir darauf bauen, dass wir den gleichen
Prinzipien doppelter Relationalitt unterliegen (sollten) und demzufolge unsere
Modelle des Selbstbezugs mit den Modellen des Fremdbezugs anderer Subjekte
(und vice versa) harmonieren knnen, mssten wir also Prinzipien des Mitsprache-
rechts bei der Attribution und Auslegung bestimmter Subjektnormen und -formen
installieren. Wenn wir hingegen von greren Institutionen und Strukturen sub-
jektiviert werden, ist uns eine derartige Intervention zumeist nicht mglich, bzw.
nur um den Preis zu haben, diese Institution zu verlassen. Social Networking Sites
(SNS) wie Facebook sind Beispiele: Sie bilden soziomediale Dispositive, in denen
dem einzelnen Akteur eine spezische Position zugewiesen wird, in der man dazu
angehalten ist, bestimmte Subjektivationstechniken zu bedienen.21 Die Regeln der
Beobachtbarkeit knnen zwar gegenber den peers innerhalb des Netzwerks mit-
hilfe der Privatsphre-Einstellungen angepasst werden, nicht aber gegenber dem
Netzwerk selbst. Die Konsequenz daraus ist, dass man als Subjekt geformt wird
und zugleich das Objekt der Agency der SNS ist, die meist irgendeiner Form der
Monetarisierung dient.

3. Ebene der Machtdispositive. Diese Ebene ist eigentlich abstrakt und steht
quer zu den beiden anderen, durchzieht sie jedoch und wird erst in ihnen wirksam:
Sie besteht aus den sinnhaften Mustern und Zeichen, die einem Subjekt zugewiesen
werden knnen; die es uns erlauben, eine bestimmte Form des Subjekts als solche
anzuerkennen, oder aber zu sanktionieren, fr deviant zu erklren etc. Die Ebene
wird von der tatschlichen Praxis der beiden anderen Ebenen und u. a. von den
medialen Bedingungen dieser Praxis beeinusst und ist hochdynamisch. In ihr erst
wird entschieden, was berhaupt als persnliche Information angesehen werden
kann; sie ist jedoch fr die weitere Argumentation nicht zentral.22

21 Vgl. dazu ausfhrlicher McNeill, There Is No I in Network.


22 Foucault fasst Macht als ein (zumeist) dehierarchisiertes, kreatives und relationales Element, das
sich durch alle diskursiven Ordnungen zieht. Vgl. die Denition in Foucault, Der Wille zum Wissen,
S. 113f. Man kann damit Macht als eine Art dynamisches semiotisches System beschreiben, in
dem alle Elemente und damit auch das Subjekt erst Sinn erlangen knnen. Vgl. einen hnlichen
Ansatz in Reckwitz, Subjekt, S. 19f.
208 Innokentij Kreknin

2.3. Zwischenfazit: Informationelle Selbstbestimmung und die Autonomie


des Subjekts
Aus den bisherigen Ausfhrungen lassen sich gemeinsame Linien ableiten, die als
roter Faden den Komplex der informationellen Selbstbestimmung durchziehen. Die
Idee der iSB ist an Autonomie gebunden und damit ethisch legitimiert23 allerdings
ist es aus Sicht der Subjekttheorie nicht mglich, diese absolut durchzusetzen.
Das Modell eines demokratischen Panopticons erscheint als eine Konsequenz die-
ses Zugestndnisses, indem es dem Einzelnen erlaubt, die Agency des panoptischen
Blicks zu kontrollieren und zu beeinussen. Ebenso muss es dem Einzelnen in
einer sozialen Situation unter peers mglich sein, die Prinzipien, die Praxis und das
Formeninventar der Subjektivation zu thematisieren und zu problematisieren, um
im Anschluss daran den Anspruch auf angemessene Subjektivation zu uern. In
Schieage geraten solche Anlagen dann, wenn eine ausgeprgte Hierarchie weder
Diskurs noch Einspruch oder Kontrolle erlaubt. Wenn die Agency einer subjektivie-
renden Instanz opak ist, wird die Gefahr real, zum bloen Informationsobjekt24
zu verkommen. Und dies bedeutet auch, keinen Anspruch mehr darauf zu haben,
bei der Aushandlung von Autonomie und Heteronomie als gleichberechtigte Gre
beteiligt zu sein. Wo vormals relationale Autonomie mglich war, wrde reine
Heteronomie herrschen.
Der Vorteil poststrukturalistisch informierter Subjekttheorien besteht darin, dass
man keine monolithische Einheit darstellt, die in das soziale Band geworfen wird.
Stattdessen wird das dynamische, prozessuale, relationale und kontextabhngi-
ge Moment betont. Es ist dabei unerheblich, ob man nun je nach Kontext ein
anderes Subjekt ist, oder aber in verschiedenen Situationen unterschiedliche Fa-
cetten nur eines Subjekts zum Vorschein kommen. Entscheidend ist, dass unter
den Bedingungen relationaler Autonomie die pluralen sozialen Kontexte25 einer
ausdifferenzierten Gesellschaft uns berhaupt ermglichen, als unterschiedliche
Akteure in verschiedenen Kontexten aufzutreten, adquat und souvern auf diese
verschiedenen Rahmungen zu reagieren und dabei aktiv unser Identittsmanage-
ment zu betreiben. Um im Bild von Foucault zu bleiben: Das Panopticon bekommt
mehrere gestaffelte Kammern, ein Akteur kann sich wahlweise in ihnen aufhalten
und ihre Sichtbarkeit selbst regulieren. Nicht jeder Kontext erlaubt (oder bentigt)
dabei den gleichen Grad an Autonomie; und sich souvern und reektiert zwischen
diesen unterschiedlichen Anforderungen zu positionieren, ist Autonomiearbeit und
23 Im Volkszhlungsurteil taucht der Begriff Autonomie nicht auf, bildet jedoch eindeutig den Hinter-
grund der Argumentation, vgl. BVerfGE 65, 1 Volkszhlung, S. 42f.
24 BVerfGE 65, 1 Volkszhlung, S. 48.
25 Nissenbaum unterscheidet vier Arten von Kontexten. Meine weiteren Ausfhrungen referieren auf
das, was sie als contexts as social spheres, as constituents of a differentiated social space bezeich-
net, vgl. Nissenbaum, Respect for context as a benchmark for privacy online, S. 285.
Rettung der informationellen Selbstbestimmung 209

Subjektpraktik gleichermaen. Die Verletzung der Integritt von Kontexten26 be-


deutet mehr als nur den Verlust informationeller Selbstbestimmung und Autonomie,
sie bedeutet auch mehr als nur den Verlust der Privatheit; sie bedeutet ganz real
die Zerstrung (post)moderner Subjektformen, die auf einen souvernen Umgang
mit pluralen, aber voneinander abgegrenzten Kontexten angewiesen sind. Wo die
digitalen Medien zunchst das Versprechen anbieten, verschiedene Subjektformen
auszuprobieren und zu prozessieren, droht zugleich die Gefahr, auf die Einheit
eines einzeln identizierbaren Akteurs reduziert zu werden.

3. Das Problem kontextueller Integritt als Problem der


Referentialitt in Mediengesellschaften
Die hier genutzten Subjekttheorien basieren auf einem informationstheoretischen
Verstndnis der Prozesse, was um den Preis hoher Abstraktion erlaubt, allgemeine
Aussagen zu formulieren. Damit wird das Problem der Verletzung kontextueller In-
tegritt, als welche sich mangelnde informationelle Selbstbestimmung grtenteils
uert, als Prozess der Informationszuweisung bzw. Referentialitt gefasst werden.
Man kann drei Modi des Auftretens von Akteuren unterscheiden: 1) komplette
Anonymitt, die keinerlei Identikation ber den spezischen Kontext und eine
zeitlich begrenzte Situation hinaus ermglicht;27 2) partielle Anonymitt (teils auch
Pseudonymitt), die es erlaubt, Individuen innerhalb spezischer Kontexte auch
ber einen lngeren Zeitraum hinweg, aber nicht in Bezug auf andere Kontexte zu
identizieren;28 3) und zuletzt die eindeutige Identikation mit einem singulren
Klarnamen. Manche Dispositive wie z. B. das Rechtssystem sind auf diesen dritten
Modus der personalen Identitt zwingend angewiesen. Aus subjekttheoretischer
Perspektive sind jedoch die beiden anderen Modi und deren Verhltnis zum dritten
Modus von besonderem Interesse. Anonymitt und Pseudonymitt erlauben es,
Subjektformen einzunehmen, ohne gleich mgliche Konsequenzen in anderen
Kontexten befrchten zu mssen. Sie sind nicht nur virtuelle Versuchsanordnungen,
sondern knnen auch dazu dienen, positiv konnotierte Identitt und Autonomie zu
erlangen, die sich dann auch auf den dritten Modus auswirken.

26 Vgl. zum Konzept der kontextuellen Integritt einschlgig Nissenbaum, Privacy in Context,
S. 129157.
27 Vgl. zu kulturellen Modellen derartiger Anonymitt den Aufsatz von Wiele und Weelmann in
diesem Band.
28 Dieser Modus dominiert in vielen digitalen Kontexten wie Chatrooms, Datingplattformen oder
MMORPGs, aber auch bei 12-Step-Gruppen wie den Anonymen Alkoholikern. Vgl. zu letzteren
Helm, Die utopischen Sicherheitszwnge Schtiger und das Wagnis der Anonymitt, vor allem
S. 6368.
210 Innokentij Kreknin

In die Anlage der drei Modi muss der Prozess der Referentialitt bercksichtigt
werden. Sie ist in allen dreien aktiv und sie wirkt als die Identikation spezi-
zierter Attribute und Handlungen mit einem distinkten Akteur. Die Reichweite
einzelner Referentialittsprozesse wird zur Nagelprobe kontextueller Integritt:
Werden die Normen29 des Datenaustauschs zwischen Kontexten so verletzt, dass
ein Akteur in mehreren Kontexten identiziert werden kann, dann ist die iSB von
Subjekten gefhrdet. Es ist dabei unerheblich, ob die Kontextverletzung zwischen
den einzelnen Modi oder innerhalb eines Modus stattndet. Referentialitt ist aus
dieser Perspektive eine notwendige Bedingung der Herstellung von Identitt und
Bestandteil von Subjektivationsprozessen. Problematisch wird dies erst, wenn eine
zustzliche Dimension bercksichtigt wird, die sich quer zum Modell der Modi
positioniert.
Diese Dimension uert sich in einer Differenzierung von Funktionsbereichen,
bei denen man heuristisch zwei Pole unterscheiden kann: Auf der einen Seite den
Pol eigentlicher Denotation;30 in dieser ist fr Individuen zumeist das Auftreten
im Modus Nr. 3 normativ vorgesehen. Dieser Pol ist dadurch gekennzeichnet, dass
die darin zu ndenden Referentialitten normalerweise durchgngig untereinander
funktional anschlussfhig sind, die hergestellte Identitt eines Akteurs also stabil
verbleibt und ihn als Person mit Rechten und Pichten entwirft. Der gegenstzliche
Pol kann als Fiktionalitt bezeichnet werden und prsentiert sich als Domne
uneigentlicher Denotation.31 Die in derartig kongurierten Kontexten ablaufen-
den Referentialittsprozesse sind blicherweise nicht funktional an anderweitige
Kontexte anschlussfhig. Subjekte, die sich in ktionalen Kontexten formieren,
haben darum meist den Status einer Figur.32 Der reale Wirkungsgrad der beiden
Pole ist jedoch problematisch zu systematisieren und auch die binre Heuristik von
Fakt und Fiktion vermag das Problem nicht zu lsen, da auch uneigentlich
kongurierte Kontexte durchaus Bestandteil der subjektiven Lebenswirklichkeit
und damit real und eigentlich sein knnen. Produktiver scheint eine begrifiche
Anleihe aus dem erkenntnistheoretischen Konstruktivismus von Bjrn Kraus, der
zwischen Lebenswelt und Lebenslage unterscheidet:

29 Vgl. zum Begriff der Norm hier Nissenbaum, Privacy in Context, S. 138f.
30 Vgl. dazu Zipfel, Fiktion, Fiktivitt, Fiktionalitt, S. 75f. Ich danke Regina Ammicht Quinn dafr,
mich auf die Schwierigkeiten des vormals daraus abgeleiteten Begriffs der Sphre der Eigentlich-
keit hingewiesen zu haben. Der hier verwendete Eigentlichkeitsbegriff ist explizit nicht mit dem
bei Martin Heidegger vereinbar.
31 Ebd., S. 73.
32 Luhmann betonte, dass der Unterschied zwischen Alltagswirklichkeit und Fiktion ein funktio-
naler und kein absoluter ist. Massenmedien stellen die fr alle verbindliche operative Fiktion her,
die dann zur Realitt wird. Vgl. Luhmann, Soziologische Aufklrung 3, S. 367.
Rettung der informationellen Selbstbestimmung 211

Konkret gehren zur Lebenslage eines Menschen seine materielle


und immaterielle Ausstattung. Hierzu gehren nicht nur die Rah-
menbedingungen im Sinne von materieller Ausstattung, Wohnraum,
Finanzmittel u.., sondern auch die immateriellen Ausstattungen,
etwa das zur Verfgung stehende soziale Netzwerk.33

Whrend die Lebenslage demnach die objektiven Gegebenheiten (Realitt)


eines Individuums umfasst, betont der Begriff der Lebenswelt die entsprechende
subjektive Selbst- und Fremdverortung (Wirklichkeit), die dabei gleichwohl auf
den Bedingungen der Lebenslage basiert.34 Diese Unterscheidung steht ebenfalls
quer zu den oben vorgestellten drei Modi. Sie lsst sich jedoch (ebenfalls heuris-
tisch) mit ihnen kombinieren, wenn der Aspekt der Personalitt im Sinne eines
identischen Rollenensembles35 hinzugenommen wird. Existenzmodus Nr. 3 wre
demnach die besondere Form, in welcher die personale Lebenslage von Ak-
teuren beeinusst und deniert wird. Im Gegensatz dazu wren Handlungen und
Existenzformen im Modus der Pseudo- und Anonymitt zwar auch Bestandteil
der subjektiven Lebenswelt (somit eigentlich aus einer subjektiven Perspekti-
ve) und auch dann der individuellen Lebenslage zuzurechnen, wenn sie ktional
konguriert sind. Sie wrden aber die Reduktion auf eine singulre Verantwortungs-
identitt vermissen lassen und damit als quasi-virtuelle Versuchs- und Spielfelder
fungieren, die zwar auch Konsequenzen nach sich ziehen und Identittsnarrative
und Subjektformen zu bilden erlauben diese Konsequenzen mssten sich jedoch
nicht zwangslug in der personalen Lebenslage sedimentieren.
Wenn man vor diesem theoretischen Rahmen die Potentiale digitaler Datenverar-
beitung betrachtet, werden in Hinsicht auf die Probleme der iSB vor allem zwei
Aspekte relevant:

1. Schaffung digitaler Kontexte. Der Computer als Metamedium ist in der Lage,
vielfltige, potentiell in sich abgeschlossene Kontexte zu kreieren, in denen
Akteure sich als Subjekte prolieren knnen, seien dies Chatrooms, SNS, die
virtuellen Welten von MMORPGs oder Sandboxes wie Second Life. Das
emanzipatorische Potential36 dieser Kontexte, die sich auf die gesamte Funkti-
onsskala zwischen subjektiver Lebenswelt und personaler Lebenslage verteilen,
muss hier ebenso wenig argumentiert werden wie die Dominanz dieser Prakti-

33 Kraus, Erkennen und Entscheiden, S. 152.


34 Ebd., S. 143153.
35 Vgl. dazu meine Anm. 17.
36 Das emanzipatorische Potential muss eingeschrnkt werden, wenn die Kontexte als soziomediale
Dispositive eine asymmetrische Hierarchie aufweisen und ber eine opake Agency verfgen. Vgl.
zu diesem Problem im Fall Facebook: McNeill und Zuern, Online Lives 2.0.
212 Innokentij Kreknin

ken.37 Aus Sicht der Subjekttheorie ist es wichtig zu betonen, dass auch digitale
Kontexte, die eher ktional konguriert sind und in denen Subjekte als avat-
aristische Figuren im Modus der Anonymitt oder Pseudonymitt auftreten,
durchaus als Rume realer Subjektpraktiken angesehen werden mssen, die
auch die Lebenswelt wenn auch nicht unbedingt die personale Lebenslage
von Individuen beeinussen.38
2. Herstellung transkontextualer Referentialitt. Die digitale Verarbeitung von
Daten bedeutet auch eine neue Stufe der Produktion von Hypertexten, die es
erlaubt, Datenstze, die in verschiedenen semiotischen Codes vorliegen, inein-
ander zu bersetzen, zu verbinden, zu berarbeiten und zu transformieren, ohne
Wechsel der technischen Apparatur.39 Diese neue Stufe der Hypertextualitt
erlaubt es durch die Vernetzung von Daten unterschiedlicher Kontexte auch,
einzelne Akteure eindeutig zu identizieren, was neben zahllosen auch po-
sitiven Effekten zur Verletzung kontextueller Integritt und einem Verlust
informationeller Selbstbestimmung fhren kann.

Die letzteren Technologien nden sich vor allem in soziomedialen Dispositi-


ven wie SNS, die eine entsprechende Infrastruktur besitzen und ein Interesse an
eindeutiger Identizierung haben, meist im Rahmen werbebasierter Geschftsmo-
delle.40 Aber auch zwischen peers kann transkontextuale Referentialitt, d. h. die
Verletzung kontextueller Integritt zu einem ernsthaften Problem werden, eines
der drastischsten Beispiele ist die Verbreitung nicht-konsensualer Pornographie
(revenge porn), verbunden mit eindeutiger Identizierung der so beobachtbar ge-
machten Person.41 Die Metapher des Panopticons verschiebt sich nun dahingehend,
dass jeder Akteur potentiell zum Beobachter werden kann, dabei die verborgenen
und die sichtbaren Kammern miteinander zu verknpfen vermag und das Ergebnis
dieser Verknpfung der gesamten Welt zur Ansicht anbieten kann gegen den
Willen der beobachteten und subjektivierbaren Akteure, die nun ber distinkte
Kontexte hinweg auf eine personale Entitt reduziert werden. Der Umgang mit der
Referentialitt zwischen distinkten Kontexten ist ein ethisches Problem und es ist
die Literatur, die Poetiken entwickelt hat, wie damit umgegangen werden kann.

37 Es mag als quantitatives Argument gengen, dass allein Facebook im Mrz 2015 weltweit 1,4
Milliarden aktive NutzerInnen dieses spezischen digitalen Kontextes aufgewiesen hat, vgl. Wold
Bank, World Development Report 2016, S. 150.
38 Boellstorff, Coming of Age in Second Life, S. 5.
39 Tardini und Cantoni, Hypermedia, internet and the web.
40 Vgl. hier zu ethischen Fragen Rssler, Should Personal Data be a Tradable Good?
41 Vgl. Citron und Franks, Criminalizing Revenge Porn.
Rettung der informationellen Selbstbestimmung 213

4. Literarische Poetiken und die Ethik der informationellen


Selbstbestimmung
Wenn im Medium der Literatur kontextuelle Integritt verletzt wird, dann hug
durch den Effekt, dass (literarische) Figuren als (reale) Personen lesbar gemacht
werden und letztere sich durch eine derartig unterstellte identizierende Darstel-
lung um ihre informationelle Selbstbestimmung gebracht sehen. Bei der Beurteilung
des Verhltnisses von Fiktion und Realitt war das Mephisto-Urteil des Bundes-
verfassungsgerichts aus dem Jahre 1971 paradigmatisch. Auch wenn damals die
iSB noch nicht relevant wurde, sondern zumeist aus dem Allgemeinen Persnlich-
keitsrecht nach Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG heraus argumentiert worden
ist, lassen sich fr die vorliegende Problemlage einige Schlsse ziehen: Bei dem
Verbot des Romans Mephisto war das Abbild-Paradigma der Kunst leitend, und dies
bedeutete, dass Kunst die Wirklichkeit derart zu verfremden habe, da das Indivi-
duelle, Persnlich-Intime zugunsten des Allgemeinen, Zeichenhaften der Figur
objektiviert ist.42 Erfllte ein Text diese Vorgaben nicht in gengendem Mae,
wurde der Kunstcharakter der darin identizierbaren Figuren angezweifelt und der
Text als Engfhrung von Fakt und Fiktion, sprich: als Verletzung kontextueller
Integritt gelesen, was im Fall Mephisto zum Verbot der Verbreitung des Textes
fhrte.43
Schon damals wurde das Abbild-Paradigma in den abweichenden Statements der
Richter Stein und Rupp-v. Brnneck scharf kritisiert. Stein wendet plausibel ein,
dass die Abbild-Idee letztlich auf einer naiv identizierenden Lesart basiert,44 die
Kunst gegenber grundstzlich unangemessen sei. Er fhrt aus:

Ein Abphotographieren der Wirklichkeit ist nicht sein [des Ro-


mans; I.K.] knstlerisches Anliegen. Auch bei der hier geschehenen
Anknpfung an reale geschichtliche Gegebenheiten hat eine berh-
hung oder Transzendierung dieser Begebenheiten oder Zustnde in
die eigene, von der knstlerischen Phantasie geschaffene sthetische
Realitt des Kunstwerks stattgefunden. Die knstlerische Darstellung
kann deshalb nicht am Mastab der Welt der Realitt, sondern nur an
einem kunstspezischen, sthetischen Mastab gemessen werden.45

Dies ist letztlich als ethisches Argument dafr zu werten, die distinkten Kon-
texte, in denen die Figur bzw. die mit ihr identizierbare Person eingebettet sind,
42 BVerfGE 30, 173 Mephisto, S. 195.
43 Die Argumentation ist tatschlich deutlich komplexer, vgl. Eichner und Mix, Ein Fehlurteil als
Mastab?, S. 199204.
44 Vgl. ebd., S. 210.
45 BVerfGE 30, 173 Mephisto, S. 204.
214 Innokentij Kreknin

nicht funktional miteinander zu verbinden. Mit anderen Worten: Die Normen der
einzelnen Kontexte sollen soweit respektiert werden, dass Figuren als Figuren zu
verbleiben haben. Die mgliche Referentialitt auf Personen drfe nicht funktional
im Bereich der personalen Lebenslage werden.

4.1. Probleme der Grenze von Fakt und Fiktion: Der Fall Esra
Im Jahr 2007 entschied das Bundesverfassungsgericht einen Rechtsstreit um den
Roman Esra des Autors Maxim Biller mit der Besttigung des Verbots der Ver-
breitung des Buches.46 Die ehemalige Lebensgefhrtin Billers und ihre Mutter
hatten geklagt, da sie sich in zwei der Figuren erkannten und damit in ihrem Per-
snlichkeitsrecht verletzt sahen. Die Urteilsbegrndung ist einigermaen paradox.
Einerseits folgt das Gericht dem Mephisto-Sondervotum von Stein und betrachtet
das Abbild-Paradigma kritisch.47 Auch wird der Kunstcharakter des Werks erkannt
und besttigt48 und die Freiheit der Kunst soweit gestrkt, dass es fr Personen
kein Recht am eigenen Lebensbild49 geben knne, egal ob es sich um Personen
des ffentlichen Lebens handele oder solche, die nicht im medialen Rampenlicht
stnden.50 Zugleich aber wurde die Gltigkeit des Buchverbots als angemessen
beurteilt:
Die eindeutig als Esra erkennbar gemachte Klgerin zu 1) muss
aufgrund des berragend bedeutenden Schutzes der Intimsphre nicht
hinnehmen, dass sich Leser die durch den Roman nahegelegte Frage
stellen, ob sich die dort berichteten Geschehnisse auch in der Realitt
zugetragen haben. Daher fllt die Abwgung zwischen der Kunstfrei-
heit [. . . ] und des Persnlichkeitsrechts der Klgerin zu 1) zu deren
Gunsten aus [. . . ].51
In dem Urteil wird durchgngig mit dem Allgemeinen Persnlichkeitsrecht
nach Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG und der Verletzung der Intimsphre
argumentiert, und nicht mit dem Recht auf informationelle Selbstbestimmung, da
hier aus juristischer Perspektive eine Zweiteilung der dogmatischen Bewertung von
Datenverarbeitung einerseits und Konikten mit Presse, Literatur usw. andererseits
vorliegt.52 Und auch wenn es juristisch nicht funktionieren mag, so kann doch mit
46 Vgl. ausfhrlich Eichner und Mix, Ein Fehlurteil als Mastab?; Bunia, Fingierte Kunst.
47 Vgl. BVerfG, 1 BvR 1783/05, Abs. 83.
48 Vgl. ebd. Abs. 96. Auch wird Esra eindeutig abgesprochen, ein faktentreuer Bericht zu sein, vgl.
ebd., Abs. 94.
49 Ebd. Abs. 84.
50 Ebd., Abs. 51.
51 Ebd., Abs. 102.
52 Ich danke Herrn Alexander Ronagel fr den entsprechenden Hinweis.
Rettung der informationellen Selbstbestimmung 215

dem Bogen ber die Subjekt-Perspektive die Interferenz zwischen dem Urteil und
den Prinzipien der informationellen Selbstbestimmung beleuchtet werden.
Der Roman gab dem Gericht zufolge intime Details ber die Klgerin zu 1)
preis, die von LeserInnen als faktual gelesen werden knnten. Zugleich sei es ein
hybrides Werk, das poetologisch mit der Verschrnkung der Grenzen von Wahrheit
und Fiktion arbeite.53 Die Lesart des Textes ist damit weder eindeutig ktional noch
eindeutig faktual die den LeserInnen zukommende Entscheidung darber, ob es
sich bei Esra um Kunst oder einen flschlicherweise als Roman etikettierte[n]
bloe[n] Sachbericht54 handle, wird vom Gericht als unzumutbar fr die Klgerin
angesehen. Die Konsequenz dieser Unzumutbarkeit ist die Besttigung des Verbots
des Romans.
Subjekttechnisch war das Esra-Urteil ein Fehler, denn es bewirkte indirekt das,
was es zu verhindern vorgab. Auch wenn das Gericht die Entscheidung, ob Fakt oder
Fiktion, nicht selbst fllte, entzog es die in dem Text enthaltenen Informationen
allen potentiellen zuknftigen Zuordnungen. Damit aber kongurierte es einen
vormals im ktionalen Kontext angesiedelten Datensatz so, dass eine Funktionalitt
dieser Informationen im Bereich der personalen Lebenslage der Klgerin zumindest
nicht ausgeschlossen werden knnte. Eine unmittelbare Referentialitt zwischen der
Romangur und der Person der Klgerin wird nicht aus der Welt gerumt, sondern
mit dem Verbot scheinbar eher noch besttigt auch wenn die Begrndung des
Urteils selbst dies differenzierter handhabt. Und mehr noch: In dem Urteilstext
selbst wird ein ganzer Katalog an Eigenschaften und Attributen gelistet, die auf die
reale Identitt der Klgerinnen verweisen und als faktuale Brcken zwischen Roman
und Realitt ausgestellt werden. Der Urteilstext ist frei einsehbar und es reicht ein
einziger Suchbefehl mit einem Stichwort daraus, um die Klarnamen der Klgerinnen
zu recherchieren. Auch das Buch ist mit dem Verbot nicht aus der Welt immerhin
4 000 Exemplare wurden verkauft55 und werden noch immer antiquarisch gehandelt.
Die Klgerinnen mssen demnach auch nach dem Urteil damit rechnen, dass ihnen
begegnende Menschen sowohl die Informationen aus dem Urteil als auch die
dort teilweise zitierten ktiven Attribute aus dem Buch als potentiell real ansehen
und sie als Personen entsprechend anders subjektivieren. Vormals verborgene
Kammern des Panopticons wurden damit im Laufe und im Nachgang des Prozesses
einer breiten ffentlichkeit einsehbar gemacht und Subjektformen, die nicht fr
die ffentlichkeit bestimmt waren und teils auch nur ktiven Figuren angehren
mgen, wurden potentiell auf die Entitt einer einzigen Person bertragen, deren
Autonomie damit zumindest eingeschrnkt wurde. Das Selbstverhltnis wird durch

53 Vgl. BVerfG, 1 BvR 1783/05, Abs. 96.


54 Ebd., Abs. 84.
55 Vgl. ebd., Abs. 10.
216 Innokentij Kreknin

solche Prozesse gestrt, das Subjekt determiniert, und die Mglichkeit einer direkten
Brcke zwischen Figur und Person durch das Urteil eher besttigt als verunmglicht.

4.2. Autonomie und Heteronomie im poetologischen Modell von Rainald


Goetz
Was sich im Fall Esra als moralisches Problem prsentiert, kann in eine ethische
Perspektive berfhrt werden, wenn die Position des Autors in einer medialisierten
Gesellschaft zu einem festen Bestandteil der Poetik wird; das Werk von Rainald
Goetz kann hier als Beispiel dienen. Entscheidend ist dabei, dass der Autor eines
Textes, der potentiell als auf die personale Lebenslage eines Individuums referierend
gelesen werden kann, diejenige Instanz ist, die das Verhltnis der daraus ableitbaren
Trias von Subjekt, Figur und Person konguriert. Er hat, so wie alle Hersteller von
Medienangeboten, natrlich keine Hoheit darber, wie der Text am Ende rezipiert
und gedeutet wird, er kann allerdings eine Reihe kontextspezischer Normen
befolgen oder ignorieren, die das Gefge von Autonomie und Heteronomie in
Hinblick auf subjektivationsrelevante Informationen beeinussen.56 Und vor allem
kann er sich selbst als Autor ins Verhltnis zu diesen, seinen Entscheidungen
setzen und ihre Konsequenzen tragen.
Solche Positionierungen im eigenen Werk ndet man vor allem in autoktionalen
Textsorten, die sich also an der Grenze von Roman und Autobiographie bewegen,
ohne dass klar zu bestimmen ist, welche Seite dominiert.57 Es sind hybride Texte
ohne eindeutige Lesart, wie auch Billers Esra die damit gut als Modell der gegen-
wrtigen medialen Welt fungieren knnen. Rainald Goetz ist einer der literarisch
anerkanntesten Vertreter solcher Poetiken. Er gilt als Chronist der Gegenwart,58
als jemand, der die Phnomene unserer Zeit aufgreift und in eine Literatur bersetzt,
die nur einen ganz dnnen Schleier der Fiktion ber die Realitt legt. Zudem war er
einer der ersten deutschsprachigen Autoren, die das Internet als Publikationsort nut-
zen.59 Vor allem aber ist Goetz jemand, der immer wieder ber einen Schriftsteller
gleichen Namens schreibt, der sich die Frage stellt, in welchem Verhltnis Literatur,
Wirklichkeit und Wahrheit zueinander stehen knnen, stehen drfen und stehen
mssen. Diese in seine Literatur und seine Selbstdarstellung eingebetteten Poetiken
56 Darunter fallen beispielweise die vom Bundeserfassungsgericht im Mephisto- wie auch Esra-Urteil
vorgebrachten Aspekte der Fiktionalisierung, Verfremdung und sthetischen berformung.
57 Vgl. zum Konzept der Autoktion: Wagner-Egelhaaf, Autoktion oder: Autobiographie nach der
Autobiographie.
58 Vgl. zu diesem Aspekt die entsprechenden Kapitel in Schumacher, Gerade Eben Jetzt: Schreibwei-
sen der Gegenwart.
59 Es handelte sich dabei um das Projekt Abfall fr alle (19981999) und den Blog Klage (20072008).
Vor allem zum ersteren liegt sehr viel Forschung vor. Vgl. die Forschungsbibliographie in Arnold,
Rainald Goetz.
Rettung der informationellen Selbstbestimmung 217

knnen als eine Matrize dienen, um dem Problem der Aushandlung informationel-
ler Selbstbestimmung, Autonomie und Heteronomie in einer Mediengesellschaft
beizukommen. Die folgenden drei Aspekte sind besonders hervorzuheben:

1. Diskretion. In den Texten von Goetz kommen nahezu immer identizierbare


Personen des ffentlichen Lebens als Figuren vor. Dabei gibt es jedoch meist
eine Einschrnkung: Sofern sie identizierbar sind, handelte es sich bei ihnen
bereits vorher um Akteure des Mediensystems. Und auch wenn Goetz Poetik
immer wieder die Vertraulichkeit des Wortes60 als ein Hindernis fr gelungene
Literatur thematisiert, so orientieren sich vor allem seine jngeren Texte nach
den Gesetzen der Diskretion: Sobald ein Akteur oder Ereignis vorkommen,
die in privaten, nicht in die massenmedialen Kanle eingespeisten Sphren
angesiedelt sind, werden die Elemente codiert oder anonymisiert.61

2. Unzuverlssigkeit. Sie durchzieht wie ein roter Faden alle Prosatexte von Goetz:
Leicht berprfbare Details stimmen nicht, oder stimmen nicht ganz. Was auf
den ersten Blick die getreue Wiedergabe realer Ereignisse zu sein scheint, wird
so unzweideutig der Domne der Fiktion zugeschlagen damit erfllen seine
Texte genau die Vorgaben, die das Bundesverfassungsgericht beim Mephisto-
Roman noch vermisst hatte.62
3. Selbstktionalisierung. Goetz behandelt sich selbst und seine eigene Autorschaft
als eine Figur des literarischen Textes. Obwohl nahezu alle Texte um den gleich-
namigen Autor kreisen, erfhrt man nahezu nichts ber dessen Privatleben, es
gibt keine Intimitt, keine Sexualitt und alle sozialen Beziehungen stehen
im Verdacht, rein ktional zu sein. Diese Verfahrensweise bertrgt sich auch
jenseits der eigentlichen Literatur: Goetz gibt nur sporadisch Interviews und
bleibt teils jahrelang medial unsichtbar.63 Alle Daten, die er selbst autorisiert,
referieren auf ihn als die Figur des Trgers der Autorfunktion64 und nicht als
Person.

Das Paradoxe hieran ist, dass er damit zwar einerseits sehr viel Autonomie
ber sich als Privatperson behlt, zugleich aber damit die Bedingungen dafr
schafft, dass er von anderen in eine heteronome Figur transformiert wird: Von
allen aktuell lebenden deutschen Schriftstellern taucht kaum jemand so hug als

60 Goetz, Rave, S. 18.


61 Vgl. dazu ausfhrlicher Kreknin, Poetiken des Selbst, S. 245255.
62 Vgl. BVerfGE 30, 173 Mephisto, S. 195.
63 Eine Ausnahme bildete das Jahr 2012, in dem der Roman Johann Holtrop erschien, vgl. dazu Kre-
knin, Poetiken des Selbst, S. 255263.
64 Vgl. zum Konzept der Autorfunktion Foucault, Was ist ein Autor?
218 Innokentij Kreknin

literarische Figur in den Werken anderer Autoren auf wie Rainald Goetz.65 Ich
sehe diese poetologische Struktur als ein ethisches Modell unter den Bedingungen
einer Mediengesellschaft; Ethik verstanden als die Reexion der Regeln des
Selbstverhltnisses und die bertragung dieser Regeln auf Fremdverhltnisse, dies
alles mit dem Ziel des mglichst guten und gelungenen Lebens.66
Ein Problem ndet sich darin, dass dieses Modell von vielen, auch professionellen
RezipientInnen nicht als solches erkannt wird, sie sein Werk als Schlsselliteratur
lesen und Goetz entsprechend der Daten aus seinen Bchern subjektivieren.67
Diese Einschrnkung des informationellen Handlungsraums wird aber nur dann
relevant, wenn man berhaupt den Anspruch erhebt, von der Subjektgur auf das
Subjekt der personalen Lebenslage und von da aus auf die authentische Person
zu schlieen. Die Poetik von Goetz hingegen impliziert einen radikalen Schnitt.
Sie suggeriert zum einen, dass Figur und medial vermittelte Person aufeinander
referieren und erklrt im gleichen Moment, dass von da aus keinerlei Referenzen
auf das Subjekt der personalen Lebenslage hinter der Medialitt hergestellt
werden knnen. Daraus kann man ableiten, dass es sowohl auf der Produzenten- als
auch auf der Rezipientenseite angemessener ist, medial prozessierte Daten, die sich
in offenen Netzwerken benden,68 stets einer hybriden Sphre zuzuordnen, die sich
einer pauschalen Zuweisung zu den Polen Fakt oder Fiktion entzieht. Dies schliet
an meine Ausfhrungen zur iSB aus subjekttheoretischer Perspektive an: Wenn
man medialisiert wird, ist man immer schon teilweise Informationsobjekt und der
eigene informationelle Handlungsrahmen wird prekr. Das Objekt der potentiellen
Heteronomie ist jedoch die als Figur auftretende Form einer Person, whrend das
Subjekt der personalen Lebenslage selbst autonom zu verbleiben vermag, indem
es jede Referentialitt von sich auf die gleichnamige medialisierte Entitt negiert.
Darauf aufbauend lsst sich ein Szenario entwerfen, in welchem informationelle
Selbstbestimmung auch im Zustand einer digitalisierten und vernetzten Gesellschaft
gewhrleistet werden kann. Das Mittel dafr ist eine grundstzliche, unaufhebbare
und geschtzte Zweiteilung der digitalen bzw. medialen Sphre.
65 Vgl. die Auistung in Kreknin, Poetiken des Selbst, S. 243, Anm. 225.
66 Dies ist konsistent mit den Ausfhrungen Foucaults zur Hermeneutik des Selbst, vgl. dazu Fou-
cault, Die sthetik der Existenz; sowie Foucault, Hermeneutik des Subjekts.
67 Vgl. dazu u. a. eines der wenigen Interviews, in denen Goetz in eine Metaposition zu sich und
seinem Schreiben tritt in: Mangold und Uslar, Wut ist Energie (Interview mit Rainald Goetz),
S. 54: Fr mich ist das Ich immer auch eine Kunstgur gewesen. Ich habe nie quasi unmittelbar
von mir selbst irgendwas erzhlt. Aber die Leute dachten: immer dieselben echten Typen! Die Leute
wollen sich mit echten Typen nicht als Figuren auseinandersetzen, was fr mich ganz normal ist.
Fr mich bin ich selbst als ffentliche Figur nicht das Ich, das ich bin.
68 Dies gilt nicht fr Daten, die ihre Legitimation und ihren Wert daraus beziehen, konstitutiv fr die
Ebene Nr. 3 zu sein, also dazu dienen, die personale Lebenslage von Individuen zu manifestieren,
wie es z. B. bei Daten von Melderegistern oder Steuerbescheinigungen der Fall ist. Bei dieser Art
von Daten ist im Gegenteil die kontextuelle Integritt in jedem Fall zu wahren.
Rettung der informationellen Selbstbestimmung 219

5. Die Trennung der digitalen Sphre: ein Vorschlag


Das Modell der Zweiteilung dient dazu, Identitten und Handlungen von Akteuren
soweit in einer vernetzten digitalisierten Welt zu schtzen, dass mit ihrem informa-
tionellen Handlungsrahmen auch die Idee der iSB erhalten bleiben kann. Es ist als
ein theoretischer Entwurf zu betrachten, der bei einer realen Umsetzung mit kaum
lsbaren Problemen konfrontiert wre. Meine Intention besteht darin, eine sich
in dem Modell manifestierende Ethik in die Diskussion der Privatheitsforschung
einzufhren, die sowohl subjekttheoretische als auch ktionstheoretische Positionen
fruchtbar macht.

5.1. Getrennte Funktionsbereiche als Schutz kontextueller Integritt:


Theorie
Basierend auf der Poetik von Goetz lsst sich ein ethisches Modell entwickeln, in
welchem man einen Raum erschafft, in dem der informationelle Handlungsrahmen
so konguriert ist, dass niemand darin eine privilegierte Position einnehmen kann;
quasi ein Modell des demokratischen und dehierarchisierten Panopticons, in dem
die Autoritt der Zuweisung von Autonomie und Heteronomie unter allen Akteuren
gleich verteilt ist. Selbst wenn die Kammern des gestaffelten Panopticons darin
gegen den Willen der agierenden Akteure beobachtbar gemacht werden was
im brigen auch hier ethisch verwerich wre , wrden darin lediglich Figuren
zum Vorschein kommen. Die Dichotomie von Fakt und Fiktion wrde nicht
mehr greifen, keine der in diesem Raum generierten Informationen wre funktional
fr die personale Lebenslage der Akteure. Dieser Raum wrde aus zahlreichen,
teils vernetzten, teils streng abgeschlossenen Kontexten bestehen, die es einem
ermglichen, sich selbst darin nach Belieben zu formen und plurale Existenzen
aufzubauen. Mgliche Verletzungen der kontextuellen Integritt wren auch hier
kaum zu verhindern, selbst wenn sie sanktioniert werden, allerdings wrden sie in
ihrer Reichweite begrenzt sein, denn eine der Grundbedingungen dieses Raums
wre, dass die Akteure darin in den Modi Anonymitt und Pseudonymitt auftre-
ten. Die Verletzungen wrden also im Makrokontext des Raums abgeschlossen
verbleiben und nicht wie im Fall Esra nach auen ausstrahlen. Zugleich wre
das Verhltnis von Autonomie und Heteronomie darin im Zustand einer steten
und unabschliebaren Aushandlung begriffen. Referentialitten, Identitten und
Subjektformen knnten nicht auf eine monokausale Form reduziert werden, und
trotzdem (bzw. deswegen) knnten die so kongurierten Kontexte mit ihrer ebenso
realen wie virtuellen Kommunikation und Performanz als Teile der Lebenswelt von
220 Innokentij Kreknin

Individuen fungieren.69 Die darin generierten Anschlsse knnten, aber mssten


nicht untereinander funktional sein, wren jedoch in jedem Fall auf diese Sphre
begrenzt. Ich bezeichne diesen quasi polyvalenten Raum als Polynet.70
Dem gegenber, streng davon abgetrennt, stnde ein monovalenter Raum, oder
Mononet. Dies wre ein Raum der Kontrolle mit strengen Regeln der Beobachtbar-
keit. Die Existenz in diesem Raum drfte nur nach Modus Nr. 3, also mit Klarnamen,
erfolgen und er wrde diejenige Sphre bilden, in der diejenigen funktionalen An-
schlsse generiert und prozessiert werden, die unzweifelhaft als Teile der personalen
Lebenslage anzusehen sind.71 Auch dieser Raum wrde aus verschiedenen Kontex-
ten bestehen, deren Normen jedoch kongruent geregelt sein mssen in dem Sinne,
dass die zwischen ihnen austauschbaren Daten potentiell gleichwertig funktional
und auf einzelne Akteure rckfhrbar sein mssen.72 Es wre also simpel gesagt
derjenige Raum, auf den das Rechts-, Finanz-, Politiksystem etc. angewiesen sind,
in dem wir mit vorgeblich einer einzigen Identitt hantieren.

5.2. Mgliche Bedingungen der Umsetzung


Damit eine solche Trennung der digitalen Sphre funktioniert, mssten eine Reihe
von Bedingungen erfllt sein, von denen hier nur drei Bereiche erwhnt werden: Es
mssen entsprechende und ausreichend gesicherte technische Infrastrukturen vor-
handen sein; die habituelle Vermittlung einer derartigen Praxis muss gewhrleistet
werden und natrlich bedarf es einer entsprechenden rechtlichen Regulierung.73
Webseiten, Services und Plattformen wie SNS mssten sich klar einer der Sph-
ren zuordnen lassen und Akteuren die komplette Kontrolle darber geben, in wel-
cher Sphre sie sich gerade bewegen. Gesetzt den Fall, ein Akteur mchte auf
den Seiten eines Nachrichtenportals im Mononet einen Kommentar unter seinem
Klarnamen posten und anschlieend sein Prol auf einer SNS im Polynet aufrufen,

69 Diese Existenzformen wren demzufolge posthuman, vgl. Hayles, How We Became Posthuman,
S. 2f.
70 Dies trgt der Polyvalenz der Existenzformen Rechnung, soll aber nicht suggerieren, diese Daseins-
weise sei lediglich auf das Internet begrenzt. Vielmehr soll das Modell auf alle vernetzten Kom-
munikationssysteme bertragbar sein, mit denen distinkte Akteure identizierbar gemacht werden
knnen.
71 Hier wird erneut auf die Unterscheidung von (subjektiver) Lebenswelt, Lebenslage und persona-
ler Lebenslage verwiesen: Streng genommen sind auch die funktionalen Anschlsse des Polynets
natrlich Teile der Lebenswelt und auch Teile der Lebenslage, sie htten jedoch keine universel-
le funktionale Anschlussfhigkeit, die sie als Bestandteile der personalen Lebenslage qualizieren
wrden.
72 Dies bedeutet keineswegs, dass die Daten aller Kontexte beliebig in alle anderen Kontexte des
Mononets bertragen werden drfen dies wre immer noch eine unerwnschte Verletzung kon-
textueller Integritt.
73 Ich danke Johannes Noack, der mich auf problematische Aspekte des Modells hingewiesen hat.
Rettung der informationellen Selbstbestimmung 221

msste der Transit, auch wenn der Akteur nur ein technisches Gert benutzt, so
verlaufen, dass keine Referentialitt zwischen diesen Handlungen hergestellt wer-
den kann (Double-Blind-Modell). Der bergang msste ber eine blinde Tr als
Zwischeninstanz funktionieren: Beim Ausgang aus dem Mononet wird der Identitt
des Akteurs eine arbitrre (aber singulre) Kennung zugewiesen, die dem Eintritt in
die blinde Tr dient. Beim Ausgang wird dieser Kennung eine zweite, ebenso
arbitrre und singulre Kennung zugeordnet, mit welcher der Zugang zum Polynet
gewhrt wird, von wo aus der Akteur weiter anonym oder pseudonym handeln kann.
Der Abgleich von Eingangsidentitt und Ausgangsidentitt darf nur erfolgen in
schwerwiegenden sanktionierbaren Fllen zur Strafverfolgung.74
Das Verstndnis des Modells und vor allem der sich in ihm manifestierenden
ethischen Werte msste weit verbreitet und konsensfhig sein. Vor allem die Verlet-
zung kontextueller Integritt mit der Konsequenz einer verminderten iSB msste als
schwerwiegender Eingriff in die Autonomie von Subjekten verstndlich gemacht
und von einer breiten Mehrheit aller Akteure von Mediengesellschaften internali-
siert werden. Die Vermittlung msste bereits im Kindesalter erfolgen und eng an
die Konzepte der Medienkompetenz und Ethik gebunden werden. Dies wre ohne
Zweifel ein langwieriger Prozess.75
Aus rechtlicher Sicht mssten international ratizierte und durchgesetzte Normen
aufgestellt werden, die nicht nur die Verletzung kontextueller Integritt zwischen
Mononet und Polynet, sondern auch jeweils innerhalb dieser Makrokontexte selbst
regeln. Voraussetzung wre ein juristischer Ansatz fr den effektiven Schutz vir-
tueller, im Polynet angesiedelter Daten und Identitten76 durch entsprechende
technische und organisatorische Anforderungen und Vorschriften. Die Verletzungen
kontextueller Integritt mssten nicht nur strafrechtlich international sanktionierbar
sein, sondern auch die Sanktionen selbst so drastisch ausfallen, dass sie keine
Chance htten, als Kavaliersdelikt angesehen zu werden, sondern eher den Status
schwerer Krperverletzung htten. Die Durchsetzung des rechtlichen Schutzes
msste von einer sich demokratisch verwaltenden internationalen Organisation

74 Ob der Transit ber zwei Identittsprole des technischen Gerts oder gar ber zwei SIM-Karten
o. . erfolgen sollte, wre eine Fragestellung fr entsprechende Experten.
75 Mgliche Analogien wren die Durchsetzung der Idee der Gleichstellung von Mann und Frau, die
nicht nur ber 100 Jahre in Anspruch nahm, sondern auf philosophischen und rechtlichen Feldern
ausgetragen wurde und in der gesellschaftlichen Praxis noch lange nicht befriedigend umgesetzt
ist. Eine weitere Analogie wre die Bio-Bewegung, deren Vorreiter Normen mit auch ethischen
Implikationen entwickelten. Aus diesen Prozessen heraus bildeten sich Verbnde, die die Einhal-
tung dieser Normen kontrollieren, bis schlielich Teile der Normen auch rechtliche Formen fanden
(z. B. die EG-ko-Basisverordnung Nr. 834/2007) und die ethischen Implikationen ber Jahrzehnte
hinweg in der gesellschaftlichen Mitte Akzeptanz entwickelten.
76 Auch im Polynet wrden Kontexte mit unterschiedlichen funktionalen Anschlussfhigkeiten ope-
rieren. Die jeweiligen Normen wren auch hier zu schtzen.
222 Innokentij Kreknin

bernommen werden, die z. B. aus den Datenschutzbehrden entstehen knnte.


Nach entsprechender Anpassung der vlkerrechtlichen Prinzipien und Vollzugsme-
chaniken msste die Organisation nicht nur aktiv Verletzungen durch Institutionen
(Staaten, Unternehmen) nden und ahnden, sondern auch auf Anzeigen einzelner
Akteure effektiv reagieren knnen. Sie wre auch die Instanz, in der zum Zweck
der Verbrechensbekmpfung die Entscheidung ber eventuelle Aufhebung kontex-
tueller Integritt der Daten einzelner zu sanktionierender Akteure fallen msste
und knnte damit als einzige in Ausnahmefllen auf die Daten der blinden Tr
zugreifen, um kontextbergreifende Referentialitt herzustellen.

6. Probleme des Modells und Fazit


Natrlich klingen schon die Bedingungen der Umsetzung des Modells utopisch
und bringen eine Reihe von Problemen mit sich, von denen ich nur ganz wenige
hier anschneiden kann. So wre das System wirkungslos, wenn es keinen weltweit
gltigen Rechtsrahmen geben wrde einzelne Staaten knnten dann als Inseln
fungieren, in denen die ethischen Prinzipien keine Gltigkeit htten, was das gesam-
te Modell gefhrden wrde. Zudem erfordert die Zweiteilung der digitalen Sphre
neue habituelle Mglichkeiten und Formen, die voraussetzungsreich sind und die
auf einem eurozentrischen Subjektverstndnis beruhen. Es stellt sich grundstzlich
die Frage, ob deswegen ein solches Modell und die sich darin manifestierenden
Werte erstrebenswert wren. Man kann hier jedoch einwenden, dass der gegenwr-
tige Zustand der Welt, der stark vom neoliberalen Kapitalismus geprgt ist, sowieso
eine Homogenisierung leistet, in deren Folge bald der berwiegende Teil der Welt-
bevlkerung mit den gleichen Bedingungen der Determination der informationellen
Selbstbestimmung konfrontiert sein wird. Das vorgestellte System knnte in diesem
negativen Szenario als ein Gegengewicht zu gleichschaltenden, der Monetarisierung
personenbezogener Daten dienenden Determinationsmodellen fungieren, indem es
den Schutz von Entfaltungsrumen sicherstellt, in denen Subjekte ihre informatio-
nellen Handlungsrahmen koniktfrei regulieren knnen und sich auf diese Weise
einen selbstgewhlten Grad an Autonomie in ihrer personalen Lebenslage erhal-
ten.77 Und zuletzt kann das Verhltnis der hier entworfenen Sphren als mglicher
Inhalt einer neuen Ethik des digitalen Daseins diskutiert werden. In dieser Hinsicht
ist das vorgestellte Modell als Impuls fr die Privateitsforschung und -theorie aus
subjekt- und literaturtheoretischer Perspektive zu verstehen.

77 Dies ist auch eine Bedingung dafr, dass sich demokratische Systeme legitimieren, vgl. Oshana,
How much should we value autonomy?, S. 107.
Rettung der informationellen Selbstbestimmung 223

Literatur
Arnold, Heinz Ludwig, Hrsg. Rainald Goetz. Text + Kritik 190. Mnchen: edition
text + kritik, 2011.
Boellstorff, Tom. Coming of Age in Second Life: An Anthropologist Explores the
Virtual Human. Princeton: Princeton University Press, 2008.
Bunia, Remigius. Fingierte Kunst: Der Fall Esra und die Schranken der Kunst-
freiheit. In: Internationales Archiv fr Sozialgeschichte der deutschen Literatur
32.2 (2007), S. 161182.
Butler, Judith. Psyche der Macht Das Subjekt der Unterwerfung. Frankfurt am
Main: Suhrkamp, 2001.
Caluya, Gilbert. The post-panoptic society? Reassessing Foucault in surveillance
studies. In: Social Identities 16.5 (2010), S. 621633. DOI: 10.1080/13504630.
2010.509565.
Christman, John. Relational Autonomy, Liberal Individualism, and the Social
Construction of Selves. In: Philosophical Studies 117.1-2 (2004), S. 143164.
Citron, Danielle Keats und Mary Anne Franks. Criminalizing Revenge Porn. In:
Wake Forest Law Review 49 (2014), S. 345391. URL: http://ssrn.com/abstract=
2368946 (besucht am 21. 05. 2016).
Eakin, Paul John. Autobiography as Cosmogram. In: StoryWorlds: A Journal of
Narrative Studies 6.1 (2014), S. 2143.
Eichner, Christian und York-Gothart Mix. Ein Fehlurteil als Mastab? Zu Maxim
Billers Esra, Klaus Manns Mephisto und dem Problem der Kunstfreiheit in der
Bundesrepublik Deutschland. In: Internationales Archiv fr Sozialgeschichte
der deutschen Literatur 32.2 (2007), S. 183227.
Foucault, Michel. Der Wille zum Wissen. Frankfurt am Main: Suhrkamp, 1983.
Die sthetik der Existenz. Frankfurt am Main: Suhrkamp, 2007.
Hermeneutik des Subjekts. Frankfurt am Main: Suhrkamp, 2009.
berwachen und Strafen: Die Geburt des Gefngnisses. Frankfurt am Main:
Suhrkamp, 2013.
Was ist ein Autor? (Vortrag). In: Schriften zur Literatur. Frankfurt am Main:
Suhrkamp, 2003, S. 234270.
Goetz, Rainald. Rave. Frankfurt am Main: Suhrkamp, 1998.
Hayles, Katherine. How We Became Posthuman: Virtual Bodies in Cybernetics,
Literature, and Informatics. Chicago und London: University of Chicago Press,
1998.
Helm, Paula. Die utopischen Sicherheitszwnge Schtiger und das Wagnis der
Anonymitt. In: Paragrana 25.1 (2015), S. 5869.
224 Innokentij Kreknin

Kampmann, Sabine. Funktionsrolle Autor Andrea Fraser. In: Systemtheore-


tische Literaturwissenschaft. Hrsg. von Niels Werber. Berlin u. a.: de Gruyter,
2011, S. 145158.
Keupp, Heiner. Diskursarena Identitt: Lernprozesse in der Identittsforschung.
In: Identittsarbeit heute: Klassische und aktuelle Perspektiven der Identitts-
forschung. Hrsg. von Renate Hfer und Heiner Keupp. Frankfurt am Main:
Suhrkamp, 1997, S. 1139.
Kraus, Bjrn. Erkennen und Entscheiden. Grundlagen und Konsequenzen eines
erkenntnistheoretischen Konstruktivismus fr die Soziale Arbeit. Weinheim und
Basel: Beltz Juvenat, 2013.
Kreknin, Innokentij. Poetiken des Selbst: Identitt, Autorschaft und Autoktion am
Beispiel von Rainald Goetz, Joachim Lottmann und Alban Nikolai Herbst. Berlin
u. a.: de Gruyter, 2014.
Luhmann, Niklas. Soziale Systeme. Frankfurt am Main: Suhrkamp, 1987.
Soziologische Aufklrung 3: Soziales System, Gesellschaft, Organisation. Opla-
den: Westdeutscher Verlag, 2005.
Mangold, Ijoma und Moritz von Uslar. Wut ist Energie (Interview mit Rainald
Goetz). In: Die Zeit 49 (29. Nov. 2012), S. 5355. URL: http://www.zeit.de/
2012/49/Interview-Rainald-Goetz-Johann-Holtrop (besucht am 10. 10. 2016).
McNeill, Laurie. There Is No I in Network: Social Networking Sites and Posthu-
man Auto/Biography. In: Biography 35.1 (2012), S. 6582.
McNeill, Laurie und John David Zuern. Online Lives 2.0: Introduction. In:
Biography 38.2 (2015).
Nissenbaum, Helen. Privacy in Context. Stanford: Stanford University Press, 2010.
Respect for context as a benchmark for privacy online: what it is and isnt. In:
Social Dimensions of Privacy. Hrsg. von Beate Rssler und Dorota Mokrosinska.
Cambridge: Cambridge University Press, 2015, S. 278302.
Oshana, Marina. Autonomy and the Question of Authenticity. In: Social Theory
and Practice 33.3 (2007), S. 411429.
How much should we value autonomy? In: Social Philosophy and Policy 20.2
(2003), S. 99126.
Personal Autonomy and Society. In: Journal of Social Philosophy 29.1 (1998),
S. 81102.
Reckwitz, Andreas. Subjekt. Bielefeld: Transcript, 2008.
Ricken, Norbert. Zur Logik der Subjektivierung. berlegungen an den Rndern
eines Konzepts. In: Techniken der Subjektivierung. Hrsg. von Andreas Gelhard,
Thomas Alkemeyer und Norbert Ricken. Mnchen: Wilhelm Fink, 2013, S. 29
47.
Rssler, Beate. Der Wert des Privaten. Frankfurt am Main: Suhrkamp, 2001.
Rettung der informationellen Selbstbestimmung 225

Should Personal Data be a Tradable Good? On the Moral Limits of Markets in


Privacy. In: The Social Dimensions of Privacy. Hrsg. von Beate Roessler und
Dorota Mokrosinska. Cambridge: Cambridge University Press, 2015, S. 141
161.
Schumacher, Eckhard. Gerade Eben Jetzt: Schreibweisen der Gegenwart. Frankfurt
am Main: Suhrkamp, 2003.
Tardini, Stefano und Lorenzo Cantoni. Hypermedia, internet and the web. In:
Communication and Technology. Hrsg. von Lorenzo Cantoni und James A.
Danowski. Berlin und Boston: De Gruyter Mouton, 2015, S. 119140.
Wagner-Egelhaaf, Martina. Autoktion oder: Autobiographie nach der Autobio-
graphie. In: Autobiographisches Schreiben in der deutschsprachigen Gegen-
wartsliteratur. Hrsg. von Ulrich Breuer und Beatrice Sanberg. Bd. 1. Mnchen:
Ludicum, 2006, S. 353368.
Westin, Alan F. Privacy and freedom. New York: Atheneum, 1967.
Wold Bank. World Development Report 2016: Digital Dividends. Washington DC:
World Bank, 2016. DOI: 10.1596/978-1-4648-0671-1.
Zipfel, Frank. Fiktion, Fiktivitt, Fiktionalitt: Analysen zur Fiktion in der Literatur
und zum Fiktionsbegriff in der Literaturwissenschaft. Berlin: Erich Schmidt,
2001.
Emission statt Transaktion

Weshalb das klassische Datenschutzparadigma nicht mehr


funktioniert
Sven Trpe, Jrgen Geuter und Andreas Poller

1. Einleitung
Der Datenschutz hat angesichts von Big Data und Internet einen schweren Stand.
Websites verfolgen ihre Nutzer, Werbung passt sich den Empfngern an, soziale
Netze erkennen Gesichter in Fotos und Spielzeugpuppen schicken aufgezeichne-
te Gesprche zur Verarbeitung an einen Dienst im Internet.1 Langatmige Daten-
schutzerklrungen und pauschale Einwilligungen sollen rechtliche Anforderungen
erfllen, schaffen tatschlich aber wenig Transparenz und Kontrolle, sondern ber-
schwemmen die Betroffenen mit einer solchen Menge an Text, dass eher das
Gegenteil totale Intransparenz erreicht wird. Unterdessen werden Datenschutz-
beauftragte und -aktivisten nicht mde, uns alle vor den Gefahren der sorglosen
Internetnutzung zu warnen. Einerseits trgt fast jeder ein Smartphone in der Tasche,
das die Cloud ber sein Leben auf dem Laufenden hlt, andererseits besttigen
wir artig jeder Website, dass wir wissen, dass sie Cookies einsetzt. Ist Datenschutz
ein Relikt der Vergangenheit, eine Sammlung sinnentleerter Gesten?
In den 1970er und 1980er Jahren entstanden die bis heute geltenden Grundzge
des deutschen Datenschutzrechts. Damals waren Computer kaum mehr als automa-
tisierte Karteischrnke. Aus dieser Zeit und ihrer Technik stammt die Idee, jeder
Person ein Verfgungsrecht ber die sie betreffenden Daten zu gewhren und dieses
Recht durch spezische Entscheidungs- und Eingriffsbefugnisse der Betroffenen
zu garantieren. Dazu diente eine Transaktionsschnittstelle zwischen Betroffenen
und Verarbeitern: Daten sollen mglichst bei Betroffenen selbst erhoben werden;
unabhngig von der Art der Erhebung ist in der Regel sofern keine gesetzliche
* Sven Trpe, Andreas Poller | Fraunhofer-Institut fr Sichere Informationstechnologie SIT |
{sven.tuerpe; andreas.poller}@sit.fraunhofer.de
Jrgen Geuter | Unabhngiger politischer Informatiker | jg@juergengeuter.com
1 Barthlmy und Wilkens, Reden und lauschen.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_14
228 Sven Trpe, Jrgen Geuter und Andreas Poller

Erlaubnis besteht deren widerruiche Einwilligung erforderlich; spter erlau-


ben Auskunfts- und Eingriffsrechte die Kontrolle; technische und organisatorische
Manahmen stellen sicher, dass diese Vorgaben nicht unterlaufen werden.
Dieser Ansatz hat sich fr die Informationstechnik seiner Entstehungszeit be-
whrt. Zu Datenerhebungen kam es nur gelegentlich und explizit, die Datenmengen
waren berschaubar und in der Regel handelte es sich um Angaben, deren Inhalt
und Bedeutung ohne Schwierigkeiten nachzuvollziehen war. Dazu passten die Un-
terschrift unter einen Hinweistext als Mittel der informierten Einwilligung und
Regeln rund um die Speicherung von Daten.
Mangels Alternativen arbeiten wir bis heute mit solchen Mitteln, doch sie passen
immer weniger. Die klassische Datenerhebung ist nur noch ein Spezialfall. Alltgli-
che Vorgnge wie der Besuch einer Website lsen im Hintergrund Interaktionen mit
einem ganzen Netz von Akteuren aus, das sich mit jedem Klick verndern kann.
Dabei entstehende Daten werden nicht mehr auf einer elektronischen Karteikarte
zum spteren Abruf in Datenbanken abgelegt, sondern durch Data Mining und ma-
schinelles Lernen zu statistischen Modellen und darauf gesttzten Entscheidungen
verarbeitet.
Die dem Transaktionsparadigma zugrundeliegenden Annahmen gelten oft nicht
mehr. Stattdessen entstehen in unserer Umgebung fortlaufend Daten ber jeden von
uns, verbreiten sich und werden von teils unbekannten Empfngern mit komplexen
Verfahren interpretiert. Die Ergebnisse und Auswirkungen lassen sich weder an-
hand der Daten noch anhand grober Verfahrensbeschreibungen einschtzen. Dies
schwcht die herkmmlichen Kontrollmechanismen. Sie scheitern an der Hugkeit
der Erhebungsvorgnge, unklarer Dateninterpretation und inhrenter Intransparenz
der Verarbeitung.
Daraus folgen Konikte zwischen Vertretern des kodizierten Datenschutzes,
IT-Betreibern und Betroffenen, welche die ffentlichen Debatten zuweilen auf die
Frage Datenschutz oder Datenverarbeitung? zuspitzen. Um dieser falschen Dicho-
tomie zu entkommen, nehmen wir die Grundzge der heutigen Informationstechnik
ebenso als gegeben hin wie das Bedrfnis, Menschen und ihre Persnlichkeitsrechte
vor Auswchsen und unangemessenen Benachteiligungen zu schtzen. Wir konzen-
trieren uns hier auf die technisch-organisatorische Dimension und stellen mit der
Emissionsmetapher die Frage, auf welche Weise die Schutzziele2 des Datenschutzes
heute und morgen am effektivsten verfolgt werden knnen.

2 Rost und Bock, Privacy by Design und die neuen Schutzziele.


Emission statt Transaktion 229

2. Datenschutz als Informationskontrolle


Datenschutz bersetzt das abstrakte Recht auf informationelle Selbstbestimmung
in Regeln, mittels derer Personen die Verarbeitung sie betreffender Informationen
steuern und kontrollieren knnen. Datenschutz ist vor allem dort erforderlich, wo
Interessen divergieren und die Auswirkungen von ungleichen Machtverhltnissen
auszugleichen sind. Als Mittel bedient er sich einer Mischung aus sozialen Normen
und Praktiken, rechtlichen Regelungen sowie technischen Manahmen.
Vorstellungen von Privatheit und die Mittel zu ihrem Schutz haben sich mit
der Zeit gewandelt. Besonders der technische Fortschritt und damit verbundene
Vernderungen der Gesellschaft verndern immer wieder Anforderungen, Randbe-
dingungen und Lsungsanstze. Im Jahr 1890 motivierte die damals neue Technik
der Fotograe Warren und Brandeis zu ihrem bis heute vielfach zitierten Aufsatz
The Right to Privacy.3 Ab den 1970er Jahren fhrte dann die heranreifende
Informationstechnik zur Entwicklung des Datenschutzes, wie wir ihn bis heute
kennen. In den USA entwickelte eine von Ware geleitete Kommission 1973 die
Idee der Fair Information Practice.4 In Deutschland bereitete ein Gutachten von
Steinmller et al.5 bereits 1971 das Problem des Datenschutzes umfassend auf und
zeichnete viele sptere Entwicklungen vor.

2.1. Transaktionale Datenkontrolle


Der klassische Datenschutz stellt Mittel bereit, mit denen Individuen Daten in
fremder Hand unter Kontrolle behalten. Seine Begriffe und Regeln korrespondieren
mit den zur Entstehungszeit vorherrschenden Mitteln der Datenverarbeitung, zen-
tralisierten Datenbanken. Dazu passend hat sich ein transaktionales Paradigma des
Datenschutzes entwickelt. Die transaktionale Kontrolle der Datenverarbeitung sttzt
sich auf die Idee, Personen ein Verfgungsrecht ber die Verarbeitung aller sie be-
treffenden Daten zuzusprechen. Dieses Verfgungsrecht ben sie in Transaktionen
mit den verarbeitenden Stellen aus. Jede Einwilligung und jede Datenerhebung beim
Betroffenen, wie sie das Bundesdatenschutzgesetz (BDSG) als Regelfall vorsieht,
ist eine Datentransaktion. Im weiteren Sinne ben Betroffene auch ihre Rechte
auf Auskunft, Berichtigung, Lschung, usw. in Transaktionen mit den jeweiligen
Verarbeitern aus.
Der transaktionale Datenschutz sttzt sich also auf drei Sulen:
1. Die informierte Einwilligung gilt als Voraussetzung fr die Datenerhebung und
-nutzung. Damit werden Transaktionen explizit, so dass die Betroffenen sie zur
3 Warren und Brandeis, The Right to Privacy.
4 Ware, Records, Computers and the Rights of Citizens.
5 Steinmller u. a., Grundfragen des Datenschutzes.
230 Sven Trpe, Jrgen Geuter und Andreas Poller

Kenntnis nehmen, vollstndig verstehen, ihre Konsequenzen abschtzen und sie


ggf. auch verhindern knnen.
2. Interventionsmglichkeiten erlauben den Betroffenen zum einen, Transaktionen
rckgngig zu machen und zu einem frheren Zustand zurckzukehren, zum
anderen auch die Korrektur von Fehlverhalten durch Datenentzug.
3. Technische und organisatorische Manahmen stellen sicher, dass zulssige
Transaktionen mglich sind und dass Daten nur auf der Grundlage zulssiger
Transaktionen verarbeitet werden knnen.

Diese Aspekte zeigen sich deutlich in einschlgigen Gesetzen wie dem BDSG.

2.2. Zugrundeliegende Annahmen


Die transaktionale Kontrolle ber die Datenverarbeitung folgt einer einfachen Idee:
Die Datenverarbeitung ist in der Regel nur gestattet, wenn die Daten das Ergebnis
erlaubter und freiwilliger Transaktionen mit den Betroffenen sind. Auf diese Weise
kann jeder den berblick ber die ihn betreffende Datenverarbeitung behalten
und sie steuern. Damit das wirklich funktioniert, mssen jedoch einige Annahmen
erfllt sein:

Die Bedeutung freigegebener Daten bzw. die Konsequenzen ihrer Verarbeitung


lassen sich meist ohne Schwierigkeiten beurteilen.
Risiken entstehen durch die Datenverarbeitung und verringern sich, wenn keine
Daten vorliegen.
Explizite Datentransaktionen sind in ihrem Umfang und ihrer Hugkeit hand-
habbar.
Zwischen Verarbeitern und Betroffenen existieren Beziehungen, die eine explizite
Interaktion ermglichen.
Verschiedene Verarbeiter und Verarbeitungszwecke lassen sich ohne Schwierig-
keiten voneinander trennen.

Diese Annahmen passen zur Informationstechnik und ihren Anwendungen zur


Entstehungszeit des Datenschutzes in den 1970er bis in die 1990er Jahre. Daten
reprsentierten vorwiegend Einzelangaben ber Personen, Gruppen oder Sachen;6
Computer bewahrten solche Daten zum spteren Abruf in strukturierten Datenban-
ken auf. Ware spricht demgem vom computer-based record keeping, das die
6 Steinmller u. a., Grundfragen des Datenschutzes.
Emission statt Transaktion 231

lange Entwicklung der Verwaltung seit der Antike fortsetzt.7 Daten zu verarbeiten
bedeutete in erster Linie, sie nach verschiedenen Kriterien zu ordnen und sie anhand
dieser Kriterien spter abzurufen.
Steinmller et al.8 gingen von einem generischen Prozess der Informationsverar-
beitung aus, der Vorgnge wie die Ermittlung, Erfassung, Speicherung, Vernderung,
Ausgabe, Weitergabe und Lschung umfasste und damit den Verarbeitungsbegriff
des BDSG vorwegnahm. Die Mglichkeiten und Risiken der eigentlichen Verar-
beitung gespeicherter Daten durch Programme wurden zwar betrachtet und sie
waren angesichts etwa der frh eingesetzten Rasterfahndung nicht zu bersehen. So
betonten sowohl Ware als auch Steinmller et al. neben dem einfacher werdenden
Informationszugang auch die menschliches Vermgen bersteigende Verarbeitungs-
kapazitt des Computers als Gefahrenquelle. Jedoch erschien die weitergehende
Verarbeitung als eine bloe Folge der Erfassung und Speicherung von Daten.
Fr nicht in einer Datenbank enthaltene Datenstze entelen auch die daran ge-
knpften Vorgnge. Erhoben wurden Daten oft durch das Ausfllen von Formularen.
Vernetzung bedeutete Fernzugriff auf die Daten anderer Organisationen. Insgesamt
erschienen Computer noch vorwiegend als digitale Karteischrnke, betrieben von
Organisationen zur Untersttzung ihrer jeweiligen Aufgaben. Datentransaktionen
waren oft eingebettet in transaktionale Alltagsvorgnge wie etwa eine Katalogbe-
stellung bei einem Versandhaus.

2.3. Degenerierte Begriffe und Werkzeuge


Die wichtigsten Hilfsmittel des transaktionalen Datenschutzes, Erklrungen und
Einwilligungen, begegnen uns heute allerorten, auf jeder Website. Dies ist formalen
Anforderungen zu verdanken, die damit erfllt werden. Jedoch wirken die traditio-
nellen Mittel im Web kaum noch berzeugend. Man hat sie, weil man muss, aber
sie bewirken wenig. Dies hat mehrere Grnde:

Vielfltige Empfnger: Man schaue sich etwa die PayPal-Datenschutzgrund-


stze9 an. Sie umfassen eine als eigenes Dokument bereitgestellte Tabelle10 aller
Firmen, an die PayPal personenbezogene Daten bermittelt. Dieses Dokument hat
gegenwrtig 60 Seiten und ist damit im Alltag nutzlos. Weder vermittelt es einen
Eindruck von den tatschlichen Datenssen und Verarbeitungsvorgngen, noch

7 Ware, Records, Computers and the Rights of Citizens.


8 Steinmller u. a., Grundfragen des Datenschutzes.
9 PayPal: PayPal-Datenschutzgrundstze, https://www.paypal.com/de/webapps/mpp/ua/privacy-full
10 PayPal: Liste der Dritten (auer PayPal-Kunden), fr die personenbezogene Daten frei-
gegeben werden knnen, https://www.paypalobjects.com/webstatic/de\_DE/ua/pdf/paypal\_third\
_party\_disclosure\_list\_as\_of\_feb\_23\_2016.pdf.
232 Sven Trpe, Jrgen Geuter und Andreas Poller

sind Eingriffe eines Betroffenen praktikabel, selbst wenn ein verantwortlicher Be-
treiber als einziger Ansprechpartner fungiert. Welche informierten Entscheidungen
sollten Betroffene auf dieser Grundlage treffen? Welche wirksamen Schranken sind
der Datenverarbeitung noch auferlegt?

Vernetzte Dienste: PayPal ist kein Ausnahmefall, berall im Web nden sich
hnliche Verhltnisse. Abb. 1 illustriert dies anhand einer Browsersitzung, in der
einige Websites besucht wurden. Kreise stellen die besuchten Sites dar, Dreiecke
die zustzlich im Hintergrund aufgerufenen Adressen. Jeder Dienst in diesem Netz
erhlt Daten ber den Nutzer, oft auch ber mehrere besuchte Websites hinweg.
Damit verbunden ist die Mglichkeit zum Nutzer-Tracking11 mittels Cookies oder
Browser-Fingerprinting.12 Auch hier leisten frmliche Datenschutzerklrungen
und erst recht die allseits bekannten Cookie-Banner wenig fr die informa-
tionelle Selbstbestimmung. Browsererweiterungen wie der PrivacyBadger13 der
EFF versprechen zu einem gewissen Grad Abhilfe, aber ihr Nutzen ist angesichts
intransparenter Ursache-Wirkung-Beziehungen schwer zu verdeutlichen.

Indirekte Datensse: Beim Web-Tracking ieen die Daten zumindest noch


direkt zu den einzelnen Empfngern, so dass technische Eingriffe des Nutzers
mglich bleiben. Anders ist dies, wenn wir beispielsweise Kontaktdaten an eine
bekannte Person weitergeben, die sie im Adressbuch ihres Smartphones speichert.
Dort sind sie fr andere Apps zugnglich, welche die Daten wiederum weitergeben
knnen. Hier gehen Daten nacheinander durch mehrere Hnde und geraten auer
Kontrolle, ohne dass Betroffene viel dagegen tun knnten. Solche Datensse
haben hnliche Auswirkungen wie die Verknpfung von Datenbanken, sie kommen
jedoch anders zustande.

Datenmischung: In einer Datenbank oder auch in einer Verknpfung mehrerer


Datenbanken ist der Personenbezug jedes Datensatzes klar. Anders in sozialen
Netzen: Dort kann eine Nachricht zum Beispiel beim Check-in in einem Caf zum
Treffen mit Freunden entstehen und dann von weiteren Nutzern bewertet, geteilt und

11 Unter http://datenblumen.wired.de und mit dem Browserplugin Lightbeam (https://www.mozilla.


org/lightbeam/) kann man sich Visualisierungen der eingebundenen Fremdinhalte anschauen. Vgl.
auch Roesner, Kohno und Wetherall, Detecting and Defending Against Third-Party Tracking on
the Web.
12 Beim Fingerprinting versucht man, Eigenheiten der Browserkonguration und des Browserverhal-
tens als implizites Pseudonym zu nutzen. Dies gelingt erstaunlich oft und vermeintlich die Privat-
sphre schtzende Handlungen knnen dabei sogar helfen, wenn sie den Fingerabdruck eindeutiger
machen. Vgl. Eckersley, How Unique Is Your Web Browser?
13 https://www.eff.org/privacybadger
Emission statt Transaktion 233

Abbildung 1.: Visualisierung einer Browsersitzung mit Lightbeam (https://www.mozilla.


org/lightbeam/). Zu den besuchten Websites (Kreise) kommt ein Vielfaches
an im Hintergrund aufgerufenen Adressen (Dreiecke).

kommentiert werden. Es entstehen Mischdaten mit Bezgen zu allen Beteiligten.


Wer soll welche Verfgungsgewalt ber diese Daten bekommen? Ist es angemessen,
jeden Beteiligten aufgrund des jeweiligen Personenbezugs mit einem Vetorecht
auch auf Kosten aller anderen auszustatten?

Latente, implizite und kontextuelle Personenbezge: Personenbezge entste-


hen nicht mehr nur durch explizite Zuordnung von Daten zu Identitten. Ein Beispiel
ist die Assoziation zwischen Suchbegriff und eingeblendeter Werbung in Such-
maschinen, wenn der Suchbegriff ein Name ist. Dokumentiert ist etwa ein Fall,
in dem die Namen von Schwarzen in der Google-Suche systematisch zu ande-
234 Sven Trpe, Jrgen Geuter und Andreas Poller

ren Werbetexten fhrten als die von Weien.14 Die betreffende Werbung pries
Background-Checks in Polizeidatenbanken an und war suggestiv formuliert. Das
generische Verfahren, Werbung anhand der eingegebenen Suchbegriffe auszuwh-
len, wird durch die Eingabe eines Namens personalisiert. Ein weiteres Beispiel sind
automatisch generierte Vorschlge zur Vervollstndigung von Sucheingaben, die
bei der Eingabe eines Namens Aussagen ber die betreffende Person suggerieren
knnen.15

3. Die digitale Sphre heute


Zunehmende Datenmengen alleine stellen das Transaktionsparadigma nicht in
Frage. Der technische Fortschritt hat jedoch nicht nur Datenmengen vergrert,
sondern er stellt die Annahmen in Frage, auf die sich der transaktionale Daten-
schutz sttzt. Dazu tragen drei Entwicklungen bei: die Arbeitsteilung in vernetzten
Systemen, die massenhafte Entstehung von Kollateraldaten sowie die Verfgbarkeit
von Inferenz- und Lernalgorithmen fr das Data Mining.

3.1. Arbeitsteilung in vernetzten Systemen


Von einem reinen Transportmechanismus fr Daten hat sich das Internet zu einer
Plattform fr die Zusammenarbeit aller mglichen Akteure weiterentwickelt. Dies
schlgt sich insbesondere in den technischen Architekturen von Anwendungen und
den damit korrespondierenden Organisationsstrukturen nieder. Frher waren An-
wendungsprogramme monolithische und statische Softwarepakete, die auf isolierten
Systemen liefen oder hchstens einen Fernzugriff erlaubten. Heutige Anwendungen
sind Cloud-Dienste, die im Hintergrund eine Reihe anderer Dienste einbinden und
orchestrieren und die im laufenden Betrieb weiterentwickelt werden. Die einzelnen
Dienste haben verschiedene Betreiber und begegnen Nutzern in unterschiedlichen
Zusammenstellungen und Kontexten. Jede moderne Anwendung ist ein Fenster in
ein Geecht technischer Dienste und geschftlicher Beziehungen.
Ein scheinbar einfacher Vorgang wie der Besuch einer Website umfasst in Wirk-
lichkeit komplizierte Interaktionen mit einer Vielzahl von Akteuren und ihren
technischen Artefakten, die grtenteils verborgen bleiben. Nutzungsvorgnge
lassen bei allen Akteuren Daten entstehen. Explizite Interaktion und explizite Bezie-
hungen bilden dabei nur die sichtbare Oberche, wie in Abb. 1 zu sehen. Analog
verknpft jedes Smartphone mit seinen Apps eine Sammlung von Diensten, die
sich mit jeder Installation oder Deinstallation ndert.

14 Sweeney, Discrimination in online ad delivery.


15 Bager, Rotlicht-Gerchte.
Emission statt Transaktion 235

3.2. Kollateraldaten16
Explizite Angaben und Inhalte machen nur noch einen Teil der verfgbaren und
verarbeiteten Daten aus. Daneben erzeugt die Informationstechnik vielerlei Daten
als Nebeneffekt ihrer Funktionen, oft ohne besonderen Zweck. Die beim Browser-
Fingerprinting17 und Web-Tracking18 verwendeten Daten fallen beispielsweise
zu einem groen Teil in diese Kategorie: Cookies, Besonderheiten von Protokoll-
ablufen, usw. Explizite Angaben existieren weiter, etwa wenn wir Formulare
ausfllen, Nachrichten posten oder Bilder hochladen. Die explizite bermittlung,
die Datenerhebung ist jedoch wiederum nur noch ein Oberchenphnomen.
Kollateraldaten unterscheiden sich von expliziten Angaben zum einen dadurch,
dass sie fortlaufend oder mit hoher Frequenz entstehen. Zum anderen haben sie
fr sich genommen oft keine erkennbare Bedeutung fr diejenigen, die von der
Verarbeitung dieser Daten betroffen sein knnen, whrend sie gleichwohl fr andere
interessant und ntzlich sein knnen. Jeder Faktor fr sich und erst recht die
Kombination erschweren die Steuerung durch Datentransaktionen.

3.3. Data Mining und maschinelles Lernen


Eng verbunden mit der Verarbeitung groer Datenmengen sind Verfahren zum
Data Mining und zum maschinellen Lernen. Sie erfassen statistische Regelmig-
keiten einer groen Menge bekannter Datenstze und reprsentieren sie in einem
Modell oder Entscheidungsalgorithmus, mit dem sich weitere, vorher unbekannte
Datenstze interpretieren lassen. Insbesondere Lernverfahren sind heute eine Stan-
dardtechnologie, die in immer mehr IT-Systemen zu nden. Wir skizzieren hier
nur einige Begriffe; fr tiefere Erklrungen verweisen wir auf die umfangreiche
Literatur zum Thema.19
Inferenz ist das Schlieen aus Daten unabhngig vom angewandten Verfahren.
Beispielsweise kann man von einer IP-Adresse hug auf den ungefhren Standort
des dazugehrigen Computers schlieen. Welche Schlsse aus Daten gezogen
werden, hngt nicht nur von den Daten selbst ab, sondern auch von den angewandten
Schlussregeln und der Wissensbasis, auf der diese Regeln angewendet werden.

16 Wir meinen damit Daten, die aus Nutzersicht nebenbei und im Hintergrund anfallen. Zum Teil (z. B.
Cebulla, Umgang mit Kollateraldaten) wird die Bezeichnung Kollateraldaten auch fr Daten von
Dritten gebraucht.
17 Eckersley, How Unique Is Your Web Browser?
18 Roesner, Kohno und Wetherall, Detecting and Defending Against Third-Party Tracking on the
Web; Acar u. a., The Web Never Forgets.
19 Besonderheiten des maschinellen Lernens fasst dieser Artikel gut zusammen: Domingos, A few
useful things to know about machine learning.
236 Sven Trpe, Jrgen Geuter und Andreas Poller

Die statistische Inferenz gewinnt ihre Schlussregeln mit statistischen Mitteln.


Die statistischen Eigenschaften einer Stichprobe werden verallgemeinert und auf
hnliche Daten angewandt, um (mutmalich) nherungsweise richtige Ergebnisse
zu berechnen. Statistische Inferenzverfahren liefern im Idealfall die bestmgliche
Schtzung anhand der vorliegenden lckenhaften Informationen.
Das maschinelle Lernen ist eine Spielart der statistischen Inferenz. Anstelle
klassischer statistischer Verfahren verwendet man Algorithmen,20 um anhand einer
Stichprobe von Trainingsdaten die Parameter eines Modells anzupassen. Dazu
werden Daten und Modelle in vieldimensionalen Rumen reprsentiert und das
Modell so angepasst, dass es auf den Trainingsdaten mglichst gute Ergebnisse
liefert. Auf diese Weise erhlt man Algorithmen, die zu einem Teil vom Menschen
entworfen, zu einem anderen Teil automatisch an Daten angepasst sind.
Das Crowdsourcing von Problemlsungen an eine Nutzerpopulation ist ein An-
wendungsbereich des maschinellen Lernens, der die aus dem Verbraucherscoring21
bekannten Anstze verallgemeinert und in interaktiven Systemen einsetzt. Internet-
dienste wie zum Beispiel Suchmaschinen lernen zunehmend von ihren Nutzern:
welche Eingaben wahrscheinlich Tippfehler enthalten und wie diese zu korrigieren
sind, welche Fortsetzungen einer begonnenen Eingabe hug vorkommen, welche
Suchergebnisse am besten ankommen oder auch welche Werbung in welchem Kon-
text am hugsten funktioniert. Das beobachtete Verhalten der Nutzerpopulation
schlgt sich so im knftigen Verhalten des Dienstes nieder.
Der breite Einsatz statistischer Inferenzverfahren hat mehrere Konsequenzen
fr die Datenverarbeitung. Erstens lsst sich die Bedeutung und Aussagekraft von
Daten nicht mehr verlsslich aus diesen Daten selbst ermitteln, sondern erst mit
Bezug auf konkrete Modelle und Algorithmen zu ihrer Verarbeitung. Was ein Da-
tenverarbeiter wei, ist zu einem groen Teil in seinen Modellen kodiert und
nicht in den ihm bermittelten Daten. Das Zurckhalten oder Verndern von Daten
kann dabei unerwartete Wirkungen haben, die der damit verbundenen Absicht
zuwider laufen.22 Zweitens haben Inferenzergebnisse den Charakter einer Scht-
zung oder Vermutung; es handelt sich nicht um gesicherte Fakten, sondern um
Wahrscheinlichkeitsaussagen unter gewissen Annahmen. Dies ist fr viele Anwen-
dungen ausreichend, jedoch lassen sich Wahrscheinlichkeitsaussagen zum Beispiel
im Einzelfall schwer widerlegen.

20 Breiman, Statistical modeling.


21 Kamp und Weichert, Scoringsysteme zur Beurteilung der Kreditwrdigkeit.
22 Webbrowser schicken bei jeder Interaktion mit einem Webserver eine Zeichenfolge mit, die Pro-
dukt und Version erkennen lsst. Eckersley, How Unique Is Your Web Browser? erlutert, dass
das Verndern dieser Produktkennung auf Phantasiewerte in der Absicht, weniger Informationen
preiszugeben, beim Fingerprinting ein weiteres Merkmal liefert und die Browserinstanz so leichter
unterscheidbar macht.
Emission statt Transaktion 237

Drittens arbeiten maschinelle Lernverfahren ohne strenge Theoriebildung. In


gewissen Grenzen ermitteln und reprsentieren sie statistische Signale in den je-
weiligen Trainingsdaten unabhngig davon, woher diese Signale rhren. Viertens
reprsentieren trainierte Modelle anders als eine Datenbank nicht die verwendeten
Trainingsdaten selbst, sondern Aussagen ber die Gesamtheit ihrer Trainingsda-
ten. Die klassischen Datenmanipulationen Einfgen, ndern, Lschen sind
jedenfalls in ihrer herkmmlichen Form nicht mglich. Fnftens verallgemeinern
Lernverfahren aus Stichproben und die Auswirkungen auf eine Person hngen nicht
davon ab, ob diese Person zur Stichprobe beigetragen hat.

3.4. Schwchen des Transaktionsparadigmas


Nach diesen Ausfhrungen wird deutlich, woran transaktionsorientierte Daten-
schutzverfahren heute scheitern: Die zugrundeliegenden Annahmen sind nicht mehr
erfllt. Tabelle 1 stellt die IT-kosysteme von damals und heute gegenber, die
Welt der Datenbanken aus der Entstehungszeit unseres Datenschutzes sowie die
Welt von heute.

Annahmen des transaktio- Heutige Realitt


nalen Datenschutzes
Typische Tech- Datenbanken Webanwendungen
nologien Formulare Verteilte Systeme
Berichte Vernetzte Gerte berall
Maschinelles Lernen

Verarbeitungs- Speichern strukturierter Statistische Modellierung


paradigma Daten und Inferenz
Auswahl und Abruf von Optimierte Entscheidun-
Datenstzen nach einfa- gen in Echtzeit
chen Kriterien Verarbeitung von Daten-
strmen

Hugkeit der Gering bis moderat Hoch bis fortlaufend


Erhebungs- und
Verarbeitungs-
vorgnge
238 Sven Trpe, Jrgen Geuter und Andreas Poller

Annahmen des transaktio- Heutige Realitt


nalen Datenschutzes
Wahrnehmbar- Explizit (z.B. Ausfllen Explizit oder implizit
keit der Daten- eines Formulars) Kollateraldaten
bertragung

Dateninter- Wrtlich, direkt Direkt oder gefolgert


pretation Fakten, Einzelangaben Datenpunkte in Merk-
Aussagen ber Personen malsrumen
hnlichkeit
Probabilistisch

Primre Risiken Missbrauch gespeicherter Missbrauch von ge-


Daten durch Verarbeiter speicherten Daten oder
Unerlaubter Zugriff, uner- Schlussfolgerungen
laubte bermittlung Fehlinterpretation
Diskriminierung
Folgen von Vorhersagen

IT-kosystem Wenige isolierte Verarbei- Viele vernetzte Akteure


ter

Datenverarbeiter Einzelne, bekannte Ein- Vielfltige, oft unsichtba-


richtungen re Akteure

Beziehung Explizit Oft implizit


zwischen Be- Direkt (rst-party) Indirekt (third-party)
troffenen und
Verarbeitern

Kardinalitt der Viele Betroffene, wenige Alle betroffen, viele Ver-


Beziehungen Verarbeiter arbeiter
(Betroffene
Verarbeiter)
Emission statt Transaktion 239

Annahmen des transaktio- Heutige Realitt


nalen Datenschutzes
Hugkeit von Selten Hug (z.B. bei jedem
Beziehungsnde- Website-Besuch)
rungen

Tabelle 1.: Datenverarbeitung damals und heute

4. Die Emissionsmetapher
Wollen wir Privatheit und Selbstbestimmung weiter schtzen, so mssen wir die
vernderten Bedingungen beachten und Mittel suchen, die unter diesen Bedingun-
gen wirksam sind. Als ersten Schritt fassen wir die Verhltnisse in der Metapher
der fortlaufenden Datenemission zusammen:

Jeder Einzelne sendet hnlich einer Lichtquelle Daten aus, fortlaufend und in
alle Richtungen. ber emittierte Daten hat der Sender keine Kontrolle mehr.

Diese Metapher bringt Eigenschaften des eng vernetzten Internet-kosystems


zum Ausdruck und erleichtert damit die Analyse und Diskussion ihrer Konsequen-
zen.

4.1. Vorbild: Optik


Eine Metapher bertrgt Begriffe und Beziehungen ihres Herkunftsbereichs in ein
anderes Gebiet.23 Die Emissionsmetapher entstammt der Optik.24 Lichtquellen
unterschiedlicher Gestalt und Gre senden elektromagnetische Wellen aus, die
sich im Raum in alle Richtungen ausbreiten. Strukturen im Raum Objekte und
Regionen aus unterschiedlichen Medien beeinussen die Fortpanzung der Licht-
wellen, indem sie Licht absorbieren, reektieren oder brechen. Stellt man irgendwo
im Raum einen Sensor auf, so empfngt dieser direkt und indirekt Lichtwellen aus
verschiedenen Quellen, deren Aussendungen sich mischen; Licht aus derselben
Quelle kann auch auf unterschiedlichen Wegen zum Sensor gelangen. Auch oh-
ne explizite Aufmodulation von Signalen tragen die an einem Ort eintreffenden
Wellen Informationen, nmlich ber die Lichtquellen und die Struktur des umge-
benden Raums. Optische Instrumente Mikroskope, Kameras, Projektoren, usw.

23 Lakoff und Johnson, Metaphors we live by.


24 Siehe z. B. Pedrotti u. a., Optik fr Ingenieure.
240 Sven Trpe, Jrgen Geuter und Andreas Poller

nutzen dies aus, um gezielt optische Abbildungen zu erzeugen. Dabei werden


Lichtquellen oft gezielt eingesetzt, um andere Gegenstnde zu beleuchten. Die
beleuchteten Gegenstnde interagieren mit dem einfallenden Licht, indem sie es
teils reektieren, teils brechen und teils absorbieren; dies erlaubt Rckschlsse auf
ihre Eigenschaften.
Mit der Emissionsmetapher bertragen wir drei Ideen in den Datenschutz:

1. Die Idee der Quelle, die fortlaufend in alle Richtungen abstrahlt.

2. Die Idee eines strukturierten Raums, in dem sich Lichtwellen fortpanzen und
von Objekten und Medien beeinusst werden.

3. Die Idee abbildender Systeme, die irgendwo im Raum Lichtwellen auffangen


und in einer fr ihren Benutzer hilfreichen Weise abbilden.

Die spezischen Naturgesetze der Optik lassen sich natrlich nicht einfach auf
Daten im Internet bertragen, dafr sind die Unterschiede zwischen dem physikali-
schen Raum einerseits und dem Cyberspace andererseits zu gro.

4.2. bertragung auf Daten


In einer Welt voller vernetzter Gerte und Sensoren verhalten sich Daten im Netz
hnlich wie elektromagnetische Wellen im Raum:

1. Vielfltige Vorgnge erzeugen fortlaufend Daten, die Informationen ber Per-


sonen tragen. Hug handelt es sich um Kollateraldaten, deren Entstehung wir
nicht bemerken und die wir nicht ohne weiteres interpretieren knnen. Als kano-
nisches Beispiel kann das Smartphone dienen, dessen Nutzung im Alltag alle
mglichen Daten ber seinen Besitzer wie auch ber andere Personen entstehen
lsst.

2. Technische und organisatorische Strukturen im Internet-kosystem bestimmen


die Verbreitung entstandener Daten. In der Regel gelangen Daten zu einer
Vielzahl von Akteuren, von denen nur wenige explizit in Erscheinung treten.
Auf dem Weg zu einem Empfnger knnen Daten transformiert werden.

3. Jeder Empfnger erhlt Daten von einem Nutzerkollektiv. Welche das sind und
in welcher Form, hngt von seiner Position und den umgebenden Strukturen ab.
Zur weiteren Verarbeitung setzen Datenempfnger verschiedene Instrumente ein,
welche die eintreffenden Daten fr ihre Zwecke aufbereiten. Welche Bedeutung
Daten bekommen, hngt nicht zuletzt von diesen Instrumenten ab.
Emission statt Transaktion 241

Diesen Grundzgen mag man weitere bertragungen hinzufgen, etwa der Un-
terscheidung zwischen dem sichtbaren und dem nicht sichtbaren Spektrum, der
Idee unterschiedlich hoher Energie und damit Reichweite oder auch der Vorstel-
lung einer knstlichen Beleuchtung mit dem Ziel, auswertbare Datenemissionen
hervorzurufen.

4.3. Datenemission als Normalzustand


Die Emissionsmetapher hilft uns, bekannte Phnomene der digitalen Welt zu fassen,
etwa das Tracking und Proling im Web oder das Teilen von Inhalten und Daten in
sozialen Netzen.
Das Web-Tracking25 kann in den herkmmlichen Begriffen als Erhebung, Verar-
beitung und bermittlung von Nutzungsdaten beschrieben werden. Daran knpfen
sich die sattsam bekannten Diskussionen etwa um die Einwilligung der Betroffe-
nen, um Cookies und IP-Adressen sowie um die Zulssigkeit des Einsatzes zum
Beispiel von Google Analytics. Hug wird jedoch nur der vereinfachte Spezialfall
betrachtet, dass ein einzelner Website-Betreiber einen einzelnen Tracking-Dienst
einbindet. Tatschlich siehe Abb. 1 bewegen sich Nutzer jedoch in einem Netz
von Akteuren mit vielfltigen Beziehungen, dem notdrftige Konstrukte wie das
der Auftragsdatenverarbeitung nicht gerecht werden.
Die Emissionsmetapher hingegen erklrt die Tracking-Mglichkeiten zum techni-
schen und organisatorischen Normalfall und wirft so die Frage auf, welche Risiken
sich ergeben und welcher Schutzbedarf daraus resultiert:
Die Nutzung eines Webbrowsers generiert fortlaufend Daten, bei jedem Klick
und sogar ohne Nutzeraktivitt beim bloen Betrachten. Diese Daten, etwa in
Form von HTTP-Requests, sind kleinteilig und zunchst vor allem technischer
Natur. Aggregiert und transformiert mgen sie etwas ber den Nutzer aussagen;
in der Form, in der sie entstehen, wrde sie der Nutzer jedoch selbst nie angeben.
Auch entstehen diese Daten nicht an einem klar denierten Ort und werden dann
weitergegeben, sondern sie werden von einem verteilten System erzeugt. Oft lassen
sich Daten gar nicht mehr klar einem einzelnen Nutzer zuordnen. So kommen etwa
beim Teilen und Kommentieren in sozialen Netzen explizite und Kollateraldaten
aller beteiligten Nutzer zusammen und lassen sich nicht sauber trennen.
Eine unbestimmte Menge von Akteuren ist in der Lage, die entstehenden Daten
oder Teile davon zu empfangen. Neben den Betreibern der sichtbaren und explizit
besuchten Websites gehren dazu beispielsweise deren Dienstleister (z. B. Content
Delivery Networks, Analytics, Sicherheit, Bezahlen), aber auch Akteure wie die so-
zialen Medien oder Werbenetze, deren Funktionen und Inhalte vielfach in Websites
25 Roesner, Kohno und Wetherall, Detecting and Defending Against Third-Party Tracking on the
Web; Acar u. a., The Web Never Forgets; Steidle und Pordesch, Im Netz von Google.
242 Sven Trpe, Jrgen Geuter und Andreas Poller

eingebettet sind. In der Regel handelt es sich nicht um einfache Hierarchiebeziehun-


gen, sondern um komplizierte Kollaborationsnetze. Zustzlich knnen auch Dritte
wie Browserhersteller oder Nachrichtendienste entstehende Daten empfangen.
Datenempfnger setzen verschiedene Verfahren und Algorithmen als Instrumente
ein, um die erhaltenen Daten aufzubereiten und zu nutzen, zum Beispiel Proling-
Verfahren.26 Diese Instrumente unterscheiden sich unter anderem hinsichtlich der
Persistenz oder Flchtigkeit der Eingangs- und Ausgangsdaten, der Individualitt
oder Kollektivitt ihrer Projektionen, sowie hinsichtlich der Rckwirkungen auf
Personen oder Gruppen und ihrer Abhngigkeit von eigenem und fremdem Verhal-
ten. So betrachtet zum Beispiel eine einfache Reichweitenmessung fr Websites nur
statistische Aggregate und hat keine direkten Auswirkungen auf die Nutzer, deren
Nutzungsdaten in die Messung einieen. Empfehlungssysteme und Mechanismen
zur Preisdifferenzierung im Online-Handel andererseits wirken sich unmittelbar auf
einzelne Nutzer und oft auch auf Nutzergruppen aus. Eine bloe Protokollierung des
Nutzerverhaltens hat zunchst gar keinen Effekt, lsst jedoch die knftige Nutzung
offen.

4.4. Privatheit und Selbstbestimmung trotz Datenemission?


Unsere Emissionsmetapher betont die Randbedingungen, unter denen die Ziele
des Datenschutzes heute und in Zukunft verwirklicht werden mssen. Erstens wird
die detaillierte Steuerung der Datenverarbeitung durch Betroffene immer weniger
praktikabel. Oberchliche technische Phnomene wie Cookies und IP-Adressen
erlauben kaum noch Rckschlsse auf die eingesetzten Interpretationsinstrumente
und ihre Auswirkungen, und erst recht keine gezielten Eingriffe. Zweitens macht
die Vielzahl von Datenempfngern empfngerspezische Deklarationen und Ein-
willigungen impraktikabel. Jedoch besteht zwischen den Akteuren auch keine klare
Hierarchiebeziehung, die alles an einem Punkt zusammenfhren knnte. Drittens
hngen Auswirkungen und Risiken der Datenverarbeitung wesentlich von den einge-
setzten Verarbeitungsinstrumenten ab. Die erforderlichen Differenzierungen lassen
sich nicht alleine aus den verwendeten Daten und einer groben Zweckbestimmung
herleiten.
Whrend die Ziele des Datenschutzes gltig bleiben, mssen sich seine Mittel
diesen Bedingungen anpassen. Als weiteres Ziel kommt noch die Diskriminierungs-
freiheit hinzu. Nach dem Transaktionsparadigma folgt Transparenz aus expliziten
Transaktionen, aus Benachrichtigungen und der erkennbaren Bedeutung von Daten.
Interventionen richten sich auf gespeicherte Daten und beeinussen deren Existenz,

26 Schermer, The limits of privacy in automated proling and data mining; Hildebrandt und Gut-
wirth, Proling the European Citizen.
Emission statt Transaktion 243

Umfang und Inhalt. Technische Manahmen wie Zugriffskontrolle und Protokol-


lierung verhindern (oder dokumentieren) unerlaubte Zugriffe. Der Rechtsrahmen
beschftigt sich mit Daten, ihrer Speicherung und Verarbeitung.
Unter den Annahmen der Datenemission richtet sich die Forderung nach Transpa-
renz auf Modelle, Verarbeitungsergebnisse und Auswirkungen statt auf die Inhalte
von Speichermedien. Wirksame Interventionen mssen Verarbeitungsergebnisse im
Einzelfall sowie die Systematik ihres Zustandekommens beeinussen. Technische
Manahmen untersttzen zum einen Aufsicht und Intervention, zum anderen steu-
ern sie das Schlussfolgern aus Daten. Der Rechtsrahmen schtzt Menschen statt
Daten, zum Beispiel vor Diskriminierung.

5. Ausblick
Wie lassen sich die Ziele des Datenschutzes verwirklichen, wenn fortlaufend Daten
entstehen und von einem groen Empfngerkreis mit vielfltigen, komplizierten
Instrumenten genutzt werden? Wir zeigen abschlieend einige Tendenzen auf.

5.1. Vermeidung von Kollateraldaten


Die etablierte Idee der Datensparsamkeit erhlt im Emissionsparadigma eine neue
Bedeutung. Um wirksam zu sein, muss sie die Entstehung und Aussendung von
Kollateraldaten so umfassend beeinussen, dass die Verwendung unerwnschter
Beobachtungsinstrumente nicht mehr sinnvoll mglich ist. Grundstzlich lassen
sich Kollateraldaten durch sorgfltigen Protokollentwurf vermeiden, wie es die eID-
Funktionen des Personalausweises demonstrieren.27 Inwieweit die bertragung
solcher Ideen auf Universalprotokolle wie HTTP und TLS gelingen kann, bleibt
abzuwarten. Anstze mit begrenzter Wirkung zeigen sich in der Browsererweiterung
PrivacyBadger28 der EFF und im in Deutschland recht weit verbreiteten Programm
Shariff.29 Beide versuchen das Tracking-Potenzial eingebetteter Social-Media-
Buttons auf Websites zu verringern, PrivacyBadger im Browser und Shariff auf der
Serverseite. Lassen sich solche Anstze verallgemeinern?

5.2. Regulierte Instrumente


Ist die Datenemission als solche nicht zu vermeiden, so mssen sich Schutzvorkeh-
rungen auf die Instrumente der Datenbeobachtung und Datennutzung konzentrieren.

27 Poller u. a., Electronic Identity Cards for User Authentication.


28 https://www.eff.org/privacybadger
29 https://github.com/heiseonline/shariff
244 Sven Trpe, Jrgen Geuter und Andreas Poller

Bereits jetzt richten sich die Vorgaben des Datenschutzes an die verarbeitenden Stel-
len. Mit Ausnahme spezischer Regelungen zum Scoring sind sie jedoch fokussiert
auf die Datenspeicherung als Kern der Verarbeitung. Instrumente wie Data Mining
und maschinelles Lernen werfen neue Fragen auf und erfordern eigenstndige Vor-
gaben, deren Entwicklung auf langjhrige Arbeiten zum Proling30 und Scoring31
aufbauen kann. Wie lassen sich Inferenzen und die zugrundeliegenden Modelle
verstndlich machen, sei es fr Betroffene selbst oder fr Auditoren? Wie kann
man Wahrscheinlichkeitsaussagen prfen und wie wird algorithmische Diskrimi-
nierung nachweisbar? Welche Risiken sind berhaupt typisch? Die Antworten auf
solche Fragen werden hug von der betrachteten Anwendung abhngen. Welche
Taxonomie erfasst die wesentlichen Aspekte?

5.3. Personen- und gruppenbezogene Risiken


Mit den Instrumenten der Datenverarbeitung rcken ihre Auswirkungen auf Perso-
nen und Gruppen ins Blickfeld. Derselbe Datenstrom kann mit den verschiedensten
Zielen und Verfahren interpretiert werden. Dabei knnen einerseits ursprnglich
sensible Daten zu einem risikoarmen Ergebnis fhren, etwa wenn die Eingaben
von Suchmaschinennutzern detailliert aufgezeichnet werden, um daraus am Ende
ein sprachspezisches Modell zur Tippfehlerkorrektur zu gewinnen. Andererseits
knnen anhand anonymer oder fr sich belanglos scheinender Daten Entschei-
dungen32 fallen, die sich aufgrund ihres Kontextes auf Personen oder Gruppen
auswirken, zum Beispiel wenn ein Online-Shop anhand von Merkmalen eines
Nutzungsvorgangs seine Produkte zu unterschiedlichen Preisen anbietet.
Gesucht sind differenzierte Kriterien zur Risikobewertung und risikoorientierte
Schutzmanahmen im jeweiligen Anwendungskontext. Einfache Anstze wie die
Unterscheidung zwischen personenbezogenen und anonymisierten Daten scheitern
an der Vielfalt und Komplexitt der Verarbeitungsmglichkeiten. Zu beantworten
sind Fragen wie diese: Ein Werbenetz fhrt pseudonymisierte Nutzerprole ber
viele Websites hinweg und verwendet sie, um jeweils die am wahrscheinlichsten
erfolgreiche Anzeige aus einem Pool auszuwhlen welche Risiken folgen daraus
und was ist dagegen zu tun?

5.4. Untersttzung von Privatheitspraktiken


Als Gegenentwurf zur Datenvermeidung knnen komplexe Datenformate so an-
gereichert werden, dass sie Praktiken des Privatheitsschutzes untersttzen. So
30 Hildebrandt und Gutwirth, Proling the European Citizen.
31 Kamp und Weichert, Scoringsysteme zur Beurteilung der Kreditwrdigkeit.
32 Pohle, PERSONAL DATA NOT FOUND.
Emission statt Transaktion 245

haben sich beispielsweise fr das Fotograeren von Personen in ffentlichen und


teilffentlichen Rumen und die Verwendung solcher Fotograen Regeln etabliert.
Allgegenwrtige Kameras, zum Beispiel in Smartphones, und ihre typische Nutzung
erschweren jedoch das explizite, transaktionsartige Einholen von Zustimmungen.
Andererseits sind weitreichende Pauschalverbote angesichts der einfachen Verbrei-
tung von Fotos im Netz nicht realistisch.
Das Projekt Ofinetags33 zeigt beispielhaft, wie sich bestehende Praktiken in
der digitalen Welt untersttzen lassen. Ein Ofinetag ist ein Button zum Anstecken
an die Kleidung, der die Einstellung einer Person zu Fotos von sich wiedergibt.
Zur Auswahl stehen vier Policies: (1) keine Fotos bitte, (2) Person vor Weiterver-
breitung unkenntlich machen, (3) Fotos im Netz sind OK, aber nur ohne expliziten
Identittsbezug, sowie (4) alles ist erlaubt. Ofinetags nehmen den Emissionscha-
rakter der Datenerzeugung hin und stellen ein Mittel bereit, das damit kompatibel
ist. Eine Person kann ihre Prferenzen jederzeit ausdrcken, aber auch ndern.
Dieses Statement begleitet jedes gemachte Foto, sofern es nicht mutwillig zerstrt
wird. Damit verbundene Regeln und Erwartungen lassen sich in (teil-)ffentlichen
Rumen durch soziale Kontrolle durchsetzen, wenn Verste leicht erkennbar sind
und wirksame Sanktionsmglichkeiten bestehen.

5.5. Aufsicht ber Daten-kosysteme


Soziale Kontrolle funktioniert nur unter gnstigen Bedingungen. Andernfalls fhrt
das Signalisieren der eigenen Prferenzen zu nichts, wie das Beispiel Do Not
Track34 demonstriert. Technisch funktioniert Do Not Track hnlich den eben be-
handelten Ofinetags, aber es fehlt an einem sozialen Kontext, der die Nicht-
beachtung bemerken und ahnden knnte. In solchen Situationen sind wirksame
Aufsichtsmechanismen ntig. Die klassische Kombination aus Betroffenenrechten
und Aufsichtsbehrden steht dabei vor dem Problem, dass Betroffene die Vielfalt
der Datenempfnger und Nutzungen nicht mehr berblicken knnen. Auch in die-
ser Hinsicht scheint ein Anknpfen an Auswirkungen statt an Daten als solche
sinnvoll. Wo sich die Datenverarbeitung auf Personen auswirkt, muss dies in irgend-
einer Form kenntlich werden; daran lassen sich dann zum Beispiel Auskunfts- und
Eingriffsrechte knpfen.

33 Pallas u. a., Ofinetags, die Website http://www.ofinetags.net/ erklrt die verschiedenen Tags
und bietet ein Programm zum Download an, das die Funktionsweise demonstriert.
34 http://donottrack.us/
246 Sven Trpe, Jrgen Geuter und Andreas Poller

6. Fazit
Herkmmliche Regeln und Techniken des Datenschutzes sind an ihre Grenzen
gestoen. Sie stammen aus einer Welt isolierter Datenbanken mit berschaubarem
Inhalt und naheliegender Dateninterpretation. Auf die heutige Welt vielfltig ver-
netzter Anwendungen, fortwhrender Datenproduktion und lernender Maschinen
angewandt, fhren die alten Rezepte nicht zum Erfolg. Entweder passen sie ber-
haupt nicht, oder sie fhren nur zur formalen Regeleinhaltung ohne den eigentlich
beabsichtigten Schutzeffekt. Als einen Schritt auf dem Weg zu wirksameren Mitteln
haben wir die Metapher der Datenemission eingefhrt, die wesentliche Aspek-
te der heutigen Informationstechnologie reprsentiert. Vor diesem Hintergrund
rcken wieder die Ziele hinter dem Datenschutz in den Fokus: die Rechte und die
Autonomie des Einzelnen zu schtzen. Dafr brauchen wir neue Werkzeuge.

Literatur
Acar, Gunes u. a. The Web Never Forgets: Persistent Tracking Mechanisms in
the Wild. In: Proceedings of the 2014 ACM SIGSAC Conference on Computer
and Communications Security, Scottsdale, Arizona, USA. New York: ACM Press,
2014, S. 674689. DOI: 10.1145/2660267.2660347.
Bager, Jo. Rotlicht-Gerchte: Bettina Wulff verklagt Google. In: Heise online
(8. Sep. 2012). URL: http : / / www. heise . de / newsticker / meldung / Rotlicht -
Geruechte - Bettina - Wulff - verklagt - Google - 1703200 . html (besucht am
08. 09. 2016).
Barthlmy, Andrea und Andreas Wilkens. Reden und lauschen: Interaktive Barbie
kommt in US-Lden. In: Heise online (9. Nov. 2015). URL: http://www.heise.
de/newsticker/meldung/Reden-und-lauschen-Interaktive-Barbie-kommt-in-
US-Laeden-2911626.html (besucht am 08. 09. 2016).
Breiman, Leo. Statistical modeling: The two cultures (with comments and a
rejoinder by the author). In: Statistical Science 16.3 (2001), S. 199231. DOI:
10.1214/ss/1009213726.
Cebulla, Manuel. Umgang mit Kollateraldaten. In: ZD Zeitschrift fr Daten-
schutz 5.11 (Nov. 2015), S. 507512.
Domingos, Pedro. A few useful things to know about machine learning. In:
Communication of the ACM 55.10 (Okt. 2012), S. 7887. DOI: 10.1145/2347736.
2347755.
Eckersley, Peter. How Unique Is Your Web Browser? English. In: Privacy En-
hancing Technologies. Hrsg. von Mikhail J. Atallah und Nicholas J. Hopper.
Emission statt Transaktion 247

Bd. 6205. Lecture Notes in Computer Science. Berlin und Heidelberg: Springer,
2010, S. 118. DOI: 10.1007/978-3-642-14527-8_1.
Hildebrandt, Mireille und Serge Gutwirth, Hrsg. Proling the European Citizen:
Cross-Disciplinary Perspectives. Dordrecht: Springer, 2008. DOI: 10.1007/978-
1-4020-6914-7.
Kamp, Meike und Thilo Weichert. Scoringsysteme zur Beurteilung der Kredit-
wrdigkeit - Chancen und Risiken fr Verbraucher. Gutachten im Auftrag des
BMVEL. Kiel: Unabhngiges Landeszentrum fr Datenschutz Schleswig-Hol-
stein, Feb. 2006. URL: https://www.datenschutzzentrum.de/scoring/.
Lakoff, G. und M. Johnson. Metaphors we live by. Chicago: University of Chicago
Press, 1996.
Pallas, Frank u. a. Ofinetags: A Novel Privacy Approach to Online Photo Sha-
ring. In: CHI14 Conference on Human Factors in Computing Systems Toronto,
ON, Canada April 26 - May 01, 2014, Extended Abstracts. New York: ACM
Press, 2014, S. 21792184. DOI: 10.1145/2559206.2581195.
Pedrotti, Frank L. u. a. Optik fr Ingenieure: Grundlagen. 4. Au. Berlin und
Heidelberg: Springer, 2007.
Pohle, Jrg. PERSONAL DATA NOT FOUND: Personenbezogene Entscheidun-
gen als berfllige Neuausrichtung im Datenschutz. In: Datenschutz Nachrich-
ten 39.1 (2016), S. 1419.
Poller, Andreas u. a. Electronic Identity Cards for User Authentication Promise
and Practice. In: IEEE Security and Privacy Magazine 10.1 (Jan. 2012), S. 46
54. DOI: 10.1109/MSP.2011.148.
Roesner, Franziska, Tadayoshi Kohno und David Wetherall. Detecting and Defen-
ding Against Third-Party Tracking on the Web. In: NSDI12 Proceedings of
the 9th USENIX conference on Networked Systems Design and Implementation.
Hrsg. von Steven Gribble und Dina Katabi. Berkeley: USENIX Association, Apr.
2012, S. 12. URL: https://www.usenix.org/conference/nsdi12/detecting-and-
defending-against-third-party-tracking-web.
Rost, Martin und Kirsten Bock. Privacy by Design und die neuen Schutzziele. In:
Datenschutz und Datensicherheit (DuD) 35.1 (2011), S. 3035. DOI: 10.1007/
s11623-011-0009-y.
Schermer, Bart W. The limits of privacy in automated proling and data mining.
In: Computer Law and Security Review 27.1 (2011), S. 4552. DOI: 10.1016/j.
clsr.2010.11.009.
Steidle, Roland und Ulrich Pordesch. Im Netz von Google Web-Tracking und
Datenschutz. In: Datenschutz und Datensicherheit (DuD) 32.5 (2008), S. 324
329. DOI: 10.1007/s11623-008-0078-8.
Steinmller, Wilhelm u. a. Grundfragen des Datenschutzes - Gutachten im Auftrag
des Bundesinnenministeriums. Bundestagsdrucksache VI/2826. 1971.
248 Sven Trpe, Jrgen Geuter und Andreas Poller

Sweeney, Latanya. Discrimination in online ad delivery. In: Communication of


the ACM 56.5 (Mai 2013), S. 4454. DOI: 10.1145/2447976.2447990.
Ware, Willis H. Records, Computers and the Rights of Citizens: Report of the
Secretarys Advisory Committee on Automated Personal Data Systems. Santa
Monica, 1973.
Warren, Samuel D. und Louis D. Brandeis. The Right to Privacy. In: Harvard
Law Review 4.5 (1890), S. 193220.
Verpichtung der Hersteller zur Mitwirkung bei
informationeller Selbstbestimmung
Clemens H. Cap

Die praktische Umsetzung des Wunsches vieler Anwender auf tatschliche Gewhr-
leistung ihres Grundrechts auf informationelle Selbstbestimmung setzt den Respekt
der Hersteller von Soft- und Hardware vor diesem Anwenderwunsch voraus. Diese
Voraussetzung ist heute oft nicht mehr gegeben, folgt doch die Entwicklung ein-
zelner Anwendungen und ganzer Infrastrukturen den konomischen Interessen der
Hersteller so weitgehend, dass der glserne Kunde Normalfall und informationelle
Selbstbestimmung praktisch unmglich geworden ist.
Dieser Beitrag zeigt in einer Analyse heutiger informationeller kosysteme, wie
dem Benutzer systematisch die Hoheit ber seine Daten genommen und ihm die
Wahrnehmung seines Rechts auf informationelle Selbstbestimmung verweigert
wird. Besonders auffllig ist dieses Phnomen bei sozialen Netzen, Cloud-Diensten
und mobilen Endgerten. Dazu analysiert der Beitrag zunchst die Problemsituation
(Abschnitt 1). Lsungsanstze knnen durch eine Rckbesinnung des Benutzers
auf seine Rechte im Sinne einer digitalen Aufklrung gesucht werden (Abschnitt 2),
doch bleibt zu befrchten, dass diese berlegung nicht ausreicht. Grundstzlich
besteht in vielen Branchen ein gut ausgeprgter Verbraucherschutz mit einer hohen
Vielfalt regulatorischer Eingriffe (Abschnitt 3). Es wre zu berlegen, in welchen
Formen diese auf den digitalen Bereich bertragen werden knnen (Abschnitt 4).
Allgemeinere berlegungen zu Transparenz und Neutralitt von Anwendungen
(Abschnitt 5) ergnzen die Anregungen. Schlielich werden einige mgliche Ge-
genpositionen der hier eingebrachten Vorschlge besprochen (Abschnitt 6).
Das Ziel ist dabei nicht, konkrete Realisierungsvorschlge zu unterbreiten, son-
dern die Bandbreite denkbarer Eingriffe aufzuzeigen, Problembewusstsein zu schaf-
fen und den Vergleich zu anderen Wirtschaftsbereichen zu suchen. Dabei soll eine
Ausweitung der Diskussion speziell im Bereich von Manahmen angestrebt werden.

* Prof. Dr. Clemens H. Cap | Universitt Rostock | clemens.cap@uni-rostock.de


Der Autor dankt den Herausgebern fr viele wichtige Hinweise, speziell aus soziologischer und
rechtswissenschaftlicher Perspektive.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_15
250 Clemens H. Cap

1. Problemsituation
Im ersten Abschnitt soll anhand bewusst zugespitzter Beispiele die Situation digita-
ler Produkte illustriert werden.
Die Hersteller der Hardware von Smartphones bestimmen weitgehend, welche
Software und Dienste auf den Gerten verfgbar sind. Fr den Normalanwender
gibt es anders als auf dem PC keine Mglichkeit, alternative Betriebssysteme zu
verwenden. Updates werden vom Hersteller vorgegeben. Ist ein Anwender mit der
neueren Version einer Software nicht zufrieden, wird ihm der prinzipiell mgliche
Weg in frhere Versionen vom Hersteller durch technische Sperren blockiert.
Bei Phones und Tablets der Firma Apple beispielsweise kann der Normal-
anwender Programme nur nach grundstzlicher Genehmigung durch Apple und
ber dessen Infrastruktur installieren. Die Genehmigung wird nur erteilt, wenn
die Produkte den Hersteller nicht konkurrenzieren und mit seinem Weltbild und
seinen Moralvorstellungen bereinstimmen: Wiederholt1 wurden Anwendungen
mit Hinweis auf (legale) erotische, satirische oder gesellschaftskritische Inhalte
von Apple zurckgewiesen. Bereits die Erwhnung von Konkurrenzprodukten kann
zu einer Ablehnung fhren. Als Begrndung wird gerne Apple-Grnder Steve
Jobs zitiert: We do believe we have a moral responsibility to keep porn off the
iPhone. Folks who want porn can buy an Android phone2 . Digitale Formate auf
diversen Formfaktoren (Smartphone, Tablet, eReader, Smart Glasses uva.) werden
voraussichtlich in vielen Anwendungsbereichen aus konomischen Grnden der
einzige Zugang zu vielen Inhalten werden. Angesichts der Dominanz einiger we-
niger privatwirtschaftlicher Hersteller im Gertemarkt, zudem aus einem einzigen
globalen Kulturkreis, weckt der Ansatz einer chendeckenden Inhaltskontrolle
groe Bedenken.
Die Genehmigung der Installation von Programmen Dritter lsst sich Apple teuer
bezahlen, indem es 30 Prozent des Verkaufserlses einbehlt. Diese Freigabegebhr
kann konomisch schwer als Bezahlung einer erfolgten Leistung gelten, wenn
man sie mit sonst blichen Lizenzgebhren fr Laufzeitumgebungen vergleicht.
Der Beobachter knnte sich an mittelalterliche Wegelagerei erinnert fhlen. Eine
juristische und wirtschaftspolitische Analyse, inwieweit hier neue Architekturen
den systematischen Missbrauch einer marktbeherrschenden Stellung ermglichen,
ist erforderlich.
Eine anonyme oder pseudonyme Nutzung von Smartphones ist unmglich bzw.
wird durch die Hersteller massiv erschwert. Klarnamen und Kreditkartennummern
oder Mailadressen beim Hersteller-eigenen Mail-Dienst werden bentigt, selbst
wenn auf kostenlose Dienste zugegriffen wird. Dadurch knnen Zugriffe auf Inhalte
1 https://en.wikipedia.org/wiki/Censorship_by_Apple (besucht am 13.10.2016)
2 http://www.theguardian.com/technology/2010/may/10/ipad-apple (besucht am 13.10.2016)
Verpichtung der Hersteller 251

mit konkreten Personen verbunden werden. Weitere Mglichkeiten der berwa-


chung ber Positionsbestimmung (GPS), Mikrophon- und Kamerazugang wurden in
der Literatur vielfach diskutiert und werden aus Platzgrnden hier nicht dargestellt.
In den abgeschotteten Infrastrukturen der Mobilgerte sind Verletzungen der
Privatsphre besonders leicht. Ein kleines Experiment des Autors erhellt die Proble-
matik: Zur Untersuchung der Kommunikationsaktivitten des eigenen Smartphones
schaltet der Autor von den zwei vorhandenen Technologien seines Endgerts (LTE
und WLAN) eine aus und zwingt das Gert, ber WLAN zu kommunizieren. Als
Zugangspunkt kommt ein Linux System zum Einsatz, das jede Datenbertragung
sichtbar macht: Bereits das Aufheben des am Tisch liegenden Gerts fhrte im
Experiment regelmig zum Versand von Datenpaketen an den Hersteller. Die
Verwendung einfacher Apps wie Taschenlampe oder Kompass, die keinerlei Netz-
zugang bentigen, bewirkte eine Kontaktaufnahme mit dem App-Hersteller und
das Nachladen von Werbeeinblendungen. Die Nutzung einer weit verbreiteten
Spiele-App, die im elterlichen Umfeld des Autors als Gedchtnistrainings-App
eingesetzt wurde, fhrte zu Datenversand an eine bestimmte IP-Adresse. Recher-
chen in IP-Datenbanken und Unternehmensregistern verwiesen auf eine Firma zur
Vermarktung von Produkten fr Demenzkranke. Einer Datensammlung war nie
zugestimmt worden. Aufgrund verschlsselter bertragung konnte nicht erkannt
werden, ob anonymisierte Nutzungsdaten, kognitive Leistungsprole, nanzielle
oder persnliche Informationen bertragen wurden.
Dem geschilderten Beispiel kann man fear mongering vorwerfen: Es ist keine
Studie nach wissenschaftlichen Standards. Die Infrastruktur erschwert aber sowohl
beim Endanwender als auch beim Fachinformatiker fundierte Analysen ber die
unerwnschte bertragung personenbezogener Daten. Damit kann der Nutzer mg-
liche Konsequenzen seiner Programmnutzung nicht abschtzen. Der Techniker kann
keine fundierte Untersuchung vornehmen, etwa ob Datenschutzregelungen sofern
vorhanden und offengelegt eingehalten werden. Insgesamt wird die wichtige ge-
sellschaftliche Debatte ber echte oder vermeintliche Probleme deutlich erschwert
und rutscht daher auf genau diese Ebene des fear mongering ab.
Es ist fraglich, inwieweit das Aktivieren von Dystopien und Schreckensbildern
gesellschaftlich vertretbar ist und der Privatheitsdebatte konstruktiv weiterhelfen
kann. Diese Frage wird aber zu einem Zeitpunkt gestellt, zu dem sich die Auto-
Industrie den Vorwurf gefallen lassen muss, massiv gegen bestehende Vorschriften
zu verstoen, aber auch technische Prfungen systematisch zu manipulieren und
diese Manipulationen zu verschleiern. Der Wunsch, der IT-Industrie besser auf
die Finger zu schauen, ist nachvollziehbar, eine Emotionalisierung erscheint ver-
stndlich.
252 Clemens H. Cap

2. Digitale Aufklrung
Angesichts dieser Entmndigung des Nutzers digitaler Technologien kann man sich
der Gedanken Kants erinnern und eine neue, eine digitale Aufklrung fordern. Diese
kann zwei Wege gehen: Der technikafne Text von Urchs und Cole3 etwa meint,
dass uns das Netz klger macht und Missstnde verhindert, whrend Ranga Yo-
geshwar4 als Folge der Bequemlichkeit des Nutzers eine vollstndig selbstgewhlte
Entmndigung befrchtet.
Wir knnten Kant5 folgen und proklamieren:

Digitale Aufklrung ist der Ausgang des Menschen aus seiner selbst
verschuldeten Unmndigkeit. Unmndigkeit ist das Unvermgen, sich
seiner Daten und digitalen Endgerte ohne Leitung, Bevormundung
und berwachung eines anderen zu bedienen. Selbstverschuldet ist
diese Unmndigkeit, wenn die Ursache derselben nicht am Mangel
technischer Mglichkeiten sondern der Entschlieung und des Mutes
liegt, sich seiner ohne Leitung, Bevormundung und berwachung
eines anderen zu bedienen.

Der Leitspruch einer digitalen Aufklrung knnte daher lauten: Habe Mut, die
eigene Hoheit ber Deine Daten zurck zu gewinnen!
Kann Kant aber in der heutigen digitalen Gesellschaft Respekt hervorrufen
und Handeln verndern? Zu diesen Fragen knnen mehrere Antworten formuliert
werden, die nicht ohne weiteres in ein einziges, gemeinsames, konsistentes Weltbild
mnden; auch die daraus ableitbaren Handlungsanweisungen erscheinen ambivalent,
sollen aber als Optionen angesprochen werden.
Der mndige Brger knnte als aufgeklrter Konsument in seinen tglichen Kauf-
entscheidungen auf Wahrung seines Rechtes auf informationelle Selbstbestimmung
achten und damit auf konomische Weise der regelmigen Verletzung seiner Pri-
vatsphre rasch ein Ende bereiten. Diese Position geht jedoch von der Idealsituation
eines informierten Nutzers aus, der die Konsequenzen seines Handelns kennt und
abschtzen kann. Hier kann hinterfragt werden, inwieweit die Annahme mndiger
Konsumenten mit rationalem Verhalten realistisch ist. Wichtiger ist aber noch die
Beobachtung, dass selbst den Fachleuten die Problemzonen nicht gengend klar
sind whrend sich die technische Infrastruktur parallel dazu weiterentwickelt.
Der Ruf nach staatlichen Interventionen ist daher zumindest dort gerechtfertigt,
wo zunchst dem Experten und schlielich dem Brger so viel Einsicht in die Archi-

3 Urchs und Cole, Digitale Aufklrung.


4 Yogeshwar, Digitale Aufklrung.
5 Kant, Beantwortung der Frage: Was ist Aufklrung?
Verpichtung der Hersteller 253

tektur von Systemen gewhrt werden muss, dass er die Chancen zur Wahrnehmung
informationeller Selbstbestimmung berhaupt erst realistisch einschtzen kann.
Dieser Spannbogen kann weiter erstreckt werden bis hin zu einem stark protektio-
nistischen Staat, der den als schwcher angenommenen Brger mit weitergehenden
Reglementierungen und Manahmen schtzen muss und ihn vor Gefahren bewah-
ren sollte, die er nicht einschtzen kann. Wie bei den Bereichen der Regulierung
psychisch aktiver Drogen oder beim Thema der Werbung fr Tabakwaren sind hier
gesellschaftliche Feinjustierungen unterschiedlicher Art denkbar.
Im Folgenden sollen einige Manahmen beschrieben werden, mit denen die
Bevormundung des digitalen Menschen reduziert und seine Privatsphre wieder
hergestellt werden kann. Dabei soll nicht das Loblied der Regulierung gesungen
werden: Es entsprche nicht dem Geist der Aufklrung, in vielen Bereichen ist die
Regulierungsdichte fr eine als frei bezeichnete Gesellschaft bereits bedenklich
hoch und schlielich geht es nicht um die einzelne Manahme. Das Ziel ist zunchst,
zu verdeutlichen, dass der Schutz des Anwenders digitaler Technologien weit hinter
dem zurck hinkt, was in vielen anderen Bereichen als selbstverstndlicher Standard
angesehen wird. Im Vergleich zu anderen Branchen ist im Digitalen die Ausbeutung
des Brgers und seiner Privatsphre weitgehend legalisiert.

3. Verbraucherschutz im Nicht-Digitalen
Um einen Bezugspunkt herzustellen, betrachten wir zuerst Mechanismen, mit denen
die Gesellschaft Verbraucher vor bergriffen und Benachteiligung in nicht-digitalen
Bereichen schtzt.
Im Bereich der KFZ-Technologie sind vielfltige Regulierungen anerkannt. So
gibt es die Umweltplakette und Umweltzone. Wie der Abgas-Skandal 2015-16
deutlich macht, reichen diese Manahmen nicht: Etliche Hersteller stehen im
Verdacht, ihre Produkte so zu manipulieren, dass sie in der amtlichen Prfsituation
die vorgeschriebenen Standards einhalten, im normalen Betrieb die Grenzwerte aber
massiv berschreiten. Im KFZ-Bereich werden daher massive Verschrfungen der
praktischen Prfbestimmungen diskutiert, auch angesichts einer groen Kreativitt
der Unternehmen bei der Auslegung bestehender Vorschriften.
Bei Lebensmitteln ist die Information des Konsumenten gesetzlich vorgeschrie-
ben, normiert und inhaltlich berwacht. Die E-Nummern chemischer Zusatzstoffe
vermeiden beispielsweise Ungenauigkeiten in der Kennzeichnung. Haushaltschemi-
kalien mssen auf Schadwirkungen aufmerksam machen, Waschmaschinen und
Leuchtkrper auf ihren Energieverbrauch. Finanzprodukte sind in Risikoklassen
eingeteilt und ohne Unterzeichnung ausfhrlicher Dokumentations- und Beratungs-
protokolle kann man keine Versicherung erwerben. Bei etlichen Produkten, etwa
254 Clemens H. Cap

Tabakwaren, sind Warnhinweise verpichtend. Wiederum andere Produkte, etwa


gefhrliche psychisch wirksame Drogen, drfen gar nicht in Verkehr gebracht wer-
den. Die Glhbirne gilt als so umweltschdlich, dass ihrem Vertrieb innerhalb der
EU enge Grenzen gesetzt werden. Viele Produkte erfordern eine besondere Zulas-
sung, von Autos bis hin zu Medikamenten. Vor einer Benutzung sind Ausbildungen
zu absolvieren, vom Fhrerschein ber den Pilotenschein bis zum Nachweis der
Platzreife beim Golfspiel. Es gibt unterschiedlichste Prfplaketten, vom Feuerl-
scher bis zum Auto. Vorschriften regulieren den Einsatz von Produkten und sie
werden gesellschaftlich engmaschig berwacht man denke an Geschwindigkeits-
begrenzungen und Radarkontrollen. Bei fehlerhaften Produkten ist der Hersteller
in der Haftung. Es bestehen weitgehende Beobachtungs-, Informations- und Ge-
fahrenabwendungspichten. Rckrufaktionen knnen beim Hersteller hohe Kosten
verursachen.
Wir erkennen an dieser beispielhaften Aufzhlung, dass es im auerdigitalen
Bereich viele, gelegentlich zu viele Regeln gibt, mit denen der Konsument vor
bergriffen und vor Missbrauch geschtzt wird. Der Gesetzgeber scheint der
Meinung zu sein, dass diese Regulierungsdichte erforderlich ist.

4. Verbraucherschutz im Digitalen
In diesem Abschnitt soll berlegt werden, welche Schutzmanahmen im digitalen
Bereich denkbar sind. Hier geht es nicht um die einzelne Manahme, zudem sind
Analogien bei der Annherung an das Digitale nicht immer sinnvoll. Das Heil wird
nicht in maximaler Regulierung zu nden sein. Das Ziel dieses Abschnitts ist daher,
die Disbalance des Digitalen im Vergleich zum Nicht-Digitalen herauszuarbeiten.
Gleichwohl bleibt das Argument bestehen, dass ein aufgeklrter Brger den digi-
talen Produkten kritischer begegnet und auch ohne maximalen staatlichen Schutz
selber zu einem Handeln ndet, das seinen eigenen Zielen dient.

4.1. Warnhinweise, Wahrheits- und Informationspichten


Beim Verkauf von Tabakwaren sind Warnhinweise vorgeschrieben. Warum also
sollte eine Anmeldung bei einer Suchmaschine nicht mit einem Warnhinweis
versehen werden (vgl. Abb. 1)?
Die praktische Umsetzung solcher Anregungen mu natrlich an die jeweilige
Anwendung angepasst sein. Ein klassisches Beispiel fr eine Fehlregulierung ist
die als Cookie-Richtlinie bekannt gewordene Richtlinie 2009/136/EG. Diese hat
zur Folge, dass viele Webseiten dem Anwender vor einer sinnvollen Nutzung
einen weiteren Klick abntigen. Der Nutzer mu besttigen, dass er mit dem
weiteren Aufenthalt auf der Website einer Speicherung personenbezogener Daten
Verpichtung der Hersteller 255

(PDLO%LOGHU

Abbildung 1.: Warnhinweis vor namentlicher Anmeldung (Montage)

in Form sogenannter Cookies zustimmt. Die im deutschen Recht in 13 Abs. 6


Telemediengesetz geforderte Mglichkeit zur pseudonymen Nutzung wird damit
oft effektiv unterlaufen. Die Regelungsituation wird sich ab dem 25. Mai 2018
aufgrund neuer Verordnungen (DS-GVO) jedoch verndern. Die dem Anwender bei
Cookies gerne gegebene Begrndung (get the best experience on your website) ist
oft vorgeschoben, eine echte Wahlmglichkeit besteht nicht. Diese Richtlinie kann
der Politik als Nachweis dienen, etwas fr Privatheit zu tun, die Umsetzung durch
die Industrie darf als bockiges Einhalten einer Norm angesehen werden. Fr die
Wahrung der informationellen Selbstbestimmung ist die Richtlinie weitestgehend
wirkungslos, sie fhrt eher zur Belstigung des Nutzers.
Man knnte hier augenzwinkernd und im Sinne einer Art von Wahrheitspicht
eine andere Information des Nutzers fordern, wie in Abb. 2 angedeutet.

Abbildung 2.: Warnhinweis mit vorgeschriebenem (oben) und inhaltlich oft zutreffende-
rem Inhalt (Montage unten)

Die Bandbreite einer solchen Wahrheitspicht ist aber noch viel grer und geht
von einem Verbot irrefhrender Werbung ber die Benutzung von Bezeichnungen
mit nicht ganz eindeutiger oder umstrittener Semantik (Bsp.: Flatrate, Netzneutrali-
tt) bis hin zum Wecken falscher Vorstellungen und ist dabei relativ gro. Dieses
soll durch weitere Beispiele noch etwas pointiert und zugespitzt werden.
Studien6 ber Cookie Pricing im Tourismus zeigen, dass Flge, die am selben
Tag in derselben Klasse gebucht wurden, sich deutlich im Preis unterscheiden
knnen, wenn der Anbieter aufgrund bertragener Cookies von einer hheren Zah-

6 Hannak u. a., Measuring Price Discrimination and Steering on E-commerce Web Sites.
256 Clemens H. Cap

lungsbereitschaft des Kunden ausgehen kann7 . Nach einem Bericht im Wall Street
Journal8 werden Nutzern von Endgerten der Firma Apple Reiseoptionen angebo-
ten, die bis zu 30% teurer sind als bei Windows-Nutzern. Die konomische Logik
erscheint nachvollziehbar: Apple Produkte sind in einem hheren Preissegment
angesiedelt, ihre Besitzer gelten als zahlungskrftiger. Die Analogie hinkt aber in
einem wesentlichen Punkt: Whrend im Brick-and-Mortar Geschft der uere
Eindruck des Kunden unvermeidlich ist, besteht diese Notwendigkeit im Digitalen
nicht. Ein wenig zugespitzt kann man formulieren: Ihr Smartphone, das sie fr
teures Geld erworben haben, sagt dem Laden, in dem Sie mit diesem Smartphone
online einkaufen von sich aus und aktiv, dass es ein teures Smartphone ist und der
Laden daher die Preise gerne etwas anheben darf.
Ein Verbot irrefhrender Bezeichnungen knnte auf Texte in den Privacy-Ein-
stellungen von Windows angewendet werden. Dort steht in einer der vielen Ein-
stellungen euphemistisch etwas von Getting to know you und der Knopf, der die
entsprechende Einstellung verndert, trgt die Aufschrift Stop getting to know you.
Es wre die berschrift Spying on you mglich und der Knopf knnte die Aufschrift
Stop spying on me tragen. Die Auseinandersetzungen darber, ob Internet-Provider
einen Tarif als Flatrate bezeichnen drfen oder als Volumentarif bezeichnen mssen,
wenn er nach einem bestimmten bertragungsvolumen die Datenrate stark redu-
ziert, sind noch nicht abgeschlossen. Bei der Bewerbung von Arzneimitteln schreibt
das Heilmittelwerbegesetz Wahrheitspicht vor, irrefhrende Werbung wird mit
Freiheitsstrafe bis zu einem Jahr oder mit Geldstrafe geahndet.
Im Zusammenhang mit Lebensmittel-Skandalen werden ffentlich einsehbare
Tter-Register von Unternehmen diskutiert. Sie erlauben dem Brger, sich vor ber-
griffen zu schtzen, sein Kaufverhalten anzupassen und konomischen Druck gegen
Unternehmen aufzubauen. In den USA bestehen hnliche Register fr Sexualstraf-
taten. Eine Abwgung ist erforderlich, da auch Tter und juristische Personen An-
spruch auf Persnlichkeitsschutz genieen. Eine bertragung eines Tter-Registers
auf den IT-Bereich ist denkbar. Fr Verste gegen Verkehrsregeln in Deutschland
dienen die bekannten Flensburg Punkte der Verwarnung von Mehrfachttern.
Auch hier ist eine analoge bertragung auf Datenschutztatbestnde denkbar.

4.2. Juristische Tatbestnde


Privatsphre ist im Recht sehr schwer zu fassen. Auf der einen Seite knnte man
sich einen besseren Schutz, etwa durch einen allgemeinen Straftatbestand der Ver-
letzung der Privatsphre und der informationellen Selbstbestimmung wnschen.
7 Der Autor konnte solche Strategien bei eigenen Buchungen auf deutschen Reiseportalen beobach-
ten und nachstellen.
8 Mattioli, On Orbitz, Mac Users Steered to Pricier Hotels.
Verpichtung der Hersteller 257

Andererseits gibt es etliche spezische Aspekte, die strafrechtlich geschtzt sind:


201 StGB schtzt das gesprochene Wort, 201b StGB Bilder, 202 StGB das
Briefgeheimnis und 203 Privatgeheimnisse. 202a bis c StGB bestrafen das
Aussphen und das Abfangen von Daten sowie Vorbereitungshandlungen. 43 und
44 BDSG bestrafen Verste gegen das Datenschutzrecht als Ordnungswidrigkeit
und als Straftat.
Der Tatbestand der Nachstellung und der unerwnschten Kommunikation (Stal-
king) zeigt das Problem beispielhaft. Einerseits ist er durch 238 StGB sanktioniert,
andererseits wird der ausreichende Schutz dieser Norm diskutiert und schlielich ist
die Abgrenzung zu zulssigem kommunikativem Verhalten im konkreten Einzelfall
schwierig zu beurteilen.9 Neben der Frage nach fehlenden Normen muss also auch
die Frage nach Deziten im Vollzug bestehender Normen gestellt werden.
An solche Tatbestnde knnten weitere Rechtsfolgen anknpfen. Wird unter
geschftsmiger Verletzung der Privatsphre Geld verdient, so knnte der Erls als
Gewinn aus einer Straftat eingezogen und die verwendeten Server als Tatwerkzeuge
beschlagnahmt werden. Regelungen ber die Billigung oder Belohnung von Straf-
taten knnten greifen, wenn die Verletzung der Privatsphre ffentlich verharmlost,
gebilligt oder gar gut geheien wird. Adressverlage oder auch soziale Netzwerke,
deren konomischer Zweck das Sammeln, die Auswertung und die Weitergabe von
Daten aus der Privatsphre der Nutzer ist, knnten dadurch in die Nhe krimineller
Vereinigungen gerckt werden.
Bestehende rechtliche Regelungen sollten ausgeweitet oder in Interpretation
und Verstndnis angepasst werden. Leider geschieht gelegentlich das Gegenteil.
So fordert etwa TKG 13(6), dass Dienste, die pseudonym angeboten werden
knnen, auch pseudonym angeboten werden mssen. Diese Regelung wird derzeit
oft von Dienstanbietern ignoriert. Ab dem 25. Mai 2018 wird diese Regelung nicht
mehr gelten und kann dann auch nicht mehr vom deutschen Gesetzgeber verschrft
werden. Ein weiteres Beispiel ist 202a StGB, der den unbefugten Zugang zu
Daten sanktioniert. Die Bestimmung sollte angewendet werden, wenn ein System
unbefugt Daten seines Benutzers an den Hersteller sendet. Hintertren in Form
einer vom Anbieter erzwungenen Zustimmung zur bertragung als Voraussetzung
der Dienstnutzung mssen geschlossen werden: Formal ist diese Einwilligung
freiwillig, de facto aber fhrt eine Verweigerung in diese Zustimmung oft dazu,
dass nicht nur spezische Dienste, sondern Gerte oder Programmpakete in ihrer
Gesamtheit nicht mehr genutzt werden knnen.
Regelungen ber AGBs begrenzen zwar das Kleingedruckte, umfassen aber
die digitale Praxis vielseitiger und unverstndlicher Terms of Service zu wenig.
Das zuletzt genannte Beispiel der Zustimmung zu Bedingungen, bei denen die

9 Vo, Hoffmann und Wondrak, Stalking in Deutschland.


258 Clemens H. Cap

Verweigerung zu einer Nicht-Nutzbarkeit von Hardware und Software in ihrer


Gesamtheit fhrt, kann ein Ausgangspunkt fr Anpassungen sein. Eine gengend
generische, normative Formulierung zu nden ist eine juristische Herausforderung.
Das Problem besteht in der Unterscheidung gerechtfertigter, spezischer Anforde-
rungen eines Dienstanbieters, bei denen eine fehlende Zustimmung zu spezischen
Einschrnkungen bei einem konkreten, einzelnen Dienstmerkmal fhrt, von einer
globalisierten Zustimmung zu Datenbertragung, deren Ablehnung das gesamte
Endgert oder Programmpaket de facto unbrauchbar macht. Das Problem ist viel-
leicht weniger eines der Gesetzgebung als der Gesetzauslegung in der richterlichen
Spruchpraxis.
Kronzeugen- und Whistleblower-Regelungen fr Personen, die Schwachstellen
in Systemen nden oder systematische Verletzungen der Privatsphre aufdecken,
knnten zu einer allgemeinen Verbesserung der Sicherheitslage fhren. Bei anderen
Straftatbestnden sind sie blich.
Die informationelle Selbstbestimmung wird oft als unmittelbare Folge zentraler
Einzelnormen des Grundgesetzes abgeleitet und in der Praxis gleichwohl immer
wieder verletzt. Das kann einen Grund darstellen, Privatsphre und informationelle
Selbstbestimmung als eigenstndige Werte in das Grundgesetz aufzunehmen. Rein
juristisch werden gelegentlich Artikel 7 (Achtung des Privat- und Familienlebens)
und Artikel 8 (Schutz personenbezogener Daten) aus der Charta der Grundrechte der
europischen Union als ausreichend angesehen. Die dort kodizierten Rechte sind
jedoch relativ eng gefasst. Sie betreffen vornehmlich den Schutz persnlicher Daten
und reichen nicht in volle informationelle Selbstbestimmung hinaus. Zudem stehen
etlichen Brgern die nationalen Verfassungen nher als die abstrakten Normen
der EU. Dieser Vorschlag zielt also auch auf das politische Bekenntnis zu einem
modernen Grundwert.
Regelungen sind immer nur so wirksam wie ihre praktische Durchsetzung. Das
kann durch weitere Manahmen gefrdert werden. Seit kurzer Zeit besteht die
Mglichkeit von Verbandsklagen. Es ist zu hoffen, dass Verbnde helfen, das Da-
tenschutzrecht besser durchzusetzen, und nicht eine neue Form feudalistischer
Strukturen in den Verbnden entsteht. Fonds-Modelle knnten auerdem die Kosten
der Rechtsdurchsetzung fr den einzelnen Anwender abfedern. Eine weitere inter-
essante Mglichkeit wren Sammelklagen, die jedoch in das deutsche Rechtssystem
nur schwer zu bertragen sind, da das deutsche Recht anders als das amerikanische
Recht das Konzept der Gruppenbetroffenheit nicht kennt. Da bei IT-Systemen der
Kausalzusammenhang oft in der Architektur begrndet liegt, wre hier auch eine
andere Rechtspraxis denkbar.
Nach Art. 83 Abs. 5 DSGVO knnen ab dem 25. Mai 2018 bei Versten gegen
Datenschutzbestimmungen Geldbuen von bis zu 20 Mio. Euro oder im Fall eines
Unternehmens von bis zu 4 % seines gesamten weltweit erzielten Jahresumsatzes
Verpichtung der Hersteller 259

des vorangegangenen Geschftsjahrs verhngt werden, je nachdem, welcher der


Betrge hher ist. Wenn dieser Rahmen tatschlich ausgeschpft wrde, knnte
dies einen greren Respekt fr Datenschutzvorgaben bewirken. Dann knnten
Entscheidungen der Vergangenheit angehren, nach denen die Sanktion nur ein
Zehntel oder Hundertstel Promille des Jahresgewinns der Unternehmen betrug10
und diese Betrge aus der sprichwrtlichen Portokasse gezahlt wurden und das
Handeln beibehalten wurde.
Bereits heute ist eine persnliche Haftung der Geschftsfhrung bei vorstzlichen
und grobfahrlssigen Pichtverletzungen im Bereich Steuern und Sozialabgaben
vorgesehen. Diese knnte auf den Bereich der vorstzlichen Verletzung der Privat-
sphre zur Anwendung kommen.
Im Streitfall ist es sehr schwer zu prfen, ob ein Software-basiertes System
bestimmte Regelungen eingehalten hat. Die Picht, Quellcode bei Treuhndern
zu hinterlegen oder ein Code Audit durch eine unabhngige ffentliche Prfstelle
vorzunehmen, ist in der konkreten Anwendung nicht ohne Probleme. Quellco-
des knnen nicht maschinell auf die Einhaltung semantischer Regeln berprft
werden, der Nachweis, dass ein System tatschlich aus bestimmten Quellcodes
generiert wurde, ist problematisch, und es besteht ein Spannungsfeld zwischen
Geschftsgeheimnissen und Kontrollbedrfnissen. Gleichwohl ist denkbar, dass die
Picht zu einem erhhten Qualitts- und Verantwortungsbewusstsein bei Unterneh-
men fhrt. Verbindet man die Verpichtung mit einer gewissen Marktprsenz oder
Unternehmensgre sollten auch die Kosten handhabbar erscheinen.

4.3. Flankierende Manahmen


Der hippokratische Eid, dem Patienten nicht zu schaden, ist in der Medizin seit
langem etabliert. Angesichts der gesellschaftlichen Reichweite der Informatik
knnte hier ein Analogon sinnvoll sein, auch wenn es nur symbolischen Charakter
hat.
Denkbar sind Steuerbegnstigung und weitere Wirtschaftsfrderung fr Systeme
und Dienste, die sich durch eine datensparsame Architektur auszeichnen und die
Privatsphre des Anwenders respektieren. Quelloffene Systeme, welche eine ber-
prfung auf Datenschutzverletzungen vereinfachen, knnen ebenso in eine solche
Frderung aufgenommen werden. Vorstellbar ist ein verpichtender Finanzanteil
bei ffentlichen IT Projekten. Der Gesetzgeber sieht bei ffentlichen Bauten einen
Kunst am Bau-Prozentsatz vor: Ein bestimmter Anteil der Baukosten ist auf ein
kulturell-knstlerisches Vorhaben zu verwenden. Das Konzept kann auf Software
bertragen werden. Diese berlegungen gehen hier weit ber bestehende Zerti-

10 Vergleiche etwa das Urteil gegen Facebook, Az. 16 O 551/10, LG Berlin.


260 Clemens H. Cap

zierungen und Gtesiegel hinaus, die sich als nicht gengend wirksam erwiesen
haben.
Neben regulativen Manahmen sind auch technische Manahmen denkbar. So
beschreiben Bodden et al.11 am Beispiel von Android Apps Abwehrmglichkeiten
des Benutzers gegen Apps, die auf einer Vernderung der Software der Anwen-
dung oder auf einer Vernderung des Betriebssystems beruhen. Dadurch kann der
Benutzer Sicherheitsgarantien etablieren und berwachen sowie benutzte und ver-
sendete Daten ltern oder verndern. Dieser Ansatz ist sehr interessant, da er am
ehesten geeignet erscheint, Waffengleichheit zwischen Herstellern und Nutzern zu
erzeugen. Er erfordert jedoch eine Hintertren-freie Mitwirkung des Produzenten
von Betriebssystem und Hardware. Eine solche knnte jedoch vom Gesetzgeber
gefordert werden.

5. Verpichtung zu Transparenz und Neutralitt


Im Bereich der Datenbertragung wird der Begriff der Netzneutralitt intensiv dis-
kutiert. Eine systematische Denition ist schwierig.12 So besteht ein Spannungsfeld
zwischen neutraler (inhaltsunabhngiger) Behandlung von Paketen und einer Be-
vorzugung fr Spezialdienste, die dann nicht inhaltsunabhngig, konomisch aber
gleichwohl fair sein kann. Der Begriff der Transparenz ist leichter zu formulieren
und fordert die Offenlegung und ein idealerweise maschinell berprfbares
Einhalten von routing policies.
Das Konzept von Transparenz kann auf Anwendungen und Dienste bertragen
werden.13 Es fordert, dass der Provider die Kriterien der Datenverarbeitung und
-verwendung in Form von data use policies offenlegt. Eine vollstndige, maschinelle
berprfung der Einhaltung dieser policies ist wegen grundstzlicher Beschrnkun-
gen (sog. unentscheidbare Probleme14 ) nicht mglich. Die Forderung kann gleich-
wohl regulatorische Wirkung entfalten. Eine zumindest teilweise berprfung der
Einhaltung der offengelegten Kriterien ist denkbar und kann auf verschiedene Weise
untersttzt werden. Daten-Zugriffe knnten dokumentiert und auditiert werden.
Personenbezogene Daten knnten bei den Personen gespeichert werden, auf die
sie sich beziehen, und mssten dann jeweils von dort abgerufen werden. Dadurch
ergeben sich bessere Kontrollmglichkeiten. Da nicht jeder Anwender selber einen
entsprechenden Daten-Silo betreiben will, kann er die Speicherung an Drittanbieter
auslagern. Kryptographische Verfahren, die Berechnungen nur auf verschlsselten

11 Bodden u. a., Schutzmanahmen gegen datenschutzunfreundliche Smartphone-Apps.


12 Dhn, Neutralitt und Transparenz von Netzwerken und Anwendungen.
13 Dhn und Cap, Application Transparency and Manipulation.
14 Cap, Theoretische Grundlagen der Informatik.
Verpichtung der Hersteller 261

Daten erlauben und Nutzungseinschrnkungen fr bestimmte Ablufe enthalten,


sind denkbar.

6. Diskussion
In diesem Abschnitt sollen ohne Anspruch auf Vollstndigkeit einige kritische
Gegenpositionen beleuchtet werden.

6.1. Nachteile fr den IT Standort


Datenschutzrechtliche Vorschriften wren fr die deutsche IT Industrie nachtei-
lig. Die regulatorischen Rahmenbedingungen mssten eine Begegnung mit der
Konkurrenz mindestens auf Augenhhe ermglichen.
Das Argument des selbstgeschaffenen wirtschaftlichen Nachteils ist bedenkens-
wert, es blendet aber alle Werte jenseits der rein konomischen Skala aus. Hier kann
ein Vergleich mit anderen Branchen helfen: Die deutsche Gesellschaft hat sich fr
eine Energieversorgung ohne Kernkraft entschieden. Man kann diese Entscheidung
industriepolitisch und konomisch hinterfragen, sie bildet aber, auch wenn man sich
den industriepolitischen und konomischen Argumenten nicht anschlieen mch-
te, den Wertemastab der demokratischen Mehrheit in einem wichtigen Bereich
ab. Das Argument, die einst sehr angesehene deutsche Kernkraftwerks-Industrie
knne dann aber der US-amerikanischen nicht mehr auf Augenhhe begegnen,
wurde durch diese gesellschaftliche Entscheidung obsolet: Zumindest im Inland
ist die Technologie verboten. Der Siemens-Konzern hat seine Anteile an der Kraft-
werksunion verkauft und der Master-Studiengang in Nuclear Safety an der RWTH
Aachen luft aus. Die deutsche Gesellschaft hat sich fr einen nationalen Ausstieg
entschieden.
Eine Nation kann ebenso berlegen, aus Wirtschaftszweigen auszusteigen, die
sich schwerpunktmig der systematischen Verletzung und konomischen Ausbeu-
tung der Privatsphre verschreiben. Anders als im Energie-Sektor, wo jede Form von
Energie-Umwandlung negative Nebeneffekte hat, sind im Kommunikations-Sektor
Lsungen gnzlich ohne schdliche Nebenwirkungen mglich. In diesem Fall mss-
te man natrlich regulierend gegen auslndische Anbieter vorgehen, welche die
inlndischen Datenschutzvorgaben ignorieren.

6.2. Behinderung von Innovation


Ein hug geuertes Argument lautet, Reglementierung behindere Innovation und
wre deshalb abzulehnen.
262 Clemens H. Cap

Das Argument ist irrefhrend. Die Manahmen zielen nicht auf die Einschrn-
kung von Diensten, sondern auf ihre Fehlbeschreibung und auf die systematische
Entmndigung des Anwenders durch das Verbergen unerwnschter Eigenschaften
und durch gezielte Falsch- oder Nicht-Information.
Wir wollen dem Entwickler nicht vorschreiben, wie er seine Systeme gestaltet.
Wenn aber beispielsweise eine Funktion als Lschen bezeichnet wird, so hat diese
ein unwiderruiches Entfernen der betroffenen Daten aus dem System zu bewirken
und nicht blo eine Lschmarkierung oder eine Entfernung aus den Suchstrukturen.
Bei einer solchen (fehlerhaften) Umsetzung von Lschen msste der Anwender
bereits bei der Dateneingabe unmissverstndlich darauf hingewiesen werden, dass
er spter keine Mglichkeit mehr zur sicheren Entfernung seiner Daten aus dem
System haben wird.

6.3. Verteuerung von IT-Dienstleistungen


Ein weiteres wichtiges Argument zielt darauf ab, dass die vorgeschlagenen Ma-
nahmen Geld kosten wrden und damit IT-Dienstleistungen und Produkte verteuern
wrden.
Das Argument ist richtig, greift aber deutlich zu kurz, da es die indirekten
Kosten der Schdigung digitaler Selbstbestimmung ausblendet. Die Nutzung einer
Suchmaschine wird dem Anwender zwar nicht in Rechnung gestellt, sie ist fr
ihn aber auch nicht kostenlos: Er zahlt mit den Daten, die er von sich preisgibt,
mit Aufmerksamkeit, die er auf unerwnschte Werbeinhalte richtet, mit seiner
intellektuellen Autonomie, die er durch Effekte der Filterblase15 einbt, schlielich
mit einer Verengung des Angebots und einem Verlust an Diversitt als Folge von
Prolbildung und Mainstreaming. Weitere, heute noch nicht erforschte Effekte
einer unerwnschten gesamtgesellschaftlichen Vernderung sind vorstellbar.
Ein Anwender, der eine Suchmaschine in Eurocent pro Abfrage bezahlt, verfgt
ber einen Vergleichsmastab. Den echten Preis des Verlustes der Privatsphre
kann er aber weder bestimmen noch in seiner Langfristwirkung einschtzen. Das
Akzeptieren eines Cookies auf einer Website kann zu einem hheren Preis bei der
nchsten Reisebuchung fhren und das heftige Bremsmanver im Auto kann via
black box eine Anhebung des Versicherungstarifs bewirken. Der einzelne Nutzer
kennt weder die statistischen noch die kausalen Zusammenhnge. Anders als das
Unternehmen, das dank big data Analysetechniken das groe Bild im Auge hat
und fr sich optimiert, ist er Vermutungen ausgeliefert und kann mangels Daten-
basis, Kenntnis und Augenhhe im Verstndnis der Mechanismen keine fr ihn
vorteilhaften Entscheidungen treffen.

15 Pariser, The lter bubble.


Verpichtung der Hersteller 263

Es gilt ebenso ein beim Ausstieg aus der Kernenergie benutztes Denkmuster:
Eine durch die vorgeschlagenen Manahmen verteuerte IT-Dienstleistung kann
fr den Anwender immer noch kostengnstiger sein, als das Beheben der langfris-
tigen Schden seiner digitalen Entmndigung und der Ausstieg aus einer Kultur
systematischer Privatsphrenverletzung.

7. Schlussbemerkung
Knnte der Verlust von Privatheit eine gesellschaftliche Vernderung sein, die wir
hinnehmen mssen, weil wir sie ohnehin nicht vermeiden knnen? Diese als zero
privacy bekannte Position geht auf den frheren CEO von Sun Microsystems, Scott
McNealy zurck: You have zero privacy anyway. Get over it.16
Eine interessante Antwort auf diese Position stammt vom Sicherheitsforscher
und Privatheits-Aktivisten Jacob Appelbaum:

Ive heard quite a lot of people that talk about post-privacy, and
they talk about it in terms of feeling like, you know, its too late,
were done for, theres just no possibility for privacy left anymore and
we just have to get used to it. And this is a pretty fascinating thing,
because it seems to me that you never hear a feminist say that were
post-consent because there is rape. And why is that? The reason is
that its bullshit.17

Wir mssen Vernderungen nicht hinnehmen und sind im Sinne der Aufkl-
rung fr Vernderungen mit verantwortlich, da wir sie gestalten und durch unser
Handeln zulassen.
Zugleich mssen wir einrumen, dass das Handeln des aufgeklrten Benutzers
als Kufer von Gerten zwar eine prinzipiell starke Waffe ist, die angesichts eines
Mangels von Alternativen (im Sinne von datenschutzfreundlichen Systemen mit
hnlich hoher Bequemlichkeit) ziemlich stumpf wird.

Literatur
Bodden, Eric u. a. Schutzmanahmen gegen datenschutzunfreundliche
Smartphone-Apps: Technische Mglichkeiten und rechtliche Zulssigkeit
des Selbstdatenschutzes bei Apps. In: Datenschutz und Datensicherheit (DuD)
37.11 (2013), S. 720725.
16 Sprenger, Sun on Privacy: Get Over It.
17 re:publica 2012 Appelbaum & Kleiner Resisting the Surveillance State and its network effects,
https://www.youtube.com/watch?v=Y3h46EbqhPo&t=7m46s (besucht am 13.10.2016)
264 Clemens H. Cap

Cap, Clemens H. Theoretische Grundlagen der Informatik. Wien: Springer, 1993.


DOI : 10.1007/978-3-7091-9329-7.
Dhn, Andreas. Neutralitt und Transparenz von Netzwerken und Anwendungen.
Diss. Universitt Rostock, 2015. URL: http://rosdok.uni-rostock.de/resolve/id/
rosdok_disshab_0000001318.
Dhn, Andreas und Clemens H. Cap. Application Transparency and Manipulation.
In: IEEE Computer 47.2 (2014), S. 5661. DOI: 10.1109/MC.2013.187.
Hannak, Aniko u. a. Measuring Price Discrimination and Steering on E-commerce
Web Sites. In: Proceedings of the 14th ACM/USENIX Internet Measurement
Conference (IMC14). New York: ACM Press, Okt. 2014, S. 305318. DOI:
10.1145/2663716.2663744.
Kant, Immanuel. Beantwortung der Frage: Was ist Aufklrung? In: Berlinische
Monatsschrift 12 (1784), S. 481494.
Mattioli, Dana. On Orbitz, Mac Users Steered to Pricier Hotels. In: The Wall
Street Journal (23. Aug. 2012). URL: http://on.wsj.com/MU2i9K (besucht am
13. 10. 2016).
Pariser, Eli. The lter bubble: What the Internet is hiding from you. New York, NY:
Penguin Press, 2011.
Sprenger, Polly. Sun on Privacy: Get Over It. In: Wired (26. Jan. 1999). URL:
http : / / archive . wired . com / politics / law / news / 1999 / 01 / 17538 (besucht am
13. 10. 2016).
Urchs, Ossi und Tim Cole. Digitale Aufklrung: Warum uns das Internet klger
macht. Mnchen: Hanser, 2013.
Vo, Hans-Georg, Jens Hoffmann und Isabel Wondrak. Stalking in Deutschland:
Aus Sicht der Betroffenen und Verfolger. Bd. 40. Mainzer Schriften zur Situation
von Kriminalittsopfern. Baden-Baden: Nomos, 2005.
Yogeshwar, Ranga. Digitale Aufklrung: Ein gefhrlicher Pakt. In: Frankfurter
Allgemeine Zeitung (17. Mrz 2014). URL: http://www.faz.net/aktuell/feuilleton/
debatten/digitale-aufklaerung-ein-gefaehrlicher-pakt-12850956.html (besucht
am 13. 10. 2016).
Adieu Einwilligung?

Neue Herausforderungen fr die informationelle Selbstbestimmung


im Angesicht von Big Data-Technologien
Max-R. Ulbricht und Karsten Weber

1. Einleitung
Die Bundesregierung weist in ihrem Strategiepapier Digitale Agenda 20142017
darauf hin, dass es notwendig sei, Big Data-Technologien weiter zu erschlieen,
um die deutsche Wirtschaft durch die Gewinnung neuer Erkenntnisse aus der
Analyse groer Datenbestnde produktiver zu gestalten. Im selben Atemzug wird
vor den Risiken und Gefahren gewarnt, welche diese Technologien begnstigen
knnen.1 Um knftig die mit diesen Technologien verbundenen Potenziale nutzen
zu knnen und die Risiken zu minimieren, wurde Anfang des Jahres 2015 das IT-
Sicherheits-Forschungsrahmenprogramm Selbstbestimmt und sicher in der digitalen
Welt 20152020 vorgestellt, welches (unter anderem) zum Ziel hat, Konzepte zu
entwickeln, welche dafr Sorge tragen sollen, informationelle Selbstbestimmung
auch bei Big Data-Anwendungen gewhrleisten zu knnen.2
In diesem Diskussionsbeitrag soll der Frage nachgegangen werden, wie dies
erreicht werden knnte. Hierzu wird die Entwicklung wichtiger Prinzipien zur
Wahrung der informationellen Selbstbestimmung als Reaktion auf den techno-
logischen Fortschritt skizziert, anschlieend grundlegende Big Data-(bzw. Data
Mining-)Architekturen und die damit einhergehenden Herausforderungen fr mg-
liche datenschutzfreundliche Erweiterungen betrachtet und nachfolgend bereits
* Max-R. Ulbricht | Technische Universitt Berlin | mu@ise.tu-berlin.de
Prof. Dr. habil. Karsten Weber | Ostbayerische Technische Hochschule Regensburg |
Karsten.Weber@oth-regensburg.de
Teile dieses Textes sind (in englischer bersetzung) genutzt worden, um die skizzierte Plattform
im Rahmen eines Workshops auf der IEEE International Conference on Cloud Engineering 2016
vorzustellen (Ulbricht und Pallas, CoMaFeDS).
1 Bundesregierung, Digitale Agenda 2014 2017, S. 4-5.
2 Bundesministerium fr Bildung und Forschung, Selbstbestimmt und sicher in der digitalen Welt,
S. 20.

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_16
266 Max-R. Ulbricht und Karsten Weber

existierende Lsungsanstze auf ihre Eignung fr die angestrebten technischen Wei-


terentwicklungen analysiert. Aus den daraus gewonnen Erkenntnissen wird ein Kon-
zept fr technische Erweiterungen bzw. Ergnzungen von Big Data-Architekturen
entworfen, welches es ermglicht, die Vorteile von Big Data zu nutzen, ohne die
informationelle Selbstbestimmung aufgeben zu mssen.

2. Informationelle Selbstbestimmung: Wandel eines Rechts auf


Privatsphre im Zuge technischer Entwicklungen
Eine ausfhrliche Wrdigung der Genese der Ideen zur Schutzwrdigkeit der Privat-
sphre und zum Datenschutz als einem Werkzeug, um diesen Schutz zu erreichen,
kann hier nicht geleistet werden. Ein historischer Abriss kann jedoch bereits ver-
deutlichen, dass einige der derzeit gefhrten Debatten weit in der Vergangenheit
verankert sind und schon zu frheren Zeiten sehr oft Technik Ausgangspunkt ent-
sprechender berlegungen waren. Eine entscheidende Zielsetzung ist dabei hug,
das Wohl bzw. das Glck der Menschen zu steigern.
Um dieses Ziel zu erreichen zu knnen, muss man entweder die Menschen zur
Einsicht in die wahre Natur des Glcks fhren oder ihr Handeln so steuern, dass sie
womglich ohne es zu merken das Richtige tun; so kann man einige Ideen zur
Glckssteigerung zusammenfassen. Angestoen durch Thalers und Sunsteins 2009
erschienenes Buch Nudge wird die zweite Variante heute unter der Bezeichnung
libertarian paternalism3 diskutiert: Ziel ist, die Freiheit der Menschen zu erhalten
und trotzdem zu erreichen, dass sie das Richtige tun. In Platons Politeia hingegen ist
die beschriebene Gemeinschaft durch ubiquitre Unfreiheit charakterisiert; Platon
wollte jeglichen Aspekt des menschlichen Lebens kontrollieren. Was wir heute als
Bestandteil unserer Privatsphre erachten, namentlich die Rckzugsmglichkeit vor
Eingriffen und neugierigen Blicken anderer Menschen, Unternehmen, Institutionen
oder staatlichen Autoritten, lehnte Platon ab, da sie Quelle von Unfrieden und
Unglck sei. In der einschlgigen Literatur zur Genese des modernen Begriffs der
Privatsphre wird nach dem Rekurs auf Platon meist ein groer zeitlicher Sprung
vollzogen und dann auf den Artikel The Right to Privacy von Samuel D. Warren
und Louis D. Brandeis4 aus dem Jahr 1890 verwiesen. Privatsphre bedeutet dort
das Recht, in Ruhe gelassen und nicht gestrt zu werden: the right to be let alone.
Im Gegensatz zu der unfreien Gemeinschaft in der Politeia so kann man Warren
und Brandeis verstehen gewhrt eine liberale, auf rechtsstaatliche Prinzipien
aufbauende Gesellschaft ihren Mitgliedern einen unverletzbaren Rckzugsraum,
der ausschlielich der Willkr der jeweiligen Person unterworfen ist. Damit wird
3 Thaler und Sunstein, Nudge.
4 Warren und Brandeis, The Right to Privacy.
Adieu Einwilligung? 267

die Argumentation John Stuart Mills5 fr die individuelle und gesellschaftliche


Bedeutung der Privatsphre als Rckzugsraum aufgenommen: es ist die Privatsph-
re, die auch exzentrische Lebensentwrfe ermgliche und damit berhaupt erst
Autonomie gewhre.
Warren und Brandeis nahmen das Aufkommen einer neuen Informations- und
Kommunikationstechnologie zum Anlass, ber Privatsphre nachzudenken, denn
Ende des 19. Jahrhunderts verbreitete sich die Fotograe nicht zuletzt als Werkzeug
der Presseberichterstattung. Fr Deutschland gilt hnliches, denn im deutschen
Kaiserreich gab es gegen Ende des 19. Jahrhunderts einen dramatischen Fall, der
zusammen mit einer schon lnger andauernden rechtswissenschaftlichen Debatte
zur juristischen Kodizierung des Rechts am eigenen Bild beitrug: Reporter dran-
gen in das Sterbezimmer des ehemaligen Reichskanzlers Otto von Bismarck ein,
fotograerten den Leichnam und versuchten die Fotos zu verkaufen.6
Tatschlich jedoch taucht das Thema und die entsprechende Kurzformel in der
US-amerikanischen juristischen Literatur schon auf, als Thomas M. Cooley 1879
die Verletzung der Privatsphre in seinem Werk Treatise on the law of torts behan-
delt;7 in 101 bespricht Cooley das Problem der Verletzung der Privatsphre durch
Personenbildnisse zum Zweck der Werbung. Er verweist darauf, dass verschiedene
Gerichte zu unterschiedlichen Urteilen gekommen seien: Der New York Court of
Appeals habe ein Recht auf Privatsphre vor allem mit dem Hinweis abgelehnt, dass
es vllig ausufern wrde, weil keine klare Grenze dessen zu ziehen sei, was privat
sei; der Supreme Court of Georgia wiederum aber habe ein Recht auf Privatsphre
mit einer Analogie zum Eigentumsschutz besttigt (knapp 130 Jahre spter nimmt
Lessig8 diesen Topos wieder auf). Von Beginn der modernen Debatte an sind also
die Begrndung der Privatsphre und damit deren Legitimation wie auch die Legiti-
mation des Eingriffs in die Privatsphre umstritten. Der letzte Satz, den Cooley aus
dem Urteil des Supreme Court of Georgia zitiert, fasst viele der bis heute relevanten
Diskussionsstrnge zusammen: [1] The right would be conceded if she had sat
for her photograph; [2] but if her face or her portrait has a value, the value is hers
exclusively; [3] until use be granted away to the public.9 Der erste Teil des Zitats
hebt auf die Notwendigkeit einer Einwilligung der jeweiligen Person ab, ber die
Informationen gesammelt werden sollen das Fotograeren ist hier als Paradig-
ma des Informationseingriffs zu verstehen. Diese zentrale Forderung (ebenso wie
die Zweckbindung) ndet sich heute bspw. in der Datenschutz-Grundverordnung

5 Mill, On Liberty / ber die Freiheit.


6 Gerhardt und Steffen, Kleiner Knigge des Presserechts, S. 206.
7 Cooley, A Treatise on the Law of Torts.
8 Lessig, Privacy as Property.
9 Cooley, A Treatise on the Law of Torts, S. 194f.
268 Max-R. Ulbricht und Karsten Weber

(DS-GVO) auf EU-Ebene,10 den OECD Privacy Guidelines,11 der EU Grundrechte-


charta12 oder auch der ISO/IEC 2910013 wieder. Im zweiten Teilsatz wird erneut die
Autonomie der Person betont, der zufolge sie allein ber die Verwendung personen-
bezogener Informationen bestimmt; die heutige Forderung nach Zweckbindung der
erhobenen Informationen knnte hieraus abgeleitet werden, wenn man die Art der
Verwendung als Teil der Nutzungsvereinbarung ansieht, der eine Person zustimmt.
Bis hier klingen die getroffenen Aussagen bzgl. aktueller Debatten sehr vertraut.
Der dritte Teil des Zitats hingegen birgt gerade in Zeiten von Social Media und
vor allem Big Data erhebliches Koniktpotenzial, da man die darin enthaltende
Aussage so deuten kann, dass eine einmal gegebene Einwilligung zur Nutzung
von Informationen zur Folge habe, dass damit eine endgltige Preisgabe der In-
formationen einherginge das wre das Gegenteil der Idee der Zweckbindung.
Ein Rckholen im Rahmen eines Rechts auf Vergessen ist, folgt man dem
Urteil des Supreme Court of Georgia, ebenfalls nicht begrndbar. Die Parallele, die
durch ein Recht allein gelassen zu werden und ein Recht vergessen zu werden
nahegelegt wird, ndet damit also keine Zustimmung; in der DS-GVO wird eine
abgeschwchte Variante als Recht auf Lschung gefordert.
Mit diesen Texten und den darin enthaltenen Begrndungsmustern geht eine
(mglicherweise unvermeidbare und notwendige) Begriffsverschiebung einher,14
die bis heute die Diskussion prgt, denn es geht nicht mehr zentral um das private
life, von dem Mill spricht, sondern um Informationen ber das Private. Mit dieser
Verschiebung geht einher, dass meist von Datenschutz gesprochen wird, wenn der
Schutz der Privatsphre verhandelt wird. Ob dieser Bedeutungswandel sinnvoll ist,
kann hier nicht weiter untersucht werden; vermutlich trgt er aber dazu bei, dass
viele Autoren konstatieren, dass begrifiche Unsicherheiten existieren. Marx15 sieht
dies als Ursache, dass oft nicht ausreichend klar zwischen privater und ffentlicher
Sphre unterschieden werden wrde; Michelfelder16 wiederum vermutet, dass sich
jene, die sich mit Privatsphre auseinandersetzen, sich schnell in einem Begriffs-
wirrwarr wiederfnden, bei dem kaum Einigkeit ber den Diskussionsgegenstand
hergestellt werden knne. Die Gefahr, die der New York Courts of Appeals im 19.
Jahrhundert gegen ein Recht auf Privatsphre anfhrte, ist also zumindest auf der
begrifichen Ebene gegeben.

10 Verordnung (EU) 2016/679 (Datenschutz-Grundverordnung).


11 OECD Guidelines on the Protection of Privacy and Transborder Flows of Personal Data.
12 Charta der Grundrechte der Europischen Union.
13 ISO/IEC 29100:2011 Information technology Security techniques Privacy framework.
14 Moor, Towards a Theory of Privacy in the Information Age.
15 Marx, Murky conceptual waters: The public and the private, S. 161.
16 Michelfelder, The moral value of informational privacy in cyberspace, S. 129.
Adieu Einwilligung? 269

Es ist aber zu vermuten, dass alle, die fr ein Recht auf Privatsphre pldieren,
dem Zusammenhang von Privatsphre auf der einen und Freiheit bzw. Autonomie
auf der anderen Seite, den Alan F. Westin17 etabliert hat, zustimmen werden. Damit
ist als Minimalbedingung fr Datenschutz und Privatsphre die Zustimmung bei
Eingriffen zu sehen; dies ist Grundlage der Idee des Menschen als autonomes We-
sen. Folgt man einer limitation theory of privacy oder einer control/restriction
access theory of privacy,18 so lassen sich daraus die Prinzipien der Zweckbindung
und auch der Datensparsamkeit ableiten. Entscheidend ist, dass die wichtigsten heu-
te diskutierten (philosophischen) Theorien der Privatsphre davon ausgehen, dass
Personen bei jedem Informationseingriff neu entscheiden, ob sie dem zustimmen
wollen. Es ist jedoch offensichtlich, dass dies der Lebenswelt nicht entsprechen
kann. Zustimmung, Zweckbindung und andere Prinzipien des Schutzes der Privat-
sphre und des Datenschutzes mssen also an gesellschaftliche und nicht zuletzt
technische Vernderungen angepasst werden. Entscheidend bei diesem Wandel
wird sein, ob die grundstzliche Idee dabei erhalten bleiben kann oder am Schluss
eine Haltung steht, wie sie vor mehr als 100 Jahren der New York Court of Appeals
uerte und heute durch die Post-Privacy-Bewegung vertreten wird dass ein Recht
auf Privatsphre aus juristischer Sicht nicht gewhrt werden knne oder aus sozialer
Sicht nachteilig sei. Im Folgenden soll jedoch aufgezeigt werden, dass die Aufga-
be der Privatsphre nicht notwendig ist, um neue Entwicklungen gesellschaftlich
vertrglich nutzen zu knnen.

3. Risiken und Nebenwirkungen von Big Data


Was in jngerer Zeit unter dem Stichwort Big Data von Politik, Wirtschaft und
Medien als Neuigkeit gefeiert wird, kann aus technologischer Perspektive durchaus
als alter Wein in neuen Schluchen bezeichnet werden. Unter den Begriffen
Knowledge Discovery in Databases (KDD)19 bzw. Data Mining20 wurden
einige der Konzepte und Technologien bereits vor Jahrzehnten entwickelt. Die
groe ffentliche Aufmerksamkeit bzgl. Big Data ist, neben der Verfeinerung der
wirkenden Mechanismen, dem Umstand geschuldet, dass die momentan verfg-
bare Hardware signikant leistungsfhiger ist, als es zur Zeit der Entwicklung
der grundlegenden Ideen und Konzepte der Fall war. Die Performancesteigerung
moderner Rechnersysteme sowie stndig verfgbare Hochgeschwindigkeitsnetz-
werke, welche diese Rechnersysteme miteinander verbinden, sorgen dafr, dass es

17 Westin, Privacy and freedom.


18 Tavani, KDD, data mining, and the challenge for normative privacy.
19 Fayyad, Piatetsky-Shapiro und Smyth, From Data Mining to Knowledge Discovery in Databases.
20 Chen, Han und Yu, Data mining.
270 Max-R. Ulbricht und Karsten Weber

heute mglich ist, praktisch in Echtzeit groe Datenmengen aus verschiedensten


Quellen zu (re-)kombinieren, zu analysieren und daraus neue Erkenntnisse zu ge-
nerieren. In diesem Grundprinzip von Big Data, der Kombination verschiedenster
Datenstze aus unterschiedlichen Quellen, liegen nicht nur die grten Gefahren
und Risiken begrndet, sondern auch enorme Herausforderungen an angestrebte
Regulierungsvorhaben, sowohl rechtlicher als auch technischer Natur.
Im Folgenden sollen die Herausforderungen bezglich der datenschutzfreund-
lichen Integration heterogener, autonomer und verteilter Datenquellen zur An-
wendung von Big Data-Analysen mithilfe eines einfachen Szenarios anschaulich
skizziert werden, anhand dessen kurz grundlegende Data Mining Anstze vorgestellt
sowie die technischen und rechtlichen Problemfelder aufzeigt werden.

3.1. Szenario
Man stelle sich ein Institut fr Verkehrsforschung vor, welches vor dem Hintergrund
stdtebaulicher Entwicklung daran interessiert ist, die Sicherheit von Verkehrss-
sen dahingehend zu optimieren, den Stresslevel beteiligter Verkehrsteilnehmer
durch stdtebauliche Manahmen positiv zu beeinussen und damit die Wahr-
scheinlichkeit auftretender Unflle zu vermindern.
Um dieses Vorhaben zu realisieren, wre eine Messung diverser Stressindikatoren
wie Pulsschlge, Hautwiderstand und -feuchtigkeit unter verschiedenen typischen
Situationen bei der Teilnahme am Straenverkehr wnschenswert. So liee sich
beispielsweise ermitteln, inwiefern sich unterschiedliche straenbauliche Gegeben-
heiten wie Kreuzungen mit oder ohne Ampel im Gegensatz zu Kreisverkehren auf
die oben genannten Stressindikatoren von Auto-, Motorrad- oder Fahrradfahrern,
aber auch von Fugngern auswirken. Der Einuss des Wetters als Stressfaktor
sollte, wenn mglich, ausgeschlossen werden knnen.
Um derlei Korrelationen zu nden, wre es in einer kontrollierten wissenschaft-
lichen Studie ntig, Teilnehmer zu rekrutieren, diese mit diversen medizinischen
Messgerten sowie Fahrzeugen auszustatten und anschlieend die Indikatoren fr
Stress whrend der Teilnahme an typischen Straenverkehrssituationen zu messen
und aufzuzeichnen. Anschlieend wrden die erhobenen Daten bezglich der obi-
gen Fragestellungen analysiert, um die erwarteten Korrelationen zu besttigen oder
zu widerlegen. Dieses wissenschaftliche Standardverfahren erzeugt aber aufseiten
des Instituts nicht unerheblichen Aufwand und damit Kosten. Um einen signi-
kanten Teil der Kosten der Datenerhebung zu minimieren, knnte man auf die
Idee kommen, bereits vorhandene Daten, welche eigentlich zu anderen Zwecken
erhoben wurden, zu nutzen.
Informationen ber Verkehrssse lieen sich beispielsweise aus den Daten-
banken von Anbietern von Navigationslsungen beziehen. So bieten u. a. Google
Adieu Einwilligung? 271

(ber seinen Dienst Maps21 ) oder TomTom (mit seinem MyDrive-Service22 )


detaillierte Informationen zu Verkehrsssen, welche sich aus den Bewegungsdaten
der genutzten (vernetzten) Navigationslsungen des jeweiligen Anbieters errechnen.
Daten zum Stresslevel der beteiligten Verkehrsteilnehmer sind prinzipiell in den
Datenbanken von Herstellern sogenannter Wearables zu nden. Diese am Krper
getragenen Gerte zeichnen teilweise Krperdaten wie Puls, Hautfeuchtigkeit und
-widerstand auf, um es ihrem Trger zu ermglichen, seinen Krperzustand auf
Basis der bereitgestellten Informationen zu optimieren.23 ber das Mobiltelefon des
Trgers, mit welchem sich die genannten Gerte blicherweise verbinden, um die
gemessenen Daten mit der Datenbank des jeweiligen Anbieters zu synchronisieren,
liee sich der notwendige Ortsbezug herstellen. Auch die relevanten Wetterdaten
zu den untersuchten Orten liegen grundstzlich vor. Diese knnten aus den Daten-
banken von Anbietern vernetzter, privat betriebener Wetterstationen wie netatmo24
bezogen werden.
All diesen Daten gemein ist, dass sie ffentlich vorliegen25 und prinzipiell
auch ber geeignete Programmierschnittstellen abfragbar wren. Fraglich bleibt
hingegen, ob die skizzierte Kombination dieser verschiedenen, unabhngigen Da-
tenquellen in einem rechtlich zulssigen Verfahren realisierbar ist.

3.2. Technische Herausforderungen


Wenn als wesentliche Charakteristik neuartiger Big Data-Verfahren die Verknp-
fung bereits vorhandener Datenstze zur Gewinnung neuer Erkenntnisse aus eben
dieser neuen Kombination angenommen wird, kommt deren Integration bzw. Zu-
sammenfhrung ein besonderer Stellenwert zu.
Fr das verteilte Data Mining (z. B. Big Data-Analysen) lassen sich prinzipiell
zwei grundlegende Architekturen identizieren. Einerseits kann die Analyse der
Daten lokal auf den einzelnen Datenquellen erfolgen und anschlieend die dort
gefundenen Zusammenhnge zu einem globalen Modell kombiniert werden. Dieses
Verfahren hat allerding den Nachteil, dass sich die gerade spannenden Zusammen-
hnge ber verschiedene Datenquellen hinweg nur schwer bis gar nicht erkennen
lassen. Die Fragestellungen des oben beschriebenen Szenarios lieen sich mit die-
sem Ansatz beispielweise nicht beantworten. Der zweite Ansatz kombiniert daher

21 https://www.google.de/maps/
22 https://mydrive.tomtom.com
23 Swan, Sensor Mania!, The Quantied Self.
24 https://www.netatmo.com/weathermap
25 Whrend die erwhnten Verkehrs- und Wetterdaten ffentlich zugnglich sind, ist dies bei den
skizzierten Krperdaten davon abhngig, welche Plattform bzw. welche Anbieter zur Aggregation
genutzt und welche Einstellungen vorgenommen werden.
272 Max-R. Ulbricht und Karsten Weber

vor der eigentlichen Analyse die gewnschten Datenstze, sodass der eigentliche
Mining-Vorgang dann auf dieser nun breiteren Datenbasis erfolgt.26
Big Data-Analysen, wie jene im oben skizzierten Szenario, versuchen komplexe
Korrelationen innerhalb groer Datenmengen, welche in heterogenen und auto-
nom betriebenen Datenquellen gehalten werden, die wiederum unter verteilter,
dezentraler Kontrolle stehen, zu nden.27 Fr die dazu notwendige Integration der
verschiedenen Datenquellen lassen sich zwei grundlegende Strategien verfolgen,
welche verschiedene Aspekte der oben genannten Eigenschaften Heterogenitt,
Autonomie und Verteiltheit28 bedienen.
Whrend die sogenannte materialisierte Integration, oft auch Data Warehou-
sing genannt, vorhandene Daten aus den zu integrierenden Quellen in eine neue
Datenbank, das Warehouse, transferiert und fr weitere Verarbeitungsprozesse ber
eine einheitliche Schnittstelle zugreifbar macht, belsst eine virtuelle Integration
die Daten bei den ursprnglichen Datenquellen. Dabei sorgt eine Zwischenschicht
(realisiert als Mediator29 oder Fderation30 ), welche das Wissen enthlt, welche
Daten wo lagern und wie darauf zugegriffen werden kann, dafr, dass sich fr Nut-
zer oder Applikationen die kombinierten Datenquellen wie eine einzelne groe
Datenbank abfragen lassen.31
Beide Integrationsstrategien lsen zwar sowohl die Heterogenitt und Verteiltheit
der integrierten Datenquellen fr Analysevorhaben auf, verlangen aber von den
Haltern der ursprnglichen Datenquellen signikant verschiedene Mae an Koope-
ration. Beim Data Warehousing geben die originren Datenhalter die Kontrolle
ber die von ihnen zur Verfgung gestellten Daten komplett ab, da sie nach deren
Transfer knftig keinerlei Einuss auf die weitere Verarbeitung nehmen knnen.
Demgegenber bleibt bei der virtuellen Integration die Autonomie der integrier-
ten Datenquellen erhalten, da hier keine bertragung der Daten stattndet, sondern
lediglich (temporrer) Datenzugang gewhrt wird.
Es lsst sich schlussfolgern, dass fr institutionenbergreifende Analysevorhaben,
wie sie im obigen Szenario skizziert wurden, eine virtuelle Integrationsstrategie
fr alle Beteiligten vorteilhaft wre. Die Daten bleiben zwar vollstndig unter
Kontrolle der datenhaltenden Institutionen, aber es wird gleichzeitig mglich, per
Big Data-Analyseverfahren Korrelationen zwischen diesen autonomen Datenquel-
len zu nden und damit je nach Fragestellung einen gesellschaftlichen und/oder
wirtschaftlichen Mehrwert zu generieren.

26 Park und Kargupta, Distributed Data Mining.


27 Wu u. a., Data Mining with Big Data.
28 Hasselbring, Information System Integration.
29 Wiederhold, Mediators in the Architecture of Future Information Systems.
30 Sheth und Larson, Federated Database Systems.
31 Doan, Halevy und Ives, Principles of Data Integration.
Adieu Einwilligung? 273

3.3. Gefahr der De-Anonymisierung


Eine zentrale Sule des Schutzes der informationellen Selbstbestimmung ist die
Anonymisierung. Wenn es gelingt, die Reprsentation einer Person, egal ob im
realen oder virtuellen Raum, von ihren Identittsmerkmalen zu entknpfen bzw.
entkoppeln, sodass von ihr innerhalb einer Gruppe von sonst Gleichartigen
keinerlei Alleinstellungsmerkmale existieren, diese Person also innerhalb der Grup-
pe nicht mehr identiziert werden kann,32 so kann von einer Anonymisierung
gesprochen werden.
Sowohl rechtliche Regularien als auch Leitlinien und Rahmenvereinbarungen
zum Datenschutz verlangen und/oder empfehlen, wo immer mglich Verfahren
zur Anonymisierung einzusetzen, also aus Datenstzen identizierenden Merkmale
von natrlichen Personen zu entfernen und somit den Personenbezug zu beseitigen.
Ohne weitere Vorgaben muss ein solches Verfahren aber nicht zwingend zielfhrend
sein.
Gerade in Zusammenhang mit Big Data-Technologien und den oben skizzierten
Integrationen verschiedener Datenquellen ist die Anonymisierung immer weniger
tragfhig,33 da sich durch Zusammenfhrung und Auswertung mehrerer (scheinbar)
anonymer Datenstze einzelne Daten de-anonymisieren lassen, was, wie zahlreiche
Beispiele34 verdeutlichen, dazu fhrt, dass auch eine Re-Identikation der sie
betreffenden Individuen mglich wird.35

3.4. Grenzen der Einwilligung


Leicht nachvollziehbar ist, dass die zentralen Datenschutzprinzipien der Einwil-
ligung und Zweckbindung bei den angestrebten Nutzungsweisen von Big Data-
Technologien kritisch zu hinterfragen sind.36 Dies lsst sich am oben skizzierten
Szenario recht plastisch nachvollziehen. Wenn ein privater Betreiber einer Wetter-
station die von dieser Station gemessenen Daten fr die Verknpfung mit den
Daten anderer Wetterstationen freigibt, um daraus von einem Portalbetreiber eine
Wetterkarte erstellen zu lassen, muss er fr genau diesen Zweck seine Einwilligung
abgeben. Fr die (Weiter-)Verarbeitung seiner Daten durch das Forschungsinstitut
liegt seine Einwilligung natrlich mitnichten vor, da dieser neue spezische Verar-
beitungszweck bei der Datenerhebung ja noch gar nicht absehbar und damit auch
32 Ptzmann und Khntopp, Anonymity, Unobservability, and Pseudonymity.
33 Barocas und Nissenbaum, Big Datas End Run Around Procedural Privacy Protections.
34 Narayanan und Shmatikov, Robust De-anonymization of Large Sparse Datasets; Montjoye u. a.,
Unique in the Crowd.
35 Sweeney, Simple Demographics Often Identify People Uniquely.
36 Tene und Polonetsky, Big data for all, S. xxvii; Solove, Privacy Self-Management and the Con-
sent Dilemma, S. 1880.
274 Max-R. Ulbricht und Karsten Weber

nicht einwilligungsfhig war. Analog verhlt es sich bei den anderen skizzierten
Datenquellen.
Wenn also eine fundamentale Eigenschaft von Big Data in der Kombination
und Analyse existierender Datenstze besteht, mssten nach heutigem juristischen
Verstndnis alle Betroffenen, von denen sich Angaben in diesen Datenstzen nden,
um ihre Einwilligung zur (Weiter-)Verarbeitung zu einem neu zu spezizierenden
Zweck ersucht werden. Alternativ mssten bei der Ersterhebung alle knftig
denkbaren Verarbeitungszwecke durch die gegebene Einwilligung abgedeckt wer-
den. Beide Anstze sind mit heutigen Mitteln kaum realisierbar. Daher bedarf es in
Bezug auf Einwilligung und Zweckbindung in Big Data-Kontexten sowohl tech-
nischer Lsungen, welche Nutzer dazu ermchtigen ihre Rechte wahrzunehmen,
als auch einer Diskussion darber, inwiefern die juristischen Anforderungen an
Einwilligungen zu spezischen Verarbeitungszwecken heute noch zielfhrend und
vor allem praktikabel umzusetzen sind und welche Alternativen denkbar wren.

4. Lsungsanstze
Fr die angestrebte technische Durchsetzung der Beachtung von Einwilligungen
sowie von Zweck- bzw. Kontextbindung37 ist es erforderlich technische Systeme
derart zu gestalten, dass eine Kontrolle und Steuerung sowohl von Datenssen als
auch von Zugriffen auf einzelne Daten ermglicht wird. Zur technischen Ausgestal-
tung solcher Kontroll- und Steuerungsmechanismen existieren einige Konzepte aus
der Datenbankforschung und verwandten Bereichen.
Diese Lsungskonzepte sind darauf ausgelegt, Einwilligung bzw. Zugriff bezg-
lich einzelner Daten zu regeln. Im Folgenden soll die Untersuchung einer Eignung
dieser Anstze zur Zugriffssteuerung und -kontrolle in Big Data-Kontexten ge-
leistet werden, um zu ergrnden, welche Komponenten fr eine Erweiterung von
Data Mining-Architekturen nutzbar wren. Neben den hier aufgefhrten Konzepten
wurden u. a. auch verschiedene Anstze zum Thema Distributed Usage Control38
betrachtet. Da sich diese aufgrund der Notwendigkeit umfangreicher technischer
und organisatorischer Vernderungen bestehender Systeme und Prozesse als grund-
stzlich ungeeignet fr den angestrebten Nutzungsfall der Integration autonom
betriebener heterogener Datenquellen herausstellten, werden sie im Rahmen dieses
Textes nicht weiter aufgefhrt.

37 Bundesministerium fr Bildung und Forschung, Selbstbestimmt und sicher in der digitalen Welt,
S. 21.
38 Pretschner, Hilty und Basin, Verteilte Nutzungskontrolle, Distributed Usage Control; Lovat
und Pretschner, Data-centric Multi-layer Usage Control Enforcement: A Social Network Exam-
ple.
Adieu Einwilligung? 275

4.1. Hippokratische Datenbanken


Ein Konzept, welches die Durchsetzung von Einwilligung und Zweckbindung durch
technische Manahmen umsetzen soll, wurde 2002 als Hippocratic Databases39
vorgestellt. Es orientiert sich am hippokratischen Eid, der seit Jahrhunderten von
Medizinern abgelegt wird und auch einen Passus zu Schweigepichten enthlt,
welche dazu verpichten, ber medizinische Aspekte eines Patienten Stillschweigen
zu bewahren und damit ein Vertrauensverhltnis zwischen Arzt und Patient zu
etablieren.
Hippokratische Datenbanken sollen zehn Prinzipien folgen, welche sich an der
Datenschutzgesetzgebung und diesbezglichen Richtlinien orientieren, die neben
der Begrenzung der Datensammlung, -nutzung, -verffentlichung und -haltung
als wichtigste Prinzipien die Einwilligung des Individuums, welches durch die
Daten reprsentiert wird, zu spezischen Verarbeitungszwecken festschreiben und
dies durch technische Komponenten innerhalb der Datenbank umsetzen. Damit
soll sichergestellt werden, dass spezische Einzelangaben nur zu spezizierten
Verarbeitungszwecken zugnglich bzw. abfragbar sind.
Um die skizzierten Zugangsbeschrnkungen durchsetzen zu knnen, wird bei
Hippokratischen Datenbanken die Architektur klassischer Datenbanken dergestalt
erweitert, dass zustzliche Schutzmechanismen zwischen die datenhaltenden Tabel-
len und diejenigen Personen oder Applikationen, welche Inhalte der Datenbank von
auen anfragen, eingesetzt werden, um nichtautorisierte Zugriffe zu unterbinden.
Die Basis dieser Mechanismen stellen Anfrage-Modikationen, welche anhand
zustzlicher Datenbanktabellen entscheiden, wann ein Zugriff auf bestimmte Da-
tenfelder erlaubt ist, aber auch wann er unterbunden werden muss.
Die angesprochenen zustzlichen Tabellen knnen innerhalb des Systems ei-
nerseits die Datenschutz-Prferenzen der Individuen kodizieren, deren Daten im
System gespeichert sind und die hierin festlegen knnen, welche Einzelangaben zu
bestimmten Verarbeitungszwecken durch spezische Datenverwender zugnglich
sein sollen. Andererseits werden aber auch die Datenschutz-Richtlinien der Insti-
tution, welche die Datenbank betreibt, in den Tabellen dergestalt abgebildet, dass
mgliche Verwender (bspw. verschiedene Fachabteilungen) sowie die zugehrigen
Verarbeitungszwecke festgeschrieben werden. Damit enthalten die resultierenden
Tabellen Eintrge, in denen sowohl alle zulssigen Verarbeitungszwecke als auch
potentielle Datenverwender aufgefhrt sind. Durch die Auswertung dieser Tabellen
vor einem Zugriff auf die gespeicherten Einzelangaben knnen jegliche Zugriffe,
welche keine valide Kombination aus Verarbeitungszweck und Datenverwender
darstellen, unterbunden werden.

39 Agrawal u. a., Hippocratic Databases.


276 Max-R. Ulbricht und Karsten Weber

Hippokratische Datenbanken knnen so die informationelle Selbstbestimmung


strken, da sie die Durchsetzung von Einwilligung und Zweckbindung technisch
erzwingen, indem nur bestimmten Verwendern der Zugriff auf Daten zu vorher
festgelegten Verarbeitungszwecken gewhrt wird.

Vorteile Nachteile
+ Technische Umsetzung von Zweck- In der Praxis recht selten genutzt
bindung und Einwilligung (lediglich akademische Prototypen-
+ bei korrekter Implementierung kei- Implementierungen40 )
nerlei Zugriffe von Unbefugten Bei fderierten Datenquellen mss-
mglich te jede einzelne hippokratisch orga-
nisiert sein
Nachtrgliche Umstrukturierungen
erzeugen Aufwand

4.2. Sticky Policies


Die Grundidee der Sticky Policies besteht darin, anfallende Daten schon bei der Er-
hebung mit einer Richtlinie zu versehen, welche die Nutzung der Daten regelt. Dabei
ist diese Richtlinie als sogenanntes Meta-Datum zu einem spezischen Datensatz
zu verstehen, welches Informationen darber enthalten kann, zu welchem Zweck
und unter welchen Umstnden auf die Daten innerhalb des Datensatzes zugegriffen
werden darf. Als Zweck sind verschiedene Kategorien wie Forschung, Abwicklung
von Transaktionen oder hnliches denkbar. Des Weiteren kann vorgesehen werden,
Einschrnkungen bezglich des Umfeldes des Datenzugriffs festzulegen. So liee
sich bestimmen, dass ein Zugriff nur innerhalb von Netzwerken mit spezizierten
Sicherheitsvorkehrungen oder auch nur innerhalb eines festgelegten Teilnetzes ei-
ner genannten Institution erfolgen darf. Auch andere Zugriffseinschrnkungen wie
Ablaufdaten oder vertrauenswrdige Institutionen, an welche eine Datenweitergabe
erfolgen kann, knnten in den Policies festgeschrieben werden.
Um den in den Richtlinien festgelegten, bestimmungsgemen Zugriff auf die
Daten auch durchsetzen zu knnen, bedarf es eines Mechanismus, welcher den
Zugriff auerhalb der Spezikationen unterbindet. Hierfr wird starke Verschls-
selung genutzt. Nach der Erhebung des Datensatzes wird parallel zur Erstellung

40 Laura-Silva und Aref, Realizing Privacy-Preserving Features in Hippocratic Databases; Azemovic,


Data Privacy in SQL Server based on Hippocratic Database Principles.
Adieu Einwilligung? 277

der Richtlinie der gesamte Datensatz verschlsselt und der zugehrige Schlssel an
eine sogenannte Trusted Authority (TA) bersandt.
In die zugehrige Richtlinie muss die Information aufgenommen werden, wo der
Schlssel zu nden ist.41 Ab diesem Zeitpunkt ist der Datensatz ohne den zuge-
hrigen Schlssel sicher vor unberechtigten Zugriff und ohne diesen nicht mehr
sinnvoll nutzbar. Er kann nun bedenkenlos transferiert werden. Eine Institution,
welche die Daten nutzen mchte, muss mittels der Informationen aus der angehan-
genen Richtlinie bei einer der angegebenen TAs den zugehrigen Schlssel zur
Freigabe der Informationen anfordern. Sie muss sich verpichten, mit den Daten
ausschlielich gem der Spezikation der entsprechenden Richtlinie zu verfahren.
An dieser Stelle ist auch eine weitere berprfung der gegebenen Rahmenbedin-
gungen des Zugriffs (wie die oben skizzierten infrastrukturellen Einschrnkungen)
angedacht, welche sich beispielsweise durch technische Systeme (remote software
verication) oder Audit-Verfahren realisieren lassen. Sind alle vorgegebenen Be-
dingungen erfllt, gibt die TA den zum Datensatz passenden Schlssel frei und die
anfragende Institution kann die gewnschten Daten weiterverarbeiten.42

Vorteile Nachteile
+ direkt an Datenstzen zu ndende Verfahren abhngig von dritter In-
Privatspren-Prferenzen stanz (TA)
+ kein Zugriff ohne Zustimmung der Neben Richtlinienerstellung wei-
TA mglich tere Vorarbeiten (Verschlsselung,
+ alle Zugriffen werden (durch die Transfer der Schlssel zu den TAs,
Anfragen bei den TAs) protokolliert etc.) der datenerhebenden Instituti-
on ntig

4.3. Dynamic Consent


Um auf genderte Umstnde adquat reagieren zu knnen, sollte es fr Individuen,
welche diese Umstnde betreffen und deren Einwilligung fr die Verarbeitung der
41 Die Trusted Authority (TA) muss hierbei keine zentrale Institution sein, welche alle zu einer
Datenbank gehrenden Schlssel verwaltet. Aus einer Perspektive der Informations- und System-
sicherheit heraus, und bei Betrachtung des Missbrauchspotenzials einer solchen zentralen Schls-
selverwaltung, wre es durchaus wnschenswert, wenn eine Zentralisierung vermieden wrde. Es
knnten so prinzipiell ebenso viele TAs wie verschlsselte Datenstze existieren. Wichtig ist ledig-
lich, dass die zu einem verschlsselten Datensatz gehrende Richtlinie genau speziziert, wo und
wie der entsprechende Schlssel zur Nutzung zugnglich ist.
42 Mont, Pearson und Bramhall, Towards accountable management of identity and privacy; Pearson
und Mont, Sticky policies.
278 Max-R. Ulbricht und Karsten Weber

sie betreffenden Daten bereits vorliegt, die Mglichkeit geben, die Einwilligung
den Umstnden entsprechend anzupassen. Die krzlich verabschiedete, knftig
EU-weit geltende Datenschutzgrundverordnung43 verlangt beispielsweise in Artikel
7(3), dass eine einmal gegebene Einwilligung jederzeit widerrufen werden knnen
muss, wobei der Widerruf ebenso einfach gestaltet sein sollte wie die Abgabe der
Einwilligung.
Ein Ansatz zur nachtrglichen Anpassung von Einwilligungen zu sich vern-
dernden Datenverarbeitungszwecken, welcher die oben genannten Anforderungen
erfllt, ist das aus der Forschung zu biomedizinischen Forschungsdatenbanken
stammende Konzept der dynamischen Zustimmung.44 Hiermit wird das Problem
adressiert, dass vorhandene medizinische Daten zwar fr verschiedene Forschungs-
projekte nutzbar sein sollten, gleichzeitig aber eine allgemeine Zustimmung
mglichst vermieden werden soll, da diese nur bedingt der gesetzlichen Anforde-
rung der Einwilligung zu einem spezischen Verarbeitungszweck entspricht.
Um einem Individuum, das seine Daten fr die medizinische Forschung frei-
geben mchte oder schon freigegeben hat, eine Mglichkeit zu geben, diese Ein-
willigung dynamisch anzupassen, wird ihm eine personalisierte Schnittstelle zur
Kommunikation mit Forschenden zur Verfgung gestellt. Diese bietet einerseits den
Forschenden die Mglichkeit nach einer Erweiterung/nderung der vormals fr
ein anderes Forschungsprojekt gegebenen Einwilligung zu ersuchen, andererseits
ermchtigt die Schnittstelle aber auch das Individuum dazu, seine gegebene Einwil-
ligung jederzeit zu widerrufen oder entsprechend seiner momentanen Wnsche und
Vorstellungen anzupassen. Der Kommunikationskanal ist dabei frei whlbar und
reicht von Papierbriefen bis zu zahlreichen elektronischen Kommunikationsmedien
wie SMS, E-Mail oder auch Soziale Netzwerke.

Vorteile Nachteile
+ Ermglicht dynamische Anpassung hoher Implementierungsaufwand
von Nutzerprferenzen (auch bezg- Kommunikation erzeugt Zeitauf-
lich neuer unvorhergesehener Verar- wand, daher nur bedingt echtzeit-
beitungszwecke) tauglich
+ Verminderung der Notwendigkeit
von broad consent

43 Verordnung (EU) 2016/679 (Datenschutz-Grundverordnung).


44 Kaye u. a., Dynamic consent.
Adieu Einwilligung? 279

5. Konzept: Einwilligungsmanagement fr fderierte


Datenquellen
Wie die vorangegangene Untersuchung bestehender technischer Konzepte zur
Durchsetzung rechtskonformer Datenverarbeitung basierend auf Einwilligungen
und Zweckbindung gezeigt hat, existieren Anstze, welche fr einzelne Daten-
stze oder auch Datenbanken die Einhaltung der Zweckbindung mit vorhandener
Einwilligung auf technologischem Weg erzwingen knnen, wobei bezglich der
anvisierten Nutzung fr die Integration autonom betriebener, verteilter Datenquellen
einige nachteilige Eigenschaften offenbar wurden. Im Folgenden wird auf Grund-
lage dieser Erkenntnisse das Konzept einer Plattform fr das Management von
Einwilligungen zu verschiedenen Datenverarbeitungszwecken skizziert, welche die
Vorteile der untersuchten Anstze nutzt, um eine datenschutzkonforme Integration
fderierter Datenquellen zu ermglichen und die gefundenen Nachteile durch die
zugrundeliegende Architektur umgeht.

5.1. Vorbedingungen
Geht man von den im Szenario angedeuteten Vorbedingungen der dynamischen
Integration unabhngiger heterogener Datenquellen fr Big Data-Analysen aus,
zeichnet sich ab, dass Privatsphren-Prferenzen, insbesondere die Einwilligung zur
Datenverarbeitung zu verschiedenen Zwecken, hnlich wie im Konzept der Sticky
Policies, an oder bei den entsprechen Datenstzen zu nden sein sollten. Mithilfe
dieser Prferenzen hat ein Individuum, dessen Daten erhoben werden, die Mglich-
keit, schon im Voraus genau zu spezizieren, zu welchen verschiedenen Zwecken
und fr welche potenziellen verarbeitenden Institutionen die entsprechenden Daten
freizugeben sind.
Um die Entscheidung darber zu vereinfachen, sollten potenzielle Verarbei-
tungszwecke sowie mgliche verarbeitende Institutionen kategorisiert und zur
Vorauswahl angeboten werden. Dies wrde es erlauben, Einwilligungen der Art
Meine Daten drfen von unabhngigen Forschungsinstituten fr den Zweck demo-
grascher Erhebungen genutzt werden, von staatlichen Institutionen zum Zweck
der Steuerschtzung jedoch nicht abzugeben. Um solche Prferenzen abbilden zu
knnen, mssen diese in ein wohl-deniertes Format transferiert werden, welches
eine przise Spezikation von Kategorien fr Zwecke und Verarbeiter erlaubt und
dabei ermglicht, feingranular beliebig viele Subkategorien ebendieser anzulegen.
280 Max-R. Ulbricht und Karsten Weber

Solcherlei kodizierte Prferenzen sollten zu jedem zu integrierenden Datensatz


vorliegen.45
Des Weiteren ist die angestrebte Plattform davon abhngig, wissen zu mssen,
wo spezische Datenstze zu nden sind. Interessierte Institutionen, welche ihre Da-
tenbanken fr die Analyse durch Dritte freigeben wollen, sollten eine Beschreibung
oder Spezikation ihrer Datenbank erzeugen, welche Details zu den enthaltenen
Datenstzen und die spezische interne Struktur der Datenbank enthlt. Zu jeder
potentiellen Datenquelle sollte also ein maschinenlesbares Dokument vorliegen,
welches speziziert, wo welche Arten von Daten zu nden sind und wie auf diese
zugegriffen werden kann.

5.2. Architektur
Da das angestrebte System zum Einwilligungsmanagement so exibel und univer-
sell einsetzbar wie mglich sein sollte, wird es als Plattform im weiteren Sinne
bzw. als sogenannte Middleware entworfen, welche es ermglicht, sowohl als ge-
hosteter Webservice in der Cloud betrieben zu werden, aber auch als eigenstndige
Software-Komponente bestehende Datenanalysewerkzeuge zu erweitern. Abbil-
dung 1 zeigt die generelle Architektur eines Data Mining-Systems, welches eine
solche Plattform zum Management von Einwilligung nutzt. Die Plattform ist als
Verbindung zwischen Data Mining-Anwendungen und den von diesen zur Analyse
genutzten Datenquellen konzeptioniert und bietet standardisierte Schnittstellen in
beide Richtungen.
Entscheidet sich eine Institution ihre Datenbank freizugeben, um diese von ei-
ner externen Organisation analysieren und nutzen zu lassen, wird die Datenbank
ber die standardisierten Schnittstellen mit der skizzierten Plattform verbunden.
Whrend dieses Kopplungsvorgangs werden die Beschreibungen der Datenstze
zur internen Struktur der Datenbank sowie die korrespondierenden Privatsphren-
Prferenzen, welche potentielle Datennutzer und mgliche Verarbeitungszwecke
spezizieren,46 zur Plattform transferiert. Die Plattform integriert die bertragenen
Informationen ber Datenbank und -stze in ein fderiertes Schema oder einen
Ontologie-basierten Wissensgraphen, welcher das Wissen ber vorhandene Daten-
stze sowie deren technische Zugangsmglichkeiten enthlt und leicht verarbeitbar
ist, um externen Anfragern dieses interne Wissen zur Verfgung zu stellen.

45 Zu evaluieren wre, ob hierzu einer der vorhandenen Standards fr Privacy Preference Languages
(wie P3P, XPref, APPEL o. ., evtl. mit einer Erweiterung des Sprachumfangs) sinnvoll nutzbar ist
oder eine Neuentwicklung erfolgen muss.
46 Die genannten Spezikationen sind natrlich bei der Datenerhebung vom Individuum, welches
durch die entsprechenden Daten reprsentiert wird, abzufragen und festzulegen.
Adieu Einwilligung? 281

Abbildung 1.: Generelle Architektur einer Plattform zum Einwilligungsmanagement (aus


Ulbricht und Pallas, CoMaFeDS, S. 110;  c IEEE)

Die Privatsphren-Prferenzen werden genutzt, um ein Hippokratisches Integra-


tionsmodell zu erzeugen. Dies kann mittels dedizierter Datenbanktabellen oder
anderen Speicherstrukturen geschehen, welche geeignet sind, Informationen darber
vorzuhalten, welche potentiellen Datennutzer zu spezizierten, wohl-denierten
Verarbeitungszwecken auf ein bestimmtes Datum zugreifen drfen. hnlich wie
Hippokratische Datenbanken fhrt dieser Entwurf zu einem System, welches alle
Datenzugriffe ohne eine valide Kombination von Datennutzer und Verarbeitungs-
zweck unterbindet.
Eine Organisation oder Institution, welche Datenstze fr eine Big Data-Analyse
sucht, hat nun die Mglichkeit die Plattform ber die Schnittstellen zu kontaktieren
und den obig beschriebenen Wissensgraphen zu befragen, ob fr ihren Analyse-
zweck brauchbare Daten von einer der verbundenen Datenquellen durch die Platt-
form zur Verfgung gestellt werden. Sind die gewnschten Daten verfgbar, muss
der Plattform sowohl die Identitt der Organisation als auch der anvisierte Verarbei-
tungszweck bermittelt werden. Entspricht diese Kombination den Voraussetzungen
282 Max-R. Ulbricht und Karsten Weber

der korrespondierenden Regeln des Hippokratischen Integrationsmodells, wird


der Zugriff gestattet und die Analyse kann durchgefhrt werden.
Die Trennung von Wissensgraph und Hippokratischem Integrationsmodell wr-
de es darber hinaus erlauben, den durch die Daten reprsentierten Individuen
eine Form der dynamischen Zustimmung als Erweiterung (bspw. als Webservice)
anbieten zu knnen. Findet eine Institution fr ihre geplante Analyse potenziell
nutzbare Daten durch Abfrage des Wissensgraphen und eine Einwilligung zum
angestrebten Verarbeitungszweck liegt nicht vor, sollte die Plattform in der Lage
sein, nach einer genderten oder neu zu erteilenden Einwilligung zu fragen. Das
Individuum hat dann die Mglichkeit, seine ursprnglich abgegebenen Prferenzen
direkt bei der ursprnglichen Datenquelle zu ndern. Die Plattform sucht bei dieser
in periodischen Intervallen nach einer nderung und wenn diese vorhanden ist,
erfolgt eine Anpassung des Hippokratischen Integrationsmodells.

5.3. Diskussion
Als potenzieller Nachteil der hier kurz skizzierten Plattform ist sicherlich anzufh-
ren, dass ein boshafter potenzieller Datennutzer falsche Angaben bezglich seiner
Identitt oder des angestrebten Verarbeitungszwecks prsentieren kann. Um dies zu
verhindern, knnte ein vor der Nutzung der Plattform zu durchlaufender Akkredi-
tierungsprozess etabliert werden, in welchem die gemachten Angaben berprft
werden. Verluft dieser Prozess zufriedenstellend, kann ein elektronisches Zertikat
fr die Nutzung der Plattform erstellt werden. Da solch ein Akkreditierungsprozess
auf allen Seiten Aufwand erzeugt, ist er in dieser ersten Phase der Konzeptionierung
nicht bercksichtigt worden.

6. Fazit
Wie gezeigt wurde, sind Einwilligung und Zweckbindung wichtige Sulen der infor-
mationellen Selbstbestimmung, welche fr die datenschutzkonforme Verarbeitung
personenbezogener Daten unbedingt zu beachten sind. Neuartige Technologien,
deren Entwicklung ohne Bercksichtigung dieser Prinzipien verlaufen ist, tendieren
dazu, die informationelle Selbstbestimmung in erheblichem Mae zu schwchen.
Big Data-Technologien und deren Anwendung besitzen nicht nur das Potenzial,
zustzlichen konomischen und gesellschaftlichen Mehrwert aus bereits vorhan-
denen Daten zu generieren; sie bergen gleichzeitig das Risiko, grundlegende
Prinzipien der informationellen Selbstbestimmung bzw. des Datenschutzes auszuhe-
beln. Die Verknpfung und Analyse bereits existierender Datenquellen sorgt dafr,
dass Anonymisierung bedeutend schwerer zu gewhrleisten ist und lsst es, sobald
personenbezogene Daten involviert sind, welche auf Basis von Einwilligung und
Adieu Einwilligung? 283

Zweckbindung erhoben wurden, zumindest fragwrdig erscheinen, ob diese Analy-


se, die ja einen neuen Verarbeitungszweck darstellt, zu welchem nicht eingewilligt
werden konnte, datenschutzrechtlich berhaupt zulssig ist.
Der vorliegende Text hat gezeigt, dass sich technische Mechanismen nden
lassen, welche die Einhaltung der Prinzipien von Einwilligung und Zweckbindung
auch bei der Verknpfung bereits vorhandener Datenquellen erzwingen knnten.
Dazu bedarf es aber auch einer juristischen Neubewertung dieser Prinzipien, die es
einem Individuum erlaubt, im Voraus Einwilligungen zu generalisierten Kategorien
von mglichen Verarbeitungszwecken und potenziellen verarbeitenden Institutionen
abzugeben.

Literatur
Agrawal, Rakesh u. a. Hippocratic Databases. In: Proceedings of the 28th Inter-
national Conference on Very Large Data Bases. VLDB 02. Hong Kong, China:
VLDB Endowment, 2002, S. 143154.
Azemovic, Jasmin. Data Privacy in SQL Server based on Hippocratic Database
Principles. Microsoft MVP Award Program Blog. 7. 30 2012. URL: http://blogs.
msdn.com/b/mvpawardprogram/archive/2012/07/30/data- privacy- in- sql-
server-based-on-hippocratic-database-principles.aspx (besucht am 04. 12. 2015).
Barocas, Solon und Helen Nissenbaum. Big Datas End Run Around Procedural
Privacy Protections. In: Communications of the ACM 57.11 (2014), S. 3133.
DOI : 10.1145/2668897.
Bundesministerium fr Bildung und Forschung. Selbstbestimmt und sicher in der
digitalen Welt 2015-2020 Forschungsrahmenprogramm der Bundesregierung
zur IT-Sicherheit. Bonn und Berlin, Jan. 2015. URL: http : / / www. bmbf . de /
pub/Forschungsrahmenprogramm%5C_IT%5C_Sicherheit.pdf (besucht am
14. 09. 2016).
Bundesregierung. Digitale Agenda 2014 2017. Berlin, Aug. 2014. URL: https:
//www.digitale-agenda.de/Webs/DA/DE/Home/home_node.html (besucht am
14. 09. 2016).
Charta der Grundrechte der Europischen Union. In: Amtsblatt der Europischen
Union C 364 (18. Dez. 2000), S. 122. URL: http://www.europarl.europa.eu/
charter/pdf/text_de.pdf.
Chen, Ming-Syan, Jiawei Han und P.S. Yu. Data Mining: An Overview from a Da-
tabase Perspective. In: IEEE Transactions on Knowledge and Data Engineering
8.6 (1996), S. 866883. DOI: 10.1109/69.553155.
Cooley, Thomas. A Treatise on the Law of Torts or the Wrongs Which Arise Inde-
pendent of Contract. Chicago: Callaghan, 1879.
284 Max-R. Ulbricht und Karsten Weber

Doan, AnHai, Alon Halevy und Zachary G. Ives. Principles of Data Integration.
Waltham, MA: Morgan Kaufmann, 2012.
Fayyad, Usama, Gregory Piatetsky-Shapiro und Padhraic Smyth. From Data
Mining to Knowledge Discovery in Databases. In: AI Magazine 17.3 (1996),
S. 3754.
Gerhardt, Rudolf und Erich Steffen. Kleiner Knigge des Presserechts: Wie weit
Journalisten zu weit gehen drfen mit Extrateil Recht im Bild. Berlin: Berliner
Wissenschafts-Verlag, 2009.
Hasselbring, Wilhelm. Information System Integration. In: Communications of
the ACM 43.6 (Juni 2000), S. 3238. DOI: 10.1145/336460.336472.
ISO/IEC 29100:2011 Information technology Security techniques Privacy
framework. Geneva: International Organization for Standardization, 2011.
Kaye, Jane u. a. Dynamic consent: a patient interface for twenty-rst century
research networks. In: European Journal of Human Genetics 23.2 (Feb. 2015),
S. 141146. DOI: 10.1038/ejhg.2014.71.
Laura-Silva, Yasin und Walid Aref. Realizing Privacy-Preserving Features in Hip-
pocratic Databases. Computer Science Technical Reports 06-022. Purdue Uni-
versity, Department of Computer Science, Dez. 2006. URL: http : / / docs . lib.
purdue.edu/cgi/viewcontent.cgi?article=2664&context=cstech (besucht am
16. 09. 2016).
Lessig, Lawrence. Privacy as Property. In: Social Research 69.1 (2002), S. 247
269.
Lovat, Enrico und Alexander Pretschner. Data-centric Multi-layer Usage Control
Enforcement: A Social Network Example. In: Proceedings of the 16th ACM
Symposium on Access Control Models and Technologies. SACMAT 11. New
York, NY, USA: ACM, 2011, S. 151152. DOI: 10.1145/1998441.1998467.
Marx, Gary T. Murky conceptual waters: The public and the private. In: Ethics
and Information Technology 3.3 (Sep. 2001), S. 157169.
Michelfelder, Diane P. The moral value of informational privacy in cyberspace.
In: Ethics and Information Technology 3.2 (Juni 2001), S. 129135.
Mill, John Stuar. On Liberty / ber die Freiheit (1859). Hrsg. von Bernd Grfrath.
bers. von Bruno Lemke. Stuttgart: Reclam, 2009.
Mont, Marco Casassa, Siani Pearson und Pete Bramhall. Towards Accountable
Management of Identity and Privacy: Sticky Policies and Enforceable Tracing
Services. In: 14th International Workshop on Database and Expert Systems
Applications, 2003. Proceedings. Sep. 2003, S. 377382. DOI: 10.1109/DEXA.
2003.1232051.
Montjoye, Yves-Alexandre de u. a. Unique in the Crowd: The privacy bounds of
human mobility. In: Scientic Reports 3 (2013). DOI: 10.1038/srep01376.
Adieu Einwilligung? 285

Moor, James H. Towards a Theory of Privacy in the Information Age. In: ACM
SIGCAS Computers and Society 27.3 (Sep. 1997), S. 2732. DOI: 10 . 1145 /
270858.270866.
Narayanan, Arvind und Vitaly Shmatikov. Robust De-anonymization of Large
Sparse Datasets. In: Proceedings of the IEEE Symposium on Security and
Privacy, Oakland, California, May 18-21, 2008. Los Alamitos: IEEE Computer
Society, 2008, S. 111125. DOI: 10.1109/SP.2008.33.
OECD Guidelines on the Protection of Privacy and Transborder Flows of Personal
Data. Paris: OECD, 1980.
Park, Byung-Hoon und Hillol Kargupta. Distributed Data Mining: Algorithms,
Systems, and Applications. In: The Handbook of Data Mining. Hrsg. von Nong
Ye. Mahwah, N.J.: Lawrence Erlbaum, 2003, S. 341358.
Pearson, Siani und Marco Casassa Mont. Sticky Policies: An Approach for Mana-
ging Privacy across Multiple Parties. In: IEEE Computer 44.9 (2011), S. 60
68.
Ptzmann, Andreas und Marit Khntopp. Anonymity, Unobservability, and Pseud-
onymity A Proposal for Terminology. In: Designing Privacy Enhancing
Technologies. Hrsg. von Hannes Federrath. Lecture Notes in Computer Science
2009. Berlin und Heidelberg: Springer, 2001, S. 19.
Pretschner, Alexander, Manuel Hilty und David Basin. Distributed Usage Control.
In: Communications of the ACM 49.9 (Sep. 2006), S. 3944. DOI: 10.1145/
1151030.1151053.
Verteilte Nutzungskontrolle. In: Digma: Zeitschrift fr Datenrecht und Infor-
mationssicherheit 7.4 (2007), S. 146149.
Sheth, Amit P. und James A. Larson. Federated Database Systems for Managing
Distributed, Heterogeneous, and Autonomous Databases. In: ACM Computing
Surveys 22.3 (Sep. 1990), S. 183236. DOI: 10.1145/96602.96604.
Solove, Daniel J. Privacy Self-Management and the Consent Dilemma. In: Har-
vard Law Review 126 (2012), S. 18801903.
Swan, Melanie. Sensor Mania! The Internet of Things, Wearable Computing,
Objective Metrics, and the Quantied Self 2.0. In: Journal of Sensor and
Actuator Networks 1.3 (Nov. 2012), S. 217253. DOI: 10.3390/jsan1030217.
The Quantied Self: Fundamental Disruption in Big Data Science and Biologi-
cal Discovery. In: Big Data 1.2 (Juni 2013), S. 8599. DOI: 10.1089/big.2012.
0002.
Sweeney, Latanya. Simple Demographics Often Identify People Uniquely. Data
Privacy Working Paper 3. Pittsburgh: Carnegie Mellon University, 2000, S. 134.
URL : http://dataprivacylab.org/projects/identiability/paper1.pdf (besucht am
14. 09. 2016).
286 Max-R. Ulbricht und Karsten Weber

Tavani, Herman T. KDD, data mining, and the challenge for normative privacy. In:
Ethics and Information Technology 1.4 (Dez. 1999), S. 265273. DOI: 10.1023/A:
1010051717305.
Tene, Omer und Jules Polonetsky. Big Data for All: Privacy and User Control in
the Age of Analytics. In: Northwestern Journal of Technology & Intellectual
Property 11.5 (2013), S. 239273.
Thaler, Richard H. und Cass R. Sunstein. Nudge: Improving Decisions about Health,
Wealth, and Happiness. New Haven: Yale University Press, 2008.
Ulbricht, Max-R. und Frank Pallas. CoMaFeDS - Consent Management for Fede-
rated Data Sources. In: Proceedings of the 2016 IEEE International Conference
on Cloud Engineering Workshops. Los Alamitos: IEEE Computer Society, 2016,
S. 106111. DOI: 10.1109/IC2EW.2016.30.
Verordnung (EU) 2016/679 des Europischen Parlaments und des Rates vom
27. April 2016 zum Schutz natrlicher Personen bei der Verarbeitung personen-
bezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie
95/46/EG (Datenschutz-Grundverordnung). In: Amtsblatt der Europischen
Union L 119 (4. Mai 2016), S. 188. URL: http : / / eur- lex . europa . eu / legal -
content/DE/TXT/?uri=OJ:L:2016:119:TOC.
Warren, Samuel D. und Louis D. Brandeis. The Right to Privacy. In: Harvard
Law Review 4.5 (1890), S. 193220.
Westin, Alan F. Privacy and freedom. New York: Atheneum, 1967.
Wiederhold, G. Mediators in the Architecture of Future Information Systems. In:
IEEE Computer 25.3 (Mrz 1992), S. 3849. DOI: 10.1109/2.121508.
Wu, Xindong u. a. Data Mining with Big Data. In: IEEE Transactions on Know-
ledge and Data Engineering 26.1 (Jan. 2014), S. 97107. DOI: 10.1109/TKDE.
2013.109.
Internationalisierung vs. Nationalisierung im
Zeitalter der digitalen Gesellschaft

Wege aus einer Krise des Rechts und der Demokratie


Christian L. Geminn und Maxi Nebel

1. Einfhrung
Internationalisierung und Nationalisierung sind zwei Pole, die die Debatte um die
Zukunft der digitalen Gesellschaft in den letzten Jahren zu bestimmen scheinen.
Auf der einen Seite steht der Verweis auf die Grenzenlosigkeit des Datenverkehrs
und die offene, dezentrale Struktur des Internets. Auf der anderen Seite wird der
globale Datenverkehr jedoch auch von nationalen Strukturen und Prozessen geprgt.
Dieser Beitrag widmet sich den Herausforderungen, die aus der noch immer
bestndig zunehmenden Digitalisierung der Gesellschaft fr das Recht erwachsen
(1.1) und sich zu einer Krise nicht nur des Rechts, sondern auch der Demokratie
verdichtet haben (1.2), sowie aktuellen Lsungsanstzen und will zeigen, wie diese
Lsungsanstze jeweils einem der beiden geschilderten Pole Nationalisierung
(2.1) und Internationalisierung (2.2) zustreben.

1.1. Herausforderungen moderner Datenverarbeitung fr das Recht


Moderne Datenverarbeitung und die digitale Gesellschaft als solche sind durch drei
zentrale Merkmale geprgt. Aus diesen Merkmalen heraus ergeben sich jeweils
spezische Herausforderungen fr das Recht, die sich gegenseitig noch verstrken
knnen.

Globalitt und Entgrenzung


Dass Daten in krzester Zeit ber Grenzen hinweg ber den ganzen Globus gesen-
det werden knnen, ist heute eine Binsenweisheit. Als globales Informationsnetz

* Dr. Christian L. Geminn, Maxi Nebel | Universitt Kassel | {c.geminn; m.nebel}@uni-kassel.de

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_17
288 Christian L. Geminn und Maxi Nebel

kennt das Internet (technisch) keine Grenzen. Dies ist insbesondere dann proble-
matisch, wenn etwa deutsche Internetnutzer sich darauf verlassen, dass der durch
deutsches Recht vorgesehene Schutz gewhrleistet ist ein angesichts der kom-
plexen Struktur und Funktionsweise des Internets kaum erfllbarer Anspruch.1
Die immer noch weiter zunehmende virtuelle Nhe in der digitalen Gesellschaft im
Sinne von McLuhans Epoche des Global Village2 lsst hergebrachte Konzepte
zur Segregation der Welt wie nationale Grenzen oft antiquiert erscheinen. Die
Diagnose, die Kehrseite der Globalisierung sei eine Entstaatlichung,3 ist deshalb
ebenso einleuchtend wie naheliegend. Das Internet ist Faktor und Indikator fr
die Globalisierung zugleich.4 Der globale Datenverkehr bietet unter anderem
auch vorher unbekannte Mglichkeiten, nationale rechtliche Garantien zu umgehen,
beispielsweise durch das Abhren und Manipulieren von Datenstrmen im Ausland
oder durch den Konsum verbotenen digitalen Materials aus auslndischen Quellen.
Erst allmhlich wird auch verstanden und thematisiert, dass der Prozess der
Entgrenzung hier nicht aufhrt. Neben der berschreitung von Landesgrenzen
durch Datenstrme kommt es in der digitalen Gesellschaft zu weiteren Entgren-
zungen auf allen Ebenen gesellschaftlichen Lebens. Dies macht es unter ande-
rem immer schwieriger, bestimmte Sachverhalte rechtlich zu fassen. Beispiele fr
solche Entgrenzungen sind etwa die Entstofichung von Wirtschaftsleistung,
das Verschwimmen der Grenzen zwischen Laien und Experten durch die hohe
Verfgbarkeit von Wissen, zwischen Arbeit und Freizeit sowie die Bildung von
grenzberschreitenden sozialen Rumen.5

Ubiquitt
Verstrkt werden die Herausforderungen der Globalitt und Entgrenzung durch
Ubiquitt der Datenverarbeitung. 1996 schrieben Johnson und Post noch ber den
digitalen Raum: [Y]ou know when you are there. No one accidentally strays
across the border into Cyberspace.6 Die Trennung zwischen der realen Welt
und der digitalen durch Bildschirme und Passwrter schien vor zwanzig Jahren
noch einleuchtend, ist heute als These aber immer weniger tragfhig. Physische und
digitale Welt sind nicht mehr streng voneinander getrennt, sondern vielmehr ist die

1 Schaar, Lsst sich die globale Internetberwachung noch bndigen?


2 McLuhan, The Gutenberg Galaxy.
3 Grimm, Die Zukunft der Verfassung II, S. 40.
4 Engel, Das Internet und der Nationalstaat, S. 355.
5 Z. B. Saar-Lor-Lux und weitere sogenannte Europaregionen. Siehe auch Boehme-Neler, Unschar-
fes Recht, S. 122: Weil die rumlichen Grenzen irrelevant sind, sind heute virtuelle Nationen
mglich, deren Brger in aller Welt leben, dennoch aber eine Nation bilden.
6 Johnson und Post, Law and Borders, S. 1379.
Internationalisierung vs. Nationalisierung 289

physische Welt von der digitalen durchdrungen.7 Internetfhige Alltagsgegenstnde


sorgen dafr, dass jeder Teil der physischen Welt zugleich Bestandteil der digitalen
Welt und damit fernsteuer-, abruf- und berwachbar wird.
Ubiquitt in diesem Sinne bedeutet allgegenwrtige Datenverarbeitung durch
berall verfgbare, miniaturisierte Hardware, ausgestattet mit hochwertigen Senso-
ren und anderem Equipment, die sich durch Anbindung an das Internet miteinander
vernetzen lsst, automatisch gesteuert wird und mit nur minimaler Interaktion durch
den Nutzer automatisch Ablufe an die Prferenzen eines Nutzers anpassen kann.8
Sicht- oder vielmehr sprbar wird dies alltglich in allen denkbaren Lebensbe-
reichen. So berwachen Sensoren im Auto nicht nur die Fahrzeugparameter und
Umgebung des Fahrzeugs, sondern auch die Vitalfunktionen des Fahrers. Dadurch
sollen Gefahren frhzeitig erkannt und so die Sicherheit im Straenverkehr erhht
werden.9 So genannte Wearables werden am Krper getragen und messen mit Hilfe
von Sensoren und anderen Hilfsmitteln Schrittanzahl, Stresslevel, Bewegung, Nah-
rungsaufnahme, Aufenthaltsorte etc. So lassen sich alle denkbaren Vitalfunktionen
und Krperbewegungen quantizieren und verarbeiten.10 Auch in der Industrie
spielt allgegenwrtige Datenverarbeitung unter dem Stichwort Industrie 4.0 eine
immer grere Rolle. Insbesondere Logistik, Produktion und Arbeitsablufe lassen
sich durch Digitalisierung erheblich effektiver gestalten, wodurch Zeit und Kosten
gespart und die Produktivitt gesteigert wird.11 Auch im Wohnumfeld lsst sich eine
ubiquitre Datenverarbeitung beobachten. In Smart Homes steigert das nicht nur
den Wohnkomfort und trgt zu Energieeinsparungen bei, sondern ermglicht hilfe-
bedrftigen Menschen ein selbstbestimmtes Leben trotz Krankheit oder Alter.12 Im
Falle von Smart Cities wird sogar ein ganzer Sozialraum durch Informationstechnik
reguliert, der Vorteile wie Ressourcenefzienz, Umweltschutz, Zugnglichkeit und
Sicherheitsmanagement vereint.13

7 Boehme-Neler, Unscharfes Recht, S. 124; Ronagel, Datenschutz in einem informatisierten Alltag,


S. 43.
8 Weiser, The Computer for the 21st Century; Bizer u. a., Technikfolgenabschtzung Ubiquitres
Computing und Informationelle Selbstbestimmung, S. 63ff. m. w. N. Ronagel, Datenschutz in
einem informatisierten Alltag, S. 9f.
9 Bizer u. a., Technikfolgenabschtzung Ubiquitres Computing und Informationelle Selbstbestim-
mung; Karaboga, Matzner u. a., Das versteckte Internet, S. 15ff. Ronagel, Grundrechtsausgleich
beim vernetzten Automobil, S. 353.
10 Ronagel, Datenschutz in einem informatisierten Alltag, S. 68ff. Christl, Kommerzielle digitale
berwachung im Alltag, S. 36ff. Karaboga, Matzner u. a., Das versteckte Internet, S. 22ff.
11 Mhlich, Datenschutz und Industrie 4.0, S. 381; s. bereits Bizer u. a., Technikfolgenabschtzung
Ubiquitres Computing und Informationelle Selbstbestimmung, S. 52, 58.
12 Bizer u. a., Technikfolgenabschtzung Ubiquitres Computing und Informationelle Selbstbestim-
mung, S. 48; Ronagel, Datenschutz in einem informatisierten Alltag, S. 53ff. Karaboga, Matzner
u. a., Das versteckte Internet, S. 7ff.
13 Ausfhrlich Marvasti und Rees, Smart Cities.
290 Christian L. Geminn und Maxi Nebel

Steigende Datenmengen
Ubiquitre Systeme sind eine von mehreren Datenquellen, die dazu beitragen, im-
mer grere Datenmengen anzuhufen und zu speichern, die zudem immer schneller
bertragen und ausgewertet werden knnen. Big Data versucht dieses Phnomen
zu beschreiben. Gemeint sind groe Datenmengen aus vielfltigen Quellen, die
durch die Anwendung von Algorithmen analysiert und visualisiert werden, um
neue Erkenntnisse zu gewinnen und genaue Prognosen abzugeben. Viele Akteure
wollen von Big Data protieren. Sicherheitsbehrden identizieren durch die Aus-
wertung vorhandener Internet- und Telefonkommunikation potentielle Terroristen,
um Anschlge und so einen erheblichen Schaden der Bevlkerung zu vermeiden.14
Dem Schutz der Bevlkerung dient auch die Analyse polizeilicher Datenstze, um
gezielt Polizeieinheiten in Stadtteile zu entsenden, die eine erhhte Wahrschein-
lichkeit fr Straftaten aufweisen.15 Versicherungen versprechen einen Bonus in
der Versicherungsprmie, wenn der Versicherte etwa seine Fahrverhaltens- oder
Gesundheitsdaten zur Verfgung stellt.16 Social Media-Dienste lassen sich nutzen,
um Meinungs- und Stimmungsbilder der Nutzer zu erheben, die fr Marktanalysen
und Marketingzwecke von groem Wert sind.17 Gleiches gilt fr Online-Shopping-
Plattformen, die durch die Auswertung ihrer Kundendaten, teils in Kombination mit
anderen Quellen wie Social Media-Plattformen und Smartphone-Daten, treffsichere
Empfehlungen fr weitere Kaufabschlsse zum richtigen Zeitpunkt geben wollen.18
Wahlkampf-Helfer knnen noch unschlssige Whler identizieren und mit den
entscheidenden Argumenten fr sich gewinnen.19 Schlielich kann durch Smart
Meter der Strom- und Energieverbrauch in Haushalten punktgenau aufgezeichnet
werden, um Bedarf und Verbrauch von Ressourcen efzient und bedarfsgerecht zu
steuern. Dadurch sollen Stromnetze entlastet, der Verbrauch reduziert und damit
die Umwelt geschont werden.20
Doch die Mglichkeiten, mit Hilfe selbst anonymer Datenstze Prognosen ber
das Verhalten von Personen zu erstellen, kann erhebliche Risiken fr die Betroffenen
14 Kritisch Feiler und Fina, Datenschutzrechtliche Schranken fr Big Data, S. 308.
15 Martini, Big Data als Herausforderung fr den Persnlichkeitsschutz und das Datenschutzrecht,
S. 1481; Beuth, Predictive Policing; zuletzt auch Thema auf dem 18. Europischen Polizeikon-
gress 2015: Borchers, Precrime per Predictive Policing.
16 Christl, Kommerzielle digitale berwachung im Alltag, S. 43; Grger, Generali erndet den elek-
tronischen Patienten; Siedenbiedel, Revolution der Kfz-Versicherung; Schwichtenberg, Pay
as you drive neue und altbekannte Probleme.
17 Venzke-Caprarese, Social Media Monitoring, S. 775.
18 Christl, Kommerzielle digitale berwachung im Alltag, S. 22, 27.
19 Ronagel, Big Data Small Privacy?, S. 562; Richter, Die Wahl ist geheim . . . so what?,
S. 961f.
20 Vgl. Fox, Smart Meter; Jandt, Ronagel und Volland, Datenschutz fr SmartMeter, S. 99;
Geminn, Das Smart Home als Herausforderung fr das Datenschutzrecht, S. 575.
Internationalisierung vs. Nationalisierung 291

mit sich bringen. Die Analyse groer Datenmengen erlaubt einen tiefen Einblick
in das Leben und die Persnlichkeit eines Menschen. So ermglichen groe Da-
tenmengen, mehr Angaben ber eine Person zu gewinnen, als diese willentlich
preisgegeben hat. Mit groer Zuverlssigkeit lassen sich religise und politische
Ansichten, ethnische Zugehrigkeit, Geschlecht, sexuelle Orientierung, Angewohn-
heiten und selbst Emotionen prognostizieren oder feststellen, welche Ereignisse
und Vernderungen wann im Leben eines Menschen stattgefunden haben. Darber
hinaus birgt die Analyse groer Datenmengen die Gefahr, mittels anonymer Daten
die Wahrscheinlichkeit des Verhaltens von Einzelnen und Gruppen vorherzusagen,
ohne einen konkreten Personenbezug herzustellen. Auf die Handlungsfreiheit hat
dies einen erheblichen Einuss, da sie verhaltensbestimmend wirken knnen, also
dazu fhren, dass Personen ihr Verhalten anpassen, um bestimmte Wirkungen zu
erreichen oder zu vermeiden.21 Auf die Richtigkeit der Prognosen kommt es dabei
nur bedingt an.
Auch steigende Datenmengen wirken wie die ubiquitre Datenverarbeitung als
Verstrker der Herausforderungen von Globalitt und Entgrenzung. Zusammen
bedeuten diese Herausforderungen, dass Daten nicht nur in Sekundenbruchteilen
nationalstaatliche Grenzen berschreiten knnen, sondern dies auch noch in groen
Massen, die aus unterschiedlichsten Quellen und Lebensbereichen stammen und
hochsensible Inhalte haben knnen.

1.2. Krise des Rechts und der Demokratie?


Das Recht ist angesichts dieser Herausforderungen in einer schwierigen Lage. Es
bleibt tief im Nationalstaat verwurzelt und an ihn gebunden. Die zunehmende
Vernetzung der Welt durch Handel stellte zunchst eine grundstzlich handhabbare
Herausforderung dar. In Folge vor allem des heute weltweit mglichen, nahe-
zu verzgerungsfreien Austauschs von und Zugriffs auf Informationen lsst sich
jedoch durchaus von einer Krise des Rechtsstaats sprechen. Die Zunahme an grenz-
berschreitenden Sachverhalten, insbesondere im Kontext von Datenschutz und
Strafverfolgung, aber auch in vielen anderen Bereichen wie etwa dem Steuerrecht,22
bringt ein wachsendes Durchsetzungsdezit mit sich; staatliche Schutzpichten
greifen ins Leere. Der Staat als Garant von Sicherheit und Freiheit kann diese
Funktion im virtuellen Raum kaum erfllen.23
Gleichzeitig sieht sich die Etablierung neuer Rechtsproduzenten wenn auch
ohne originre Rechtsetzungsbefugnis - im Rahmen einer Verlagerung hoheitlicher
21 Ausfhrliche Beispiele Ronagel und Nebel, (Verlorene) Selbstbestimmung im Datenmeer,
S. 455f. mit weiteren Nachweisen.
22 Boehme-Neler, Unscharfes Recht, S. 113.
23 Ronagel, Globale Datennetze, S. 27.
292 Christian L. Geminn und Maxi Nebel

Kompetenzen, von Macht und Kontrolle, auf supra- und internationale Vereinigun-
gen dem Vorwurf eines Verlusts an demokratischer Rckkopplung ausgesetzt, die
jedoch fr die gesellschaftliche Akzeptanz von Rechtsnormen unabdingbar ist.
Bereits 1997 prognostizierte Ronagel, dass sich der demokratische Rechtsstaat
an Ohnmachtserfahrungen gewhnen msse, weil im krperlosen Sozialraum
der Netzwelt Gesetze nicht vollzogen und Gemeinwohlbelange nicht mehr durch-
gesetzt werden knnten.24 Hoeren stellte 1998 fest, das Internet werde zu einer
Dematerialisierung, Deterritorialisierung und Extemporalisierung des Rechts fh-
ren, das damit seine aus dem rmischen Recht ererbten Substrate (Sache, Raum,
Zeit) verliere.25 Boehme-Neler beschreibt das Recht sogar als das extreme
Gegenmodell zur Digitalisierung: Es ist nicht ubiquitr und grenzenlos, sondern
grundstzlich begrenzend und begrenzt.26 Recht und Internet scheinen vielen
als unvereinbare Gegenpole. Noch aus den frhen Phasen der Entwicklung des
Internets stammt die bis heute aktuelle Einschtzung, das Internet sei ein Ort der
Freiheit, frei von staatlichen und rechtlichen Zwngen, der wiederum das Zerrbild
eines rechtlosen Raumes gegenbersteht, der Gelegenheit zu vielfltigen sozial
unerwnschten und auch kriminellen Handlungen in vermeintlicher Anonymitt
bietet.
Nirgends zeigt sich die Schwchung der Ordnungsfunktion des demokratischen
Rechtsstaats so deutlich wie in der Internetkommunikation, schreibt Masing.
Indem sich Kommunikation ber ein diffuses Netzwerk dezentraler Rechner unter
berwindung von Zeit und Raum in eine virtuelle Welt verlegt, laufen staatliche
Regelungen und Sanktionen weithin leer..27 Es werden mithin durch Fragen nach
dem Verhltnis von Recht und virtuellem Raum weitere, hochkomplexe Folgefragen
aufgeworfen, etwa die Frage nach der Notwendigkeit der Kopplung von Recht und
Nationalstaat sowie Demokratie und Nationalstaat. Auf der Suche nach einem Weg
aus der beschriebenen Krise des Rechts sind schwierige Grundsatzentscheidungen
zu treffen, deren Folgen aus heutiger Sicht nur sehr schwer abschtzbar sind.
The rise of the global computer network is destroying the link between geo-
graphical location and: (1) the power of local governments to assert control over
online behavior; (2) the effects of online behavior on individuals or things; (3)
the legitimacy of a local sovereigns efforts to regulate global phenomena; and
(4) the ability of physical location to give notice of which sets of rules apply.28
Versuche zur Gewhrleistung der Oberhoheit des Rechts knnen mit den Begriffen
Repersonalisierung, Reformalisierung und Reterritorialisierung zusammen-
24 Ronagel, Globale Datennetze, S. 27f.
25 Hoeren, Internet und Recht, S. 2854.
26 Boehme-Neler, Unscharfes Recht, S. 103.
27 Masing, Herausforderungen des Datenschutzes, S. 2309.
28 Johnson und Post, Law and Borders, S. 1370.
Internationalisierung vs. Nationalisierung 293

gefasst werden.29 Dabei steht im Kern dieser Versuche die (Rck-)Gewinnung von
Anknpfungspunkten fr rechtliche Normen.
Warum eine Krise von Recht und Nationalstaat auch zugleich eine Krise der
Demokratie bedingt, liegt in deren enger Verbundenheit begrndet. Demokratie
meint die Selbstregierung des Volkes,30 die Regierten legitimieren also durch
mehrheitliche Entscheidung die Regierenden.31 Handlungen des Nationalstaats
reprsentieren damit direkt oder indirekt - die Meinung des Volkes als Inhaber
der Volkssouvernitt. Demokratie legitimiert mithin die Existenz und das Funktio-
nieren des Nationalstaats.32 Benden sich der Nationalstaat und sein Recht durch
Verlust der Kontrollfhigkeit, Legitimationsdezite und Unfhigkeit zu legitima-
tionswirksamen Steuerungsleistungen in einer Krise, fhrt das zu Deziten im
demokratischen Entscheidungsprozess,33 da der Nationalstaat die Rechte seiner
Brger bei grenzberschreitenden Sachverhalten nicht ausreichend zu schtzen ver-
mag. Der demokratische Rechtsstaat ist auf Hoheitsgewalt und Gesetzesgehorsam
angewiesen. Nur durch sie kann er demokratische Beschlsse allgemeinverbindlich
durchsetzen und die Grundrechte der Brger gegen bergriffe Dritter schtzen.
Dies zu gewhrleisten ist der fundamentale Zweck, um dessentwillen der moderne
Staat besteht.34

2. Mglichkeiten zur Rckgewinnung der Rechtshoheit


Im Folgenden sollen einige der prominentesten Anstze vorgestellt werden, mit
denen versucht wurde und wird, den aufgezeigten Herausforderungen zu begegnen.
Dabei wird neben dem Recht gerade auch die Technik als faktischer Normgeber
bemht. Denn: Was technisch verhindert wird oder einfach technisch nicht mglich
ist, muss nicht mehr verboten und berwacht werden. Gegen Verhaltensregeln kann
verstoen werden, gegen technische Begrenzungen eines Techniksystems nicht.35

2.1. Die nationalstaatliche Ebene


Zunchst soll die unter dem Stichwort Nationalisierung zusammengefasste Sto-
richtung aufgearbeitet werden. Hierunter werden alle Versuche gefasst, die den

29 So Hoeren, Das Pferd frisst keinen Gurkensalat, S. 2616ff.


30 Bckenfrde, Demokratische Willensbildung und Reprsentation, 34, Rn. 2.
31 Grzeszick, Art. 20 GG, Rn. 2.
32 Ebd., Art. 20 GG, Rn. 1.
33 Habermas, Der europische Nationalstaat unter dem Druck der Globalisierung, S. 427.
34 Ronagel, Globale Datennetze, S. 28.
35 Ronagel, Allianz von Medienrecht und Informationstechnik, S. 23f.
294 Christian L. Geminn und Maxi Nebel

Nationalstaat, sein Recht und seine demokratischen Strukturen bei ihrer Selbst-
behauptung in einer immer weniger von Grenzen geprgten Welt untersttzen
sollen.
Die entgrenzende Wirkung des Internets wurde bereits dargestellt. Als Schlssel-
technologie der digitalen Gesellschaft ist das Internet jedoch letztlich auch durch
nationale Strukturen und Prozesse geprgt. So bleiben etwa insbesondere Sprache
und Kultur als begrenzende Faktoren erhalten; gerade die Sprache hat auch im In-
ternet regelmig eine segmentierende und ausschlieende Wirkung, die dazu fhrt,
dass bestimmte Sprachgruppen eher unter sich bleiben. Wesentliche Aspekte der
Verwaltung des Internets werden als Folge seiner historischen Entwicklung noch
immer aus den USA heraus kontrolliert; und die National Security Agency (NSA)
meldet sogar einen Herrschafts- und Besitzanspruch ber den virtuellen Raum
an.36 Zudem herrschen weltweit hchst unterschiedliche Vorstellungen bezglich
Struktur, Aufgaben und Werten des Internets.
Das Internet ist neben Kommunikationsplattform und Marktplatz auch eine Arena
fr Auseinandersetzungen zwischen Staaten ebenso wie fr (gerade auch grenzber-
schreitende) Auseinandersetzungen zwischen Privaten und zudem fr kriminelle
Aktivitten. Konikte und Angriffe knnen international sein, Koniktlsung und
Abwehr mssen meist national erfolgen. Staaten und Staatengemeinschaften sehen
in einer zunehmenden Nationalisierung des Datenverkehrs und seiner Infrastruktur
zumindest eine Chance, sich selbst und ihre Brger vor Aussphung und Angriffen
zu schtzen, sehen sich dabei aber dem Vorwurf des Protektionismus ausgesetzt.
Whrenddessen schotten autoritre Staaten wie China die eigene Datenverkehrs-
infrastruktur immer strker vom Rest der Welt ab. Dadurch entstehen nationale
Subnetze und parallele Strukturen, die staatlich kontrolliert und berwacht werden
knnen. Bereits 2006 prognostizierten Goldsmith und Wu eine Art neuen Kalten
Krieg auf technischer Ebene, in dem die USA, Europa und China konkurrieren-
de Datenbertragungssysteme und -infrastrukturen entwickeln.37 Der durch die
Snowden-Enthllungen vertiefte Graben zwischen den USA und Europa in Sachen
Vertrauen und Datenschutz lsst zusammen mit den Bemhungen Chinas diese
Befrchtungen eine Dekade spter umso realistischer erscheinen.

36 So benannte die NSA als eines ihrer Ziele Owning the Internet; NSA-Dokument SigInt Strategy
2012-2016, zit. in: Rosenbach und Stark, Der NSA-Komplex, S. 124.
37 [T]he United States, China, and Europe are using their coercive powers to establish different
visions of what the Internet might be. [. . . ] The result is the beginning of a technological version
of the cold war, with each side pushing its own vision of the Internets future. Goldsmith und
Wu, Who controls the Internet?, S. 184. Dies schlgt sich auch in der verwendeten Rhetorik nieder.
So drohte etwa Prsident Obama mit Blick auf eine mgliche Konfrontation mit China als Folge
zunehmender chinesischer Cyberangriffe auf US-amerikanische Ziele: I guarantee you we will
win if we have to. Zit. in Obama: China cyber attacks unacceptable.
Internationalisierung vs. Nationalisierung 295

Versuche zur Kompartimentierung des Internets sind deshalb zentraler Bestand-


teil der Storichtung Nationalisierung. Hier geht es letztlich um Grenzziehung
oder genauer soweit technisch mglich um eine bertragung von Staatsgren-
zen auf den virtuellen Raum.38 Hierunter fallen die im Folgenden betrachteten
Mittel nationales Routing und Abschottung, whrend es sich bei der Entwicklung
nationaler technischer Standards um ein ambivalentes Mittel handelt.

Nationales Routing
Ein besonders anschauliches Beispiel ist der schlussendlich gescheiterte Vor-
sto eines nationalen Routing des Datenverkehrs aus dem Jahr 2013. Nach einem
Vorschlag des damaligen Telekom-Vorsitzenden Obermann sollten Daten einen be-
stimmten geograschen Raum (z.B. die Bundesrepublik oder den Schengen-Raum)
auf dem Transportweg nicht verlassen, wenn sowohl Absender als auch Empfn-
ger sich in diesem Raum benden.39 Damit reduzierten sich die Mglichkeiten
auslndischer Geheimdienste zum Abfangen dieser Daten whrend des Transports
erheblich. Gleichzeitig bliebe auch die Hoheit eines Staates oder Staatenverbunds
und seines Rechts ber diese Daten gewhrleistet.
In die gleiche Richtung gehen Initiativen zum Ausbau des kabelgebundenen
Datennetzes durch Errichtung zustzlicher Internet Exchange Points und die Ver-
legung neuer Unterseekabel, wie etwa zwischen Brasilien und der Europischen
Union. Hierdurch soll verhindert oder zumindest minimiert werden, dass Daten auf
dem Transportweg einen geograschen Raum durchqueren, dessen Recht keinen
adquaten Schutz dieser Daten garantiert, wobei in der Regel Staaten der so ge-
nannten Five Eyes40 sowie China und Russland im Fokus solcher berlegungen
stehen.

Abschottung
Die gleiche Technik, die primr das Ziel des Schutzes vor Abhraktivitten ausln-
discher Geheimdienste verfolgt, kann aber auch zur Abschottung von Datennetzen
genutzt werden, wie sie bestimmte autoritre Staaten praktizieren, und kommt
schlussendlich einer Transformation des Internets zum Intranet gleich. Trotzdem ist
letztlich mit dem Begriff nicht gemeint, dass kein Austausch mehr zwischen dem
abgeschotteten Bereich und der Auenwelt mglich sein soll. Es ist eher an das

38 So auch Goldsmith und Wu, Who controls the Internet?, S. 183: [T]he Internet becomes more and
more bordered, [. . . ] it twists and bends to meet local demands.
39 Geminn, Die Debatte um nationales Routing, S. 98ff.; s. auch Bttner u. a., Die Reterritorialisie-
rung des Digitalen.
40 Die USA, das Vereinigte Knigreich, Kanada, Australien und Neuseeland.
296 Christian L. Geminn und Maxi Nebel

Bild einer mittelalterlichen Stadt zu denken, die sich mit dicken Mauern schtzt
und den eingehenden Verkehr an den Toren der Stadt reguliert und kontrolliert, aber
trotzdem auf den regen Zustrom von Hndlern, Arbeitern etc. angewiesen ist.
Hier geht es meist vor allem darum, den eigenen Brgern den Zugriff auf be-
stimmte extraterritoriale Datenquellen zu versperren, auch wenn Daten- und In-
frastruktursicherheit ofziell als Rechtfertigung dienen. Besonders anschaulich
zeigt sich dies in Saudi-Arabien, wo der gesamte Datenverkehr ber eine zentrale
Stelle geleitet und geltert wird.41 Zugriffssperren knnen jedoch hug durch die
Nutzung von Proxy Servern und VPN umgangen werden. Deren Nutzung wird
deshalb konsequent gestrt.42
Letztlich fallen auch Zensur im Internet und Zugangssperren unter die Kategorie
Abschottung. Whrend Internetzensur im Sinne einer Vorzensur vornehmlich
im Kontext des Umgangs autoritrer Staaten thematisiert wird, wurde und wird
die Sperrung von Inhalten, also die Nachzensur, auch in demokratischen Staaten
diskutiert und umgesetzt. Auch hier geht es in der Regel darum, dem Nutzer den
Zugriff auf konkrete Inhalte unmglich zu machen oder zumindest zu erschweren
(Stoppschilder). Hiervon zu unterscheiden sind Sanktionen, bei denen wiederhol-
te Verste beispielsweise gegen Urheberrecht unter anderem mit einer temporren
Sperrung oder Drosselung des Internetzugangs geahndet werden knnen (Three
Strikes).43
Auch in Deutschland waren Sperren ein Thema. Resultat einer Diskussion um
die Bekmpfung der Verbreitung von kinderpornographischen Inhalten war das
Zugangserschwerungsgesetz, 44 das von Februar 2010 bis Dezember 2011 in Kraft
war, jedoch nicht angewendet wurde, weil vom Bundeskriminalamt (BKA) nie
eine Liste mit zu sperrenden Webseiten erstellt wurde. Die grundstzliche Zulssig-
keit solcher Sperren hat der Bundesgerichtshof (BGH) Ende 2015 festgestellt. 45
hnlich hatte sich zuvor auch der Europische Gerichtshof (EuGH) geuert.46
Die Urteile hatten Urheberrechtsverletzungen zum Thema. Auch der Europische
41 Verantwortlich hierfr ist die saudi-arabische Communications and Information Technology Com-
mission.
42 So etwa in China: Wilkens, China verteidigt massive Strung von VPN-Diensten.
43 Siehe beispielhaft den Copyright (Infringing File Sharing) Amendment Act 2011 (Neuseeland) und
den Digital Economy Act 2010 (Vereinigtes Knigreich).
44 Zugangserschwerungsgesetz v. 17.2.2010 (BGBl. I. S. 78).
45 BGH, Urteile v. 26. November 2015, I ZR 3/14 und I ZR 174/14. Danach ist eine Sperrung dann
als ultima ratio zulssig, wenn nach dem Gesamtverhltnis rechtmige gegenber rechtswidrigen
Inhalten nicht ins Gewicht fallen.
46 EuGH, Urteil v. 27. Mrz 2014, C-314/12, Rn. 56: Dabei mssen die Manahmen, die der Anbieter
von Internetzugangsdiensten ergreift, in dem Sinne streng zielorientiert sein, dass sie dazu dienen
mssen, der Verletzung des Urheberrechts oder eines verwandten Schutzrechts durch einen Dritten
ein Ende zu setzen, ohne dass Internetnutzer, die die Dienste dieses Anbieters in Anspruch nehmen,
um rechtmig Zugang zu Informationen zu erlangen, dadurch beeintrchtigt werden. Andernfalls
Internationalisierung vs. Nationalisierung 297

Gerichtshof fr Menschenrechte (EGMR) hat sich zu Netzsperren positioniert und


eine pauschale Sperrung eines Dienstes wegen weniger beanstandeter Inhalte abge-
lehnt.47 Streitgegenstand war hier eine von Mai 2008 bis Oktober 2010 praktizierte
Sperre des Videoportals Youtube in der Trkei.48

Verbote
Ein anderes, aber in vielerlei Hinsicht gleichartig gelagertes Mittel zur Wieder-
herstellung staatlicher Souvernitt ist das Verbot. Insbesondere bezogen auf Ver-
schlsselung wurden immer wieder Verbote und Exportbeschrnkungen diskutiert49
und auch entsprechende Gesetze erlassen.50 Der Hintergedanke dabei war, es drfe
keine Form der elektronischen Kommunikation geben, die von entsprechend auto-
risierten staatlichen Behrden nicht abgehrt werden kann. Verbote knnen auch
auf Seite der Hardware ansetzen. So verbot Myanmars Militrjunta unter anderem
Besitz und Nutzung nicht registrierter Modems. Hohe Zugangskosten knnen eben-
falls Verbotscharakter haben. Zur effektiven Wirksamkeit eines Verbots muss dieses
mit Sanktionsmechanismen bei Versten gekoppelt werden.

Entwicklung von nationalen technischen Standards


Eine weitere Mglichkeit liegt darin, auf nationaler Ebene bestimmte technische
Standards zu entwickeln und deren Nutzung gesetzlich vorzuschreiben. Damit
erhlt sich das Recht seinen Primat ber die Technik. Ein Beispiel hierfr ist das
chinesische Sicherheitsprotokoll WAPI.51 Der Nachteil dieses Weges ist, dass auf-
grund der hug zu konstatierenden Inexibilitt rechtlicher Normen zu befrchten
ist, dass entsprechende nationale Standards nach einer gewissen Zeit den Anschluss
an den aktuellen globalen Stand der Technik verlieren werden. Hat der Staat oder
wre der Eingriff des Anbieters in die Informationsfreiheit dieser Nutzer gemessen am verfolgten
Ziel nicht gerechtfertigt. Die Sperre muss zudem hinreichend wirksam sein (Rn. 62).
47 EGMR, 1. Dezember 2015, Az. 48226/10 und 14027/11.
48 Hintergrund waren mehrere Videos, in deren Inhalten eine Beleidigung des trkischen Staatsgrn-
ders gesehen wurde.
49 Zur sogenannten Kryptodebatte siehe Kuner und Hladjk, Rechtsprobleme der Kryptograe,
Teil 17, Rn. 62 ff. Zuletzt wurde die Debatte durch den britischen Premierminister Cameron neu
entfacht, der in einer Rede am 12.1.2015 ein Verbot von Verschlsselungssoftware mit Ende-zu-
Ende-Verschlsselung forderte. Siehe hierzu Geminn, Crypto Wars Reloaded?, S. 546f. Sie ist
auch das Leitmotiv eines anhaltenden Streits zwischen Apple und dem FBI.
50 Siehe beispielhaft die bis Ende 1996 gltige Fassung von 121.1 der International Trafc in Arms
Regulations.
51 WLAN Authentication and Privacy Infrastructure. Hier mussten Anbieter bestimmter Produkte
nicht nur den nationalen Standard implementieren, um diese in der Volksrepublik verkaufen zu
drfen, sondern zudem mit bestimmten chinesischen Lizenztrgern zusammenarbeiten, um ber-
haupt Zugriff auf die technischen Details des Standards zu erhalten.
298 Christian L. Geminn und Maxi Nebel

Staatenverbund, der entsprechende Standards vorschreibt, eine ausreichende Markt-


macht, etwa in Form einer signikant groen Zahl kaufkrftiger potentieller Kunden
oder als Sitz tonangebender Grokonzerne, kann er darauf hoffen, dass es zu ei-
nem bertragungseffekt auf andere Staaten und Rechtsordnungen kommt, indem
entweder international ttige Unternehmen ihre relevanten Produkte weltweit nur
noch mit dem entsprechenden Standard anbieten oder indem andere Staaten ihr
eigenes Recht anpassen. Grnde dafr knnen beispielsweise darin liegen, dass
ein Unternehmen darauf verzichten mchte, mehrere regional unterschiedliche
Versionen eines Produkts anbieten zu mssen, dass Unternehmen durch betriebsin-
tern einheitliche Arbeitsweisen Kostenersparnisse erwarten oder dass ein Standard
schlicht als technisch berlegen erkannt wird.
Goldsmith und Wu etwa zeigen anhand eines Microsoft-Dienstes, wie dieser
weltweit an europisches Datenschutzrecht angepasst wurde, um ihn nicht regional
unterschiedlich anbieten zu mssen.52 Es besteht somit die Mglichkeit, ber das
Setzen technischer Standards den Geltungsbereich nationalen Rechts zumindest
indirekt ber die eigenen Staatsgrenzen hinweg auszuweiten. Eine weitere Mg-
lichkeit liegt in der rechtlichen Privilegierung, etwa in Form von Erleichterungen
fr Nutzer eines bestimmten Standards oder durch wirtschaftliche Anreize fr
Unternehmen.
Die rechtliche Fixierung von technischen Standards ist jedoch keine zwingende
Voraussetzung fr einen erfolgreichen Export. Auch die staatlich gelenkte Entwick-
lung oder Frderung der Entwicklung eines bestimmten technischen Standards
kann diesen Erfolg erzielen. Ferner kann nationale Soft- und Hardware als Schutz-
mittel gegen manipulierte Produkte auslndischer Mchte dienen. Gleichzeitig kann
so die Wettbewerbsfhigkeit der nationalen IT-Wirtschaft gesteigert werden. Zu
beachten ist aber, dass nicht jedem Staat die Ressourcen zur Verfgung stehen,
eigene technische Standards zu entwickeln, zu etablieren oder ihre Entwicklung zu
frdern.
Durch die Verbreitung von Technik aus einem bestimmten Ursprungsland knnen
die in diesem Land gesetzten Standards in die ganze Welt exportiert werden. Markt-
fhrerschaft bedeutet somit die Mglichkeit, ber technische Standards letztlich
auch Recht und dessen Durchsetzungsbedingungen zu beeinussen. CIA-Direktor
Hayden sprach deshalb 2006 in Anerkennung der zentralen Stellung der USA im
internationalen Datenverkehr von einem tremendous home-eld advantage: We
also need to protect that edge, and we need to protect those who provide it to
us.53 Die Volksrepublik China indes frdert bewusst den Aufbau einer eigenen
IT-Industrie und schottet sich zunehmend von internationaler IT-Technologie ab.

52 Goldsmith und Wu, Who controls the Internet?, S. 173ff.


53 Hayden, zitiert in Markoff, Internet Trafc Begins to Bypass the U.S.
Internationalisierung vs. Nationalisierung 299

Durch die Kontrolle der groen Staatsunternehmen behlt China gleichzeitig die
Souvernitt im IT-Bereich. [. . . ] China entwickelt Parallelstandards im Bereich
Soft- und Hardware.54 In Deutschland und Europa wurden insbesondere seit den
Snowden-Enthllungen immer wieder Rufe laut nach besserer deutscher und euro-
pischer IT, nicht selten unter Verweis auf die Erfolgsgeschichte des Flugzeugbauers
Airbus.55

Extraterritoriale Ausweitung des Geltungsbereichs nationalen Rechts


Der Staat kann auf Bedrohungen der Hoheit seines Rechts auch mit einer Auswei-
tung des Geltungsbereichs reagieren, nimmt dabei aber auch eine Steigerung des
Durchsetzungsdezits seines Rechts mangels Zugriffsmglichkeiten auf Personen
und Orte im Ausland in Kauf. Legitimiert werden kann dies nur durch einen An-
knpfungspunkt, der es dem nationalen Recht erlaubt, seine territorialen Grenzen
zu berschreiten. Dieser Anknpfungspunkt ist im Strafrecht regelmig der Tater-
folg. So hat der BGH etwa eine Strafbarkeit nach 130 Strafgesetzbuch (StGB)
angenommen, wo eine entsprechende Tathandlung zwar im Ausland stattfand, via
Internet aber geeignet sei, den ffentlichen Frieden in Deutschland zu gefhrden.56
Zuknftig erfasst nun Art. 3 Abs. 2 Datenschutz-Grundverordnung (DSGVO)57
Ttigkeiten der Datenverarbeitung auerhalb der Union, wenn diese auf in der
Union ansssige Betroffene abzielen, etwa um diesen Waren oder Dienstleistungen
anzubieten oder ihr Verhalten zu beobachten.
Andererseits kann es fr den Staat auch von Vorteil sein, sich auf den Standpunkt
zurckzuziehen, sein Recht gelte auerhalb bestimmter Grenzen nicht. So hat sich
etwa der BND in der Vergangenheit auf die sog. Weltraumtheorie berufen.58
Ferner ist zu bedenken, dass die Ausweitung des Geltungsbereichs nationalen
Rechts auch Interferenzen mit im demokratischen Prozess zustande gekommenen

54 Gierow, Cyber Security in China (III).


55 So eine hug verwendete Analogie. Siehe beispielhaft Dohmen und Traufetter, Traum von Inter-
netz.
56 BGHSt 46, 212. Demgegenber forderten Johnson und Post, Law and Borders, S. 1378: Many
of the jurisdictional and substantive quandaries raised by border-crossing electronic communica-
tions could be resolved by one simple principle: conceiving of Cyberspace as a distinct place for
purposes of legal analysis by recognizing a legally signicant border between Cyberspace and the
real world.
57 Verordnung (EU) 2016/679 (Datenschutz-Grundverordnung)
58 Unter den Begriff Weltraumtheorie wird die Ansicht gefasst, dass deutsches Recht nicht gelte,
wenn Daten von Auslndern ber Satelliten verschickt und dort abgefangen werden, da der Welt-
raum nicht deutschem Recht unterworfen sei. Sie ist im Wesentlichen auf 1 Abs. 2 BNDG gesttzt,
wonach nur Informationen, die im Geltungsbereich dieses Gesetzes erhoben wurden, den Vorga-
ben der 2 bis 6 und 8 bis 11 BNDG unterliegen sollen. Siehe zur Debatte beispielhaft Ein
Gesetz fr den Weltraum.
300 Christian L. Geminn und Maxi Nebel

Gesetzen anderer Staaten erzeugen kann und damit letztlich deren Souvernitt
tangiert.
Ein anschauliches Beispiel fr eine extraterritoriale Ausweitung des Geltungsbe-
reichs nationalen Rechts und ihre weitreichenden Folgen bietet ein vielbeachteter
Rechtsstreit zwischen der Microsoft Corporation und der US-Regierung. 2013
hatte Microsoft einen Search and Seizure Warrant auf Basis des Stored Com-
munications Act (SCA)59 erhalten. Danach kann eine Governmental Entity die
Herausgabe von bestimmten gespeicherten Daten fordern.60 Die fraglichen Daten
Kunden-E-Mails befanden sich jedoch ausschlielich auf Servern des Konzerns
in Dublin, Irland. Streitgegenstand war nun die Frage, ob das Gesetz auch einen
Zugriff auf Daten erlaubt, die sich auerhalb der Landesgrenzen benden. Die
Frage wurde 2014 zunchst ganz im Sinne des US-Justizministeriums bejaht,61
in der Berufung jedoch 2016 verneint.62 Im Kern geht es dabei darum, ob die Brger
eines Staates auf die Datenschutzgarantien dieses Staates vertrauen knnen, ohne
Eingriffe aus dem Ausland.
Nach Geltungsbeginn der Datenschutz-Grundverordnung wrde ein Unterneh-
men wie Microsoft in einem hnlich gelagerten Fall in eine Zwickmhle geraten,
denn dem US-Warrant stnde Art. 48 DSGVO gegenber, wonach [j]egliches
Urteil eines Gerichts eines Drittlands und jegliche Entscheidung einer Verwal-
tungsbehrde eines Drittlands, mit denen von einem Verantwortlichen oder einem
Auftragsverarbeiter die bermittlung oder Offenlegung personenbezogener Daten
verlangt wird, nur dann anerkannt wird, wenn sie auf eine in Kraft bendliche
internationale bereinkunft wie etwa ein Rechtshilfeabkommen zwischen dem
ersuchenden Drittland und der Union oder einem Mitgliedstaat gesttzt sind.

Zwischenfazit
Der moderne Staat ist kein hilos Getriebener, sondern es stehen ihm vielfltige
Mglichkeiten zur Verfgung, sich in der digitalen und vernetzten Welt zu behaup-
ten. Darber hinaus steht es ihm offen, die Chancen, die ihm diese Welt bietet, zu
nutzen, etwa indem er Verwaltungshandeln transparent gestaltet, die Interaktion mit
und zwischen Behrden vereinfacht, politische Partizipation strkt und wirksame
59 Das Gesetz ist Teil des Electronic Communications Privacy Act of 1986 (Title II) und in 18 U.S.C.
2701-2812 kodiziert.
60 Die Anordnung erging auf Basis von 18 U.S.C. 2703(a): A governmental entity may require the
disclosure by a provider of electronic communication service of the contents of a wire or electronic
communication [. . . ].
61 United States District Court Southern District of New York, Entscheidung v. 25.4.2014, 13 Mag.
2814.
62 United States Court of Appeal for the Second Circuit, Entscheidung v. 14.7.2016, No. 14-2985
unter Verweis auf Morrison v. National Australia Bank, 561 U.S. 247 (2010).
Internationalisierung vs. Nationalisierung 301

ffentlichkeitsarbeit betreibt.63 Er kann aber auch selbst zum Risiko fr seine


wie auch fremde Brger werden, wenn er sich zum berwacher und Kontrolleur
wandelt. Auch hierzu bieten sich ihm viele Gelegenheiten, die insbesondere, aber
nicht ausschlielich, Herrscher autoritrer Staaten ausgiebig fr sich zu nutzen
wissen. berdies besteht die Gefahr, dass nationale oder regionale Alleingnge zu
Fragmentierung und Isolierung fhren.

2.2. Die internationale Ebene


Nachdem bis zu diesem Punkt vornehmlich der Weg des staatlichen Alleingangs be-
leuchtet wurde, sind die folgenden berlegungen kooperativen Anstzen gewidmet,
denn die Herausforderungen der globalisierten elektronischen Datenverarbeitung
durch international agierende Grokonzerne werden Staaten zuknftig oftmals nur
im Verbund meistern knnen.64 Als Gegenstck zur Nationalisierung muss daher
eine Internationalisierung betrachtet werden, um Grund- und Menschenrechte ef-
fektiv global oder zumindest staatenbergreifend zu schtzen. Zu unterscheiden ist
dabei zwischen europischer Gesetzgebung und vlkerrechtlichen bereinknften.
Auch private Institutionen haben sich als technische Normgeber etabliert,65 die
auf globaler Ebene technische Grundsatzentscheidungen treffen.66 Keiner dieser
Aspekte ist indes unproblematisch, wie im Folgenden zu zeigen sein wird.

Europischer Rahmen
Die gewachsene Bedeutung privatwirtschaftlicher Datenverarbeitung durch wenige
groe Konzerne macht besonders deutlich, dass ein umfassender Schutz der Per-
snlichkeitsrechte sowie der Schutz personenbezogener Daten vor unbegrenzter
elektronischer Datenverarbeitung mit nationalen Datenschutzgesetzen nicht mehr
63 Ein Ttigwerden des Staates kann mitunter zur Erfllung von Schutzpichten geboten sein. Diese
knnen sich vor allem aus den Art. 1, 2, 5, 10, 12, 13, 14, 87f und 91c GG ergeben. Siehe Hoffmann-
Riem, Freiheitsschutz in den globalen Kommunikationsinfrastrukturen, S. 56ff.
64 So Masing, Herausforderungen des Datenschutzes, S. 2310; Boehme-Neler, Unscharfes Recht,
S. 151.
65 Etwa die International Organization for Standardization (ISO), die International Electrotechnical
Commission (IEC) und die Internet Corporation for Assigned Names and Numbers (ICANN). Das
Deutsche Institut fr Normung e.V. ist ebenfalls eine rein privatwirtschaftliche Organisation, die
jedoch von der Bundesrepublik Deutschland untersttzt wird. Das DIN erstellt private technische
Regelungen mit Empfehlungscharkter (BGHZ 139, 16) und vertritt die Bundesrepublik in der ISO.
Boehme-Neler, Unscharfes Recht, S. 147: Die Nationalstaaten haben ihre Monopolstellung als
Akteure in der internationalen Politik verloren.
66 Zum Grundsatz Code Is Law siehe Lessig, Code, S. 1ff. Unter demokratietheoretischen Aspek-
ten ist das hochproblematisch. Denn angesichts der Bedeutung des Internets sind Entscheidungen
ber die Internet-Architektur keine rein technischen Fragen (mehr). Boehme-Neler, Wer formt
den digitalen Code?, S. 78.
302 Christian L. Geminn und Maxi Nebel

zu erreichen ist. Die Datenschutz-Grundverordnung ist die Antwort der Europi-


schen Union auf dieses Problem. Die Datenschutz-Grundverordnung soll auf dem
gesamten Gebiet der Europischen Union einen einheitlichen Rechtsrahmen zum
Datenschutz schaffen, zum Schutz des Rechts auf personenbezogene Daten aus Art.
8 der Europischen Grundrechtecharta und Art. 16 des Vertrags ber die Arbeits-
weise der Europischen Union (AEUV). Neben dem erklrten Ziel der Strkung
des Binnenmarkts durch einen freien Verkehr personenbezogener Daten soll dabei
ein gleichmig hohes Datenschutzniveau gewhrleistet werden.67
Bereits vor der Datenschutz-Grundverordnung hat die Europische Gemeinschaft
1995 mit der Datenschutzrichtlinie68 einen einheitlichen Rechtsrahmen zu schaffen
versucht. Da diese aber nicht ausreichend zur Vereinheitlichung beigetragen habe,
weil den Mitgliedstaaten erhebliche Umsetzungsspielrume gelassen wurden so
die ofzielle Begrndung (Erwgungsgrund 9 DSGVO) hat man sich im Zuge
der Modernisierung der datenschutzrechtlichen Grundlagen fr das Instrument der
Verordnung entschieden, was insbesondere in der Bundesrepublik auf vielfltige
Kritik gestoen ist und als regelrechter Coup dtat der Europischen Kommissi-
on gewertet wurde.69 Die zutreffende Rge des Bundesrats, dass eine umfassende
Regelung der Union gegen das Prinzip der begrenzten Einzelermchtigung verstoe,
fand in den brigen Mitgliedstaaten keinen Anklang.70 Dennoch gab es vielfl-
tige grundstzliche Kritik. So wurde befrchtet, dass durch den umfassenden
aber ungengend umgesetzten Regelungsanspruch die Gefahr eines lckenhaften
Datenschutzrechts besteht, da vielfltige, ausdifferenzierte nationale datenschutz-
rechtliche Regelungen in Sonderbereichen nicht mehr zur Anwendung kommen
wrden.71 Auch wurden Bedenken laut, inwiefern die deutschen Grundrechte,
67 Erwgungsgrnde 5, 7, 10.
68 Richtlinie 95/46/EG des Europischen Parlaments und des Rates zum Schutz natrlicher Personen
bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr vom 24.10.1995, ABl.
EG L 281/31.
69 Ronagel, Datenschutzgesetzgebung; Ronellentsch, Fortentwicklung des Datenschutzes; Ma-
sing, Herausforderungen des Datenschutzes, S. 2310; Eckhardt, EU-DatenschutzVO, S. 203;
Eckhardt, Kramer und Mester, Auswirkungen der geplanten EU-DS-GVO auf den deutschen Da-
tenschutz; Allgemein zur Kritik am Entwurf siehe des weiteren z.B. Forst, Beschftigtendaten-
schutz im Kommissionsvorschlag einer EU-Datenschutzverordnung; Gola, Beschftigtendaten-
schutz und EU-Datenschutz-Grundverordnung; Hornung, Eine Datenschutz-Grundverordnung
fr Europa?; Nebel und Richter, Datenschutz bei Internetdiensten nach der DS-GVO; Rona-
gel, Richter und Nebel, Besserer Internetdatenschutz fr Europa; Schneider und Hrting, Wird
der Datenschutz endlich internettauglich?
70 Und htte wohl auch wenig Aussicht auf Erfolg gehabt: Nguyen, Die Subsidiarittsrge
des Deutschen Bundesrates gegen den Vorschlag der EU-Kommission fr eine Datenschutz-
Grundverordnung; das fr eine Subsidiarittsrge erforderliche 1/3-Quorum der Mitgliedstaa-
ten wurde jedenfalls nicht erreicht: Gola und Schulz, Der Entwurf fr eine EU-Datenschutz-
Grundverordnung, S. 3.
71 Piltz und Krohm, Was bleibt vom Datenschutz brig?
Internationalisierung vs. Nationalisierung 303

insbesondere die informationelle Selbstbestimmung, noch Anwendung nden wr-


den.72 Hauptkritikpunkt des ersten Entwurfs der Datenschutz-Grundverordnung
war darber hinaus die Regelungskompetenz der kaum demokratisch legitimierten
Kommission, im Wege delegierter Rechtsakte konkrete Regelungen zu zentralen
Bereichen nach eigenem Gutdnken zu erlassen.73
Trotz der fr die einzelnen Mitgliedstaaten vorgesehenen ffnungsklauseln und
ausfllungsbedrftiger Rechtsbegriffe, durch die nationale Kompetenzen erhalten
bleiben, bedeutet die Datenschutz-Grundverordnung eine Machtverschiebung auch
in ihrer endgltigen Fassung von den Mitgliedstaaten hin zur Europischen Union.
Dies hat zur Folge, dass die Mitgliedstaaten ihre Regelungskompetenz an eine
nicht im gleichen Mae demokratisch legitimierte Europische Union74 in diesem
Bereich verlieren; die Datenschutz-Grundverordnung ist ohne Umsetzungsakt un-
mittelbar anwendbar. Auslegungsfragen werden durch EU-Organe entschieden,
und das am Mastab der europischen Rechtsgrundlagen, nicht der deutschen
Grundrechte.75
Grundstzlich bringt eine Supranationalisierung im Datenschutzrecht enorme
Vorteile mit sich. Die Gre der Europischen Union und ihre damit einhergehende
Marktmacht verleihen ihr eine erhebliche Vorbildwirkung und Durchsetzungskraft.
Eine Vereinheitlichung bietet die Mglichkeit, Leitideen wie Einwilligung zur Wah-
rung der Selbstbestimmung der Nutzer, Interessenabwgung oder Datenportabilitt,
aber auch technische Lsungsanstze zentral zu verankern und ihnen damit eine gr-
ere Wirkung zu ermglichen. Auch bietet sie die Mglichkeit, die Anwendbarkeit
europischen Datenschutzrechts auch fr nicht EU-ansssige Unternehmen zur Be-
dingung zu machen und das auch durchzusetzen. Das strkt einerseits die Stellung
der Europischen Union in Sachen Datenschutz,76 hat aber auch fr die datenver-
arbeitenden Stellen Vorteile. Diese knnen ihre Dienste auf einen einheitlichen
Markt einstellen. Das bietet durchaus Anreize, datenschutzrechtliche, vor allem
auch technische Vorgaben tatschlich zu beachten und umzusetzen. Ob hierzu das
72 Masing spricht gar von einem Abschied der Grundrechte, siehe Masing, Ein Abschied von
den Grundrechten; differenzierend hingegen Lewinski, Europisierung des Datenschutzrechts,
S. 567ff.
73 Ronagel, Datenschutzgesetzgebung.
74 Zwar hat der Vertrag von Lissabon zu einer Strkung der demokratischen Legitimation der Euro-
pischen Union beigetragen, ein Demokratiedezit bleibt in manchen Bereichen aber weiter beste-
hen. So gibt es beispielsweise bei der Wahl zum Europischen Parlament als Volksvertretung der
EU-Brger keine Gleichheit der Wahl, da zwar nach dem Prinzip der degressiven Proportionalitt
grere Lnder mehr Abgeordnete haben als kleine Lnder, diese Abgeordneten aber verhltnis-
mig mehr Brger reprsentieren; ausfhrlich Bergmann, Mickel und Grupp, Handlexikon der
Europischen Union, Stichwort Legitimation.
75 Siehe Masing, Ein Abschied von den Grundrechten, Die Nichtanwendbarkeit der deutschen
Grundrechte in Folge der geplanten Vollharmonisierung wre grundstrzend.
76 Lewinski, Europisierung des Datenschutzrechts, S. 569.
304 Christian L. Geminn und Maxi Nebel

Regelungsinstrument der Verordnung jedoch allein zum Erfolg fhren konnte, darf
bezweifelt werden. Letztlich ist davon auszugehen, dass die gewnschten Effekte
auch mit einer Richtlinie htten erreicht werden knnen unter Achtung nationaler
Besonderheiten und Wahrung etablierter nationaler Lsungen. Das Ziel, durch ein
Glattbgeln nationaler Besonderheiten internationalen Konzernen einen europawei-
ten Markt mit einheitlichen Rechtsregeln zu bieten, drfte sich ohnehin als Illusion
erweisen, denn die Anerkenntnis und Abwgung berechtigter Interessen drfte sich
weiterhin von Mitgliedstaat zu Mitgliedstaat unterscheiden. Harmonisierung, nicht
Vereinheitlichung, sollte Mittel zur Etablierung eines hohen Datenschutzniveaus
sein zunchst auf europischer, schlielich aber auch auf internationaler Ebene.

Vlkerrechtlicher Rahmen
Da sich elektronische Datenverarbeitung jedoch nicht nur auf das Gebiet der europi-
schen Union beschrnkt, muss ein wirksamer Persnlichkeitsschutz darber hinaus
wirken knnen. Auf vlkerrechtlicher Ebene sind jedoch nur wenige verbindliche
Normen vorhanden. Weder Art. 12 der Allgemeinen Erklrung der Menschenrechte
(AEMR) noch die OECD-Richtlinie ber Datenschutz und grenzberschreitende
Strme personenbezogener Daten aus dem Jahre 2002 entfalten Bindungswirkung,
sondern haben lediglich Empfehlungscharakter; darber hinaus mangelt es ihnen an
Regelungstiefe, um allen datenschutzrechtlichen Anforderungen gerecht zu werden.
Gleiches gilt fr die Europische Datenschutzkonvention des Europarats von 1985,
aus der Art. 8 der Europischen Menschenrechtskonvention (EMRK) hervorgegan-
gen ist, der zumindest in Deutschland gem Art. 59 Abs. 2 Grundgesetz (GG) den
Rang eines Bundesgesetzes hat.
Einzig Art. 17 des Internationalen Pakts ber brgerliche und politische Rechte
(IPbpR)77 liegt eine gewisse Verbindlichkeit inne. Art. 17 IPbpR gewhrleistet
Schutz vor willkrlichen oder rechtswidrigen Eingriffen in Privatleben, Familie,
Wohnung, Schriftverkehr sowie rechtwidrige Beeintrchtigungen der Ehre und
des Rufs. Dabei umfasst Art. 17 IPbpR auch elektronische Kommunikation sowie
Schutz vor Sphmanahmen.78 Eine Individualbeschwerde durch einen Betroffenen
an den UN-Menschenrechtsausschuss gegen Eingriffe oder Beeintrchtigungen
durch Staaten oder Private79 ist jedoch nur mglich, sofern der betroffene Staat das
(fakultative) Zusatzprotokoll ratiziert hat.
77 Internationaler Pakt ber brgerliche und politische Rechte vom 19.12.1966, BGBl. 1973 II S.
1533.
78 High Commissioner for Human Rights, General Comment 16 zu Art. 17 IPbpR.
79 Aufgrund seines objektiv-rechtlichen Schutzgehalts entfaltet Art. 17 IPbpR auch einen Schutz ge-
gen Beeintrchtigungen durch Private; Szczekalla, Sicherung grund- und menschenrechtlicher
Standards, S. 1114; Hoffmann-Riem, Freiheitsschutz in den globalen Kommunikationsinfrastruk-
turen, S. 61, m.w.N.
Internationalisierung vs. Nationalisierung 305

Auerdem hat der UN-Menschenrechtsausschuss im Jahre 2015 einen Vorsto


gewagt und einen Sonderberichterstatter fr Datenschutz ernannt. Seine Aufgabe
ist es, Probleme der digitalen Welt und des Datenschutzes zu berwachen, zu analy-
sieren und ffentlich zu berichten und dem UN-Menschenrechtsausschuss beratend
zur Seite zu stehen. Letztlich handelt es sich dabei jedoch eher um eine moralische
Instanz, da der Sonderberichterstatter keine rechtsverbindlichen Entscheidungen
treffen kann.80
Ein Blick auf die Zusammensetzung der entsprechenden normsetzenden Gremien
verdeutlicht die Schwierigkeiten bei der Findung und Durchsetzung verbindlicher
Normen. So ist etwa der UN-Menschenrechtsrat, das Hauptforum der Vereinten
Nationen zur Frderung der Durchsetzung menschenrechtlicher Standards in den
einzelnen Nationen, derzeit mit 47 Mitgliedern besetzt. Davon lieen sich 2015
grob 23 als Demokratien und 24 als autoritre oder hybride Regime klassizie-
ren.81 Sieben dieser Staaten werden von der Organisation Reporter ohne Grenzen
gar als Feinde des Internets bezeichnet.82 Dennoch erkannte der Rat 2012 in
einer als wegweisend bezeichneten Entscheidung an, dass die Rechte, die Men-
schen auerhalb des Internets haben, auch im Internet geschtzt werden mssen.83
Diese Rechte zu gewhrleisten, ist aber problematisch. Zwar ist eine Picht zur
Gewhrleistung des derzeit bestehenden Schutzniveaus anerkannt, die einzelnen
Normengeber haben aber einen groen Gestaltungsspielraum in der Umsetzung.84
Eine vlkerrechtlich legitimierte internationale Rechtssetzung muss darber hinaus
beachten, dass eine Konsensbildung zwischen vielfltigen Staaten hug schwierig
ist.85 Das liegt nicht nur an einem mitunter vllig entgegengesetzten Selbstverstnd-
nis beim Umgang mit elektronischen Daten, sondern auch an einem unterschiedli-
chen Verstndnis der einzelnen Gewhrleistungsgehalte spezischer Grundrechte

80 Hansen, Interview with the UN Special Rapporteur on the Right to Privacy.


81 Nach Magabe des Democracy Index 2014 der Intelligence Unit des Economist. Insgesamt werden
im Demokratieindex 167 der Staaten der Welt (von insgesamt 193 anerkannten und weiteren 13 um-
strittenen) erfasst. Dabei stehen 76 full or awed democracies (davon 24 full democracies mit
einem Anteil von 12,5% an der Weltbevlkerung) 91 authoritarian or hybrid regimes gegenber,
wobei erstere 48%, letztere 52% der Weltbevlkerung reprsentieren.
82 China, Kuba, Saudi-Arabien, Kasachstan, die Vereinigten Arabischen Emirate, Russland, Vietnam.
Ebenfalls als Feinde des Internets galten 2015 Bahrein, Iran, Turkmenistan und Usbekistan.
83 A/HRC/RES/20/8.
84 Hoffmann-Riem, Freiheitsschutz in den globalen Kommunikationsinfrastrukturen, S. 62.
85 Darnstdt u. a., freiheit@unendlich.welt, S. 80. Als Gutmenschentum verspottet Rechtssozio-
loge Teubner die wiederholten vergeblichen Versuche, dem Internet eine Art zivilisierte Weltver-
fassung durch zwischenstaatliche Verhandlungen zu unterlegen. Wie sollen sich auch magebliche
Mchte wie China und Frankreich, Iran und Amerika ber gemeinsame Regeln allein zur Meinungs-
freiheit, zum Recht der persnlichen Ehre, zum Schutz des geistigen Eigentums einigen oder gar
ber so deutsche Spezialitten wie die Strafbarkeit des Holocaust-Leugnens?
306 Christian L. Geminn und Maxi Nebel

wie dem Recht auf Privatleben oder dem Recht auf Meinungs- und Informations-
freiheit.86
Fr einen effektiven globalen Persnlichkeitsschutz mssen vlkerrechtliche
bereinkommen einheitliche und durchsetzungsfhige Standards zu Schutzgehalt,
Verhltnismigkeit von Eingriffen und Rechtswegen denieren und dafr sorgen,
dass diese im Interesse eines internationalen Gemeinwohls87 homogen umge-
setzt werden.88 Dabei sollten vlkerrechtlich verbindliche Abkommen ber die
Regelungsintensitt des IPbpR hinausgehen und bestenfalls mehr als blo einen
Minimalkonsens herstellen, oder andernfalls intensivere nationale Regelungen
zulassen. Diese knnen dann wiederum als Vorbild dienen, um international vl-
kerrechtlich etabliert zu werden.89 Selbst die Regelung von Teilaspekten wre
ein erheblicher Fortschritt. Vorgaben zur wirksamen Abgabe von Einwilligungen
knnten ein solcher Aspekt sein, auf den sich alle Nationen verbindlich festlegen;
ein anderer der Datenumgang minderjhriger Nutzer oder Fragen des anwendbaren
Rechts bei elektronischer Datenverarbeitung.
Als erste Erfolge oder zumindest als Trittsteine auf dem Weg zu entsprechenden
vlkerrechtlichen Vorgaben knnen die von Deutschland und Brasilien gemeinsam
in den Nachwehen der Snowden-Enthllungen angestoenen UN-Resolutionen
gelten.90 Die fraglichen Resolutionen sind jedoch nicht vlkerrechtlich bindend.

Internet Governance
Streit besteht seit langem ber die Ausgestaltung von Internet Governance.91 Im
Kern des Streits steht die Frage nach der Kontrolle ber zentrale Schaltstellen und
Ressourcen des internationalen Datenverkehrs, insbesondere des Domain Name
System,92 das im Wesentlichen von der Internet Corporation for Assigned Names
and Numbers (ICANN) kontrolliert wird,93 auf die wiederum das US-amerikanische

86 Klar, Privatsphre und Datenschutz in Zeiten technischen und legislativen Umbruchs, S. 112.
87 Boehme-Neler, Das Ende des Staates?, S. 159.
88 Hoffmann-Riem, Freiheitsschutz in den globalen Kommunikationsinfrastrukturen, S. 62.
89 Ronagel, Weltweites Internet, S. 70.
90 A/C.3/68/L.45 aus dem Jahr 2013, A/C.3/69/L.26 aus dem Jahr 2014 und A/HRC/28/L.27 aus dem
Jahr 2015 (alle mit dem Titel The right to privacy in the digital age). Siehe auch A/C.3/69/L.24
(The promotion, protection and enjoyment of human rights on the Internet).
91 Der Begriff fasst alle Mechanismen, Institutionen und Prozesse zusammen, die das Tun und Han-
deln im Internet organisieren und regulieren [. . .]. Dabei nehmen Recht und Rechtsordnung nur
einen Teilbereich dieses weiten Governance-Feldes ein, der Rest wird von anderen Mechanismen,
Institutionen, und Prozessen abgedeckt; Weber, Internet-Governance, Teil 2, Rn. 6.
92 Ebd., Teil 2, Rn. 7ff.
93 Die ICANN ist eine Non-Prot-Organisation mit Sitz in Playa Vista nahe Los Angeles. Zur Ge-
schichte und Struktur der ICANN siehe Weber, Internet-Governance, Teil 2, Rn. 21ff.; Betz und
Kbler, Internet Governance, S. 74ff.;
Internationalisierung vs. Nationalisierung 307

Department of Commerce erheblichen Einuss hatte, der jedoch in der Vergan-


genheit eher zurckhaltend ausgebt wurde. Eine bertragung solcher Kontroll-
und Aufsichtsaufgaben auf eine internationale Organisation oder alternativ auf
die globale Community selbst in Form einer Selbstverwaltung wurde schon seit
lngerer Zeit gefordert.94 Die Snowden-Enthllungen wirkten hier als Katalysator.
In letzterem Ansatz wird eine Strkung der Freiheit des Datenverkehrs und der
Efzienz gesehen, whrend die bertragung auf eine internationale Organisation
staatliche Einussmglichkeiten mit sich bringt gerade auch fr Staaten wie die
oben genannten Feinde des Internets.95 Die USA erklrten im Mrz 2014 ihre
Aufsichtsfunktion ber die ICANN zum Ende des Septembers 2015 unter bestimm-
ten Bedingungen aufzugeben. Dieser Zeitplan wurde jedoch aufgrund der Masse
an offenen Fragen nicht eingehalten. Stattdessen wurde die Deadline schlielich
um ein Jahr verschoben, wobei auch eine Verlngerung des bestehenden Vertrags
zwischen der ICANN und der National Telecommunications and Information Admi-
nistration (NTIA) als Untergliederung des US Department of Commerce ber den
September 2016 hinaus um bis zu drei weitere Jahre nicht ausgeschlossen wurde.
Diese Option wurde jedoch nicht genutzt, womit sowohl ICANN als auch die
Internet Assigned Numbers Authority, eine Abteilung der ICANN, nun nicht lnger
unter der Aufsicht des Department of Commerce stehen. Die US-amerikanische
Aufsicht ber das Domain Name System wurde damit zugunsten eines globalen
Multistakeholder-Ansatzes aufgelst.
Die auf der NETmundial-Konferenz im April 2014 formulierten Principles gel-
ten als wichtige Vorarbeit hin zu einer Internationalisierung der Internet-Verwaltung.
Der DOTCOM Act,96 der im Juni 2015 das Abgeordnetenhaus passierte und seither
im Senat verweilt, stipuliert, dass the proposal relating to the transition of the
NTIAs stewardship of the Internet Assigned Numbers Authority [. . . ] supports
and enhances the multi-stakeholder model of Internet governance; [. . . ] main-
tains the openness of the Internet; and does not replace the role of the NTIA
with a government-led or intergovernmental organization solution.97 Bereits im
Jahr 2000 gab es den Versuch, die Organisation zu demokratisieren, indem eine
Online-Wahl des Direktoriums auf globaler Ebene abgehalten wurde: Doch nur

94 Siehe beispielhaft NETmundial Multistakeholder Statement, 2.II. Nr. 5 u. 6.


95 Betz und Kbler, Internet Governance, S. 53: Auch die Leitung von ICANN geriet immer wie-
der in Kontroversen, da insbesondere neue, meist auch ideologisch ausgerichtete Internet-Staaten
wie Iran und Saudi-Arabien ihren Einuss strken wollen; sie werden von China untersttzt, das
weiterhin eine Renationalisierung des Internets weltweit anstrebt und diese Strategie in seinem Ter-
ritorium bereits weitgehend durchgesetzt hat.
96 Domain Openness Through Continued Oversight Matter Act of 2015 (H.R.805).
97 In Sec. 2(b)
308 Christian L. Geminn und Maxi Nebel

etwa 170.000 User lieen sich registrieren, so dass die Wahl insgesamt die Vision
zivilgesellschaftlicher Self Governance platzen lie.98
Gleichermaen stehen Organisationen wie das World Wide Web Consortium
(W3C) und die Internet Engineering Task Force (IETF) in der Kritik. Auch hier
werden technische Richtungsentscheidungen gefllt, ohne dass dafr ein echtes
Mandat vorlge.99 Die zentralen Themen und Probleme von Internet Governance
lassen sich mit Legitimitt, Transparenz, Verantwortlichkeit und Mitwirkung der
ffentlichkeit zusammenfassen.100 Die Regulierung des Internets bietet mithin
auch weiterhin [r]eiches Anschauungsmaterial fr die These des globalen Rechts
ohne Staat.101

2.3. Technikbasierter (Grundrechts-)Schutz


Ein effektiver Schutz der Persnlichkeitsrechte sowie der Meinungs- und der In-
formationsfreiheit auf internationaler Ebene ist mithin nur schwer realisierbar.
Da auf internationaler regulativer Ebene in absehbarer Zeit kein konsensfhiger
Rechtsrahmen zum Schutz der Betroffenen ersichtlich ist, muss der Einzelne selbst
Mglichkeiten an die Hand bekommen, seine Rechte und Interessen zu schtzen.
Mittels System- und Selbstdatenschutz kann dem Nutzer ermglicht werden,
seine informationelle Selbstbestimmung zu bewahren, indem er die Preisgabe seiner
personenbezogenen Daten kontrollieren kann, Dienste anonym oder pseudonym
nutzt sowie Kommunikation verschlsselt. Systemdatenschutz bezeichnet dabei die
Gestaltung technisch-organisatorischer Systeme, um Rechtsregeln und Prinzipien
zum Datenschutz in technische Systeme zu integrieren und abzusichern102 und so
dem individuellen Datenschutz eine kollektive Komponente beizufgen.103 Grund-
stze wie informationelle Gewaltenteilung,104 Transparenz,105 Kontrollfhigkeit,106

98 Betz und Kbler, Internet Governance, S. 48.


99 Weber, Internet-Governance, Teil 2 Rn. 55. Solche Empfehlungen betreffen etwa die W3C-
Standards zu HTML, PNG und vielen anderen sowie die Kommunikationsprotokolle der IETF wie
etwa das Internetprotokoll (IP) oder das Anwendungsprotokoll Hypertext Transfer Protocol (http).
100 Ebd., Teil 2 Rn. 49 ff.
101 So Vesting, Die Staatsrechtslehre und die Vernderung ihres Gegenstandes, S. 58.
102 Grundlegend bereits z.B. Podlech, Inividualdatenschutz - Systemdatenschutz, S. 451ff.; Rona-
gel, Datenschutztechnik und -recht in globalen Netzen, S. VI, Datenschutz in globalen Netzen,
S. 256; Dix, Konzepte des Systemdatenschutzes, Kap. 3.5, Rn. 2ff.; Rost und Bock, Privacy by
Design und die neuen Schutzziele.
103 Dix, Konzepte des Systemdatenschutzes, Kap. 3.5, Rn. 9.
104 Dix, Konzepte des Systemdatenschutzes, Kap. 3.5, Rn. 9; BVerfGE 65, 1 (69); vorher bereits
Steinmller u. a., Grundfragen des Datenschutzes, S. 128.
105 BVerfGE 65, 1 (43); konkret Ronagel, Ptzmann und Garstka, Modernisierung des Datenschutz-
rechts, S. 90.
106 Ebd., S. 90.
Internationalisierung vs. Nationalisierung 309

Anonymisierung sowie Lschungsregeln,107 Zweckbegrenzung,108 Datenvermei-


dung und -sparsamkeit,109 die das Bundesverfassungsgericht im Volkszhlungs-
urteil 1983 zum Schutz der informationellen Selbstbestimmung fr unerlsslich
erklrt hat, knnen in die Datenverarbeitungssysteme implementiert werden.
Den Systemdatenschutz ergnzend und dabei auf die Eigenverantwortung eines
jeden setzend, umfasst Selbstdatenschutz Manahmen, die jeder Betroffene zum
Schutz seiner informationellen Selbstbestimmung selbst anwenden kann.110 Selbst-
datenschutz und Systemdatenschutz knnen nicht streng voneinander getrennt
werden. Insbesondere mssen dem Nutzer eine adquate technische Infrastruk-
tur wie Identittsmanagementprogramme, Verschlsselungssoftware, Anonymisie-
rungsdienste, datenschutzfreundliche Voreinstellungen111 sowie Mglichkeiten zur
Wahrnehmung von Rechten etwa zum Kontrollieren und Lschen von Daten zur
Verfgung gestellt werden, damit er Manahmen zum Schutz seiner personenbezo-
genen Daten ergreifen kann.112
Da dem Staat eine Picht und Gewhrleistungsverantwortung zum Schutz der
informationellen Selbstbestimmung zukommt, obliegt ihm die Picht, System- und
Selbstdatenschutz aktiv regulatorisch zu steuern.113 Mglichkeiten dazu umfassen
eine Frderung, Evaluierung und Bereitstellung der notwendigen Infrastruktur durch
regulatorische Manahmen, gegebenenfalls auch durch Vorgabe zu erreichender
Ziele und Anreize an die Wirtschaft, diese rechtskonform umzusetzen. Insbesondere
Manahmen zum Selbstdatenschutz lassen sich durch Informationskampagnen zur
Aufklrung und Sensibilisierung der Brger frdern.114
Nationalstaatliche Gesetzgebung kann so aktiv die Entwicklung von System-
und Selbstdatenschutz frdern und steuern und so auch die Verbreitung entspre-
107 BVerfGE 65, 1 (49); Ronagel und Scholz, Datenschutz durch Anonymitt und Pseudonymitt:
Rechtsfolgen der Verwendung anonymer und pseudonymer Daten, S. 721; Ronagel, Ptzmann
und Garstka, Modernisierung des Datenschutzrechts, S. 101.
108 BVerfGE 65, 1 (46); ausfhrlich Ronagel, Ptzmann und Garstka, Modernisierung des Daten-

schutzrechts, S. 16, 40, 126.


109 BVerfGE 65, 1 (46); Ronagel, Das Gebot der Datenvermeidung und -sparsamkeit als Ansatz

wirksamen technikbasierten Persnlichkeitsschutzes?, S. 41ff.


110 Ronagel, Datenschutztechnik und -recht in globalen Netzen, S. VI, Datenschutz in globa-

len Netzen, S. 255; Scholz, Datenschutz beim Internet-Einkauf, S. 358f.; Karaboga, Schtz u. a.,
Selbstdatenschutz.
111 Privacy by default: Scholz, Datenschutz beim Internet-Einkauf, S. 358f.; zum Begriff auch Kipker,

Privacy by Default.
112 Ronagel, Datenschutztechnik und -recht in globalen Netzen, S. VII; Scholz, Datenschutz beim

Internet-Einkauf, S. 358f.; Karaboga, Schtz u. a., Selbstdatenschutz, S. 20ff.


113 Zur Picht staatlicher Organe, Bedrohungen und Gefahren fr Grundrechte zu erkennen und abzu-

wehren BVerfGE 49, 89 (132); vgl. auch Ronagel, Globale Datennetze, S. 26; Trute, Wissen-
schaft und Technik, 88, Rn. 28ff.
114 Karaboga, Schtz u. a., Selbstdatenschutz, S. 5; Hahn, Johannes und Lange, Schutzschilde gegen

die NSA, S. 73ff.


310 Christian L. Geminn und Maxi Nebel

chender technisch-organisatorischer Systeme ber Landesgrenzen hinaus unter-


sttzen. Gefrdert werden kann und sollte dies durch zustzliche Bestrebungen
der internationalen Gemeinschaft, durch gemeinschaftliche Regularien System-
und Selbstdatenschutzmanahmen international zu harmonisieren und so die Rech-
te der Betroffenen zu schtzen. Einen entsprechenden Vorsto leistet bereits die
Datenschutz-Grundverordnung mit ihrer Verpichtung der Verantwortlichen zu
Datenschutz durch Technik und datenschutzfreundlichen Voreinstellungen in Art.
25 DSGVO. Denkbar ist zudem auch die Etablierung internationaler Standards
zum Selbst- und Systemdatenschutz durch unabhngige, anerkannte Gremien, die
alle betroffenen Akteure reprsentieren und die bestenfalls mit Normsetzungs-
befugnissen ausgestattet sind, die zum Beispiel Hersteller und Entwickler von
Technologien durch das Setzen von wettbewerbsfrdernden Anreizen zur Ent-
wicklung datenschutzfreundlicher Produkte anhalten knnen. Der technikbasierte
Grundrechtsschutz kann mithin als dritter Ansatz gelten, der sich offen und neutral
zu Internationalisierung und Nationalisierung verhlt.

3. Fazit und Ausblick


Der Nationalstaat und seine demokratischen Strukturen haben auch bei der Regulie-
rung im Internet ihre Regelungskraft noch nicht verloren. Unterstrichen wird dies
gerade auch durch die jngsten Urteile des EuGH zu Google115 und Facebook.116
Sie zeigen, dass Staaten und Staatenverbnde ihre Wertvorstellungen grundstz-
lich wirksam gegen die monetren Interessen global agierender Megakonzerne
durchzusetzen vermgen. Im Beispiel des Google-Urteils zwang das Verdikt
der Grundrechtsverletzung den Google-Konzern, der durch seine geschftlichen
Aktivitten innerhalb der Europischen Union europischem Recht unterliegt, zu
kostspieligen nderungen seiner Geschftspraxis. Der Nationalstaat wird auf abseh-
bare Zeit notwendig bleiben, nicht nur, um Recht um- und durchzusetzen, sondern
auch aus grundstzlicheren berlegungen. Er hat das Straf- und Steuermonopol
inne und steht fr ein auf supra- und internationaler Ebene bisher unerreichtes Ma
an demokratischer Bindungskraft sowie sozialer und politischer Integration.117
Aus rechtlicher wie auch aus demokratietheoretischer Sicht mssten (Re-)Na-
tionalisierungsbestrebungen daher zunchst grundstzlich begrt werden. Die
faktischen Grenzen der Regelungsfhigkeit des Nationalstaats und des nationalen
Rechts machen es jedoch unumgnglich, zumindest eine Teilinternationalisierung

115 EuGH, Urteil v. 13.5.2014, Rs. C-131/12.


116 EuGH, Urteil v. 6.10.2015, Rs. C-362/14. Ein weiteres Beispiel ist das im Mrz 2016 eingeleitete
Verfahren des Bundeskartellamts gegen Facebook.
117 Vgl. die Ausfhrungen in Boehme-Neler, Wer formt den digitalen Code?, S. 189ff.
Internationalisierung vs. Nationalisierung 311

sowohl in Europa als auch darber hinaus unter Einbindung der Demokratien der
Welt zu forcieren. Auch hierfr liefern die genannten Urteile des EuGH gute Ar-
gumente. Dies sollte Hand in Hand gehen mit einer Strkung der demokratischen
Rckkopplung sowohl der europischen sowie letztlich auch der internationalen
Institutionen. Bi-nationale Abkommen, wie es einst das Safe Harbour-Abkom-
men darstellte, knnen auf dem Weg zu einer Teilinternationalisierung nur ein
erster Schritt sein; ebenso wie die Datenschutz-Grundverordnung, die zumindest
innerhalb Europas eine Vereinheitlichung des Rechtsrahmens herbeifhrt, jedoch
wichtige auereuropische Nationen auen vor lassen muss. Nichtsdestotrotz kn-
nen solche Regelungen aber auf Dritte ausstrahlen, wenn diese etwa freiwillig
nationale Regelungen beispielsweise an europisches Datenschutzrecht angleichen.
Dabei ist jedoch zu beachten, dass ein hoher Grundrechtsschutz, wie er etwa in
Deutschland besteht, nicht zugunsten der Ermglichung von Internationalisierung
geopfert wird, denn diese stellt gerade keinen Wert an sich dar. Bestrebungen zur In-
ternationalisierung des Datenschutzes mssen immer den grundrechtlichen Schutz
der Betroffenen vor Augen haben. Unabhngig von der rumlichen Reichweite
solcher Abkommen muss ein hoher Schutzstandard mit strengen Eingriffsvoraus-
setzungen gewhrleistet werden. Dabei mssen anerkannte Aufsichtssysteme und
wirkungsvolle Durchsetzungsinstrumente eingesetzt werden. Die Alternative eines
nationalen Alleingangs, der letztlich nur die Form einer Abschottung annehmen
kann, darf allein ultima ratio sein und muss dementsprechend sparsam angewendet
werden, wenn sich zur Lsung eines bestimmten Sachverhalts kein anderer Weg
beschreiten lsst.
Internationalisierung kann letztlich auch einen Machtgewinn fr den National-
staat bedeuten, wenn dieser etwa zuvor von technischen Entscheidungen ausge-
schlossen war, im Zuge einer Internationalisierung aber Mitspracherechte und
-mglichkeiten erhlt. Darber hinaus kann auch ber Technologiefhrerschaft na-
tionaler Einuss auf internationaler Ebene gesichert werden, die sich gezielt durch
rechtlich gesetzte Anreize und regulierte Selbstregulierung steuern lsst. Schlielich
knnen Datenschutz und die Technik selbst auch als Druckmittel oder im Rahmen
von Protektionismus gebraucht werden. Andererseits kann ber die Kontrolle des
Marktzugangs auch die Einhaltung von Standards forciert werden.
Letztlich geht es sowohl bei nationalen als auch internationalen Anstzen darum,
die Hoheit des Rechts ber einen vermeintlich rechtlosen Raum zu gewinnen.
Um Abwehrreaktionen zu vermeiden, ist angeraten, alle verantwortlichen Akteure
im Internet mit einzubeziehen, etwa mit Hilfe regulierter Selbstregulierung und
-kontrolle. Das damit verbundene Problem der fehlenden demokratischen Legitima-
312 Christian L. Geminn und Maxi Nebel

tion muss jedoch uerst ernst genommen werden, soll eine dauerhaft akzeptable
Lsung gefunden werden.118
Das Setzen von Geboten und Verboten von staatlicher Seite als Regelungsinstru-
ment hat auch in der globalisierten Welt alles andere als ausgedient. Gleiches gilt
fr den Schutzgehalt nationaler Grundrechte. Die Suche nach geeigneten rechtli-
chen Regelungsinstrumenten im und fr das Internet geht indes weiter mit bisher
ungewissem Ausgang.

Literatur
Bergmann, Jan Michael, Wolfgang W. Mickel und Claus D. Grupp, Hrsg. Hand-
lexikon der Europischen Union. 5. neu bearbeitete und erweiterte Auage.
Baden-Baden, Wien und Basel: Nomos, Facultas und Helbing Lichtenhahn Ver-
lag, 2015.
Betz, Joachim und Hans-Dieter Kbler. Internet Governance: Wer regiert wie das
Internet? Wiesbaden: Springer VS, 2013.
Beuth, Patrick. Predictive Policing: Das BKA will in die Zukunft sehen. In: ZEIT
online (17. Mrz 2014). URL: http://www.zeit.de/digital/datenschutz/2014-
03/bka-data-mining-predictive_policing (besucht am 08. 09. 2016).
Bizer, Johann u. a. Technikfolgenabschtzung Ubiquitres Computing und Informa-
tionelle Selbstbestimmung. Studie im Auftrag des Bundesministeriums fr Bil-
dung und Forschung. Unabhngiges Landeszentrum fr Datenschutz Schleswig-
Holstein und Institut fr Wirtschaftsinformatik der Humboldt-Universitt zu
Berlin, Juli 2006.
Bckenfrde, Ernst-Wolfgang. Demokratische Willensbildung und Reprsenta-
tion. In: Handbuch des Staatsrechts, Band III: Demokratie - Bundesorgane.
Hrsg. von Josef Isensee und Paul Kirchhof. 3. vllig neubearb. und erw. Au.
Heidelberg: C. F. Mller, 2005, S. 3153.
Boehme-Neler, Volker. Das Ende des Staates? Zu den Auswirkungen der Digita-
lisierung auf den Staat. In: Zeitschrift fr ffentliches Recht (ZR) 64.2 (2009),
S. 145199.
Unscharfes Recht: berlegungen zur Relativierung des Rechts in der digitali-
sierten Welt. Bd. 89. Schriftenreihe zur Rechtssoziologie und Rechtstatsachenfor-
schung. Berlin: Duncker & Humblot, 2008.
Wer formt den digitalen Code? Rechtsetzung in der digitalisierten Gesellschaft.
In: Zeitschrift fr Gesetzgebung (ZG) 24.1 (2009), S. 7485.

118 Hoeren, Internet und Recht, Selbstkontrolle kann im Internet das Recht ergnzen, jedoch nie-
mals ersetzen.
Internationalisierung vs. Nationalisierung 313

Borchers, Detlef. Precrime per Predictive Policing: Das Internet der Dinge im
Zeugenstand. In: Heise online (26. Feb. 2015). URL: http://www.heise.de/
newsticker / meldung / Precrime - per - Predictive - Policing - Das - Internet - der -
Dinge-im-Zeugenstand-2559840.html (besucht am 08. 09. 2016).
Bttner, Barbara u. a. Die Reterritorialisierung des Digitalen. Zur Reaktion natio-
naler Demokratie auf die Krise der Privatheit nach Snowden. Kassel: Kassel
University Press, 2016.
Christl, Wole. Kommerzielle digitale berwachung im Alltag. Erfassung, Verknp-
fung und Verwertung persnlicher Daten im Zeitalter von Big Data: Internationa-
le Trends, Risiken und Herausforderungen anhand ausgewhlter Problemfelder
und Beispiele. Studie im Auftrag der sterreichischen Bundesarbeitskammer.
Wien: Cracked Labs: Institut fr Kritische Digitale Kultur, 2014. URL: http :
//crackedlabs.xn--org-8m0a/studie-kommerzielle-ueberwachung/info (besucht
am 08. 09. 2016).
Darnstdt, Thomas u. a. freiheit@unendlich.welt. In: Der Spiegel 33 (10. Aug.
2009), S. 6881.
Dix, Alexander. Konzepte des Systemdatenschutzes. In: Handbuch Datenschutz-
recht. Hrsg. von Alexander Ronagel und Ralf-Bernd Abel. Mnchen: Beck,
2003, S. 363386.
Dohmen, Frank und Gerald Traufetter. Traum von Internetz. In: Der Spiegel 46
(11. Nov. 2013), S. 46.
Eckhardt, Jens. EU-DatenschutzVO Ein Schreckgespenst oder Fortschritt? In:
Computer und Recht (CR) 28.3 (2012), S. 195203.
Eckhardt, Jens, Rudi Kramer und Britta Alexandra Mester. Auswirkungen der
geplanten EU-DS-GVO auf den deutschen Datenschutz. In: Datenschutz und
Datensicherheit (DuD) 37.10 (2013), S. 623630.
Ein Gesetz fr den Weltraum. In: Der Spiegel (11. Apr. 2015), S. 13. URL:
https : / / magazin . spiegel . de / digital / ?utm _ source = spon & utm _ campaign =
centerpage#SP/2015/16/133575480 (besucht am 16. 11. 2016).
Engel, Christoph. Das Internet und der Nationalstaat. In: Vlkerrecht und Inter-
nationales Privatrecht in einem sich globalisierenden internationalen System
Auswirkungen der Entstaatlichung transnationaler Rechtsbeziehungen. Bd. 39.
Berichte der Deutschen Gesellschaft fr Vlkerrecht. Heidelberg: C. F. Mller,
2000, S. 353425.
Feiler, Lukas und Siegfried Fina. Datenschutzrechtliche Schranken fr Big Data.
In: Medien und Recht (MR) 10.7-8 (2013), S. 303309.
Forst, Gerrit. Beschftigtendatenschutz im Kommissionsvorschlag einer EU-
Datenschutzverordnung. In: Neue Zeitschrift fr Arbeitsrecht (NZA) 29.7 (2012),
S. 364367.
314 Christian L. Geminn und Maxi Nebel

Fox, Dirk. Smart Meter. In: Datenschutz und Datensicherheit (DuD) 34.6 (2010),
S. 408.
Geminn, Christian L. Crypto Wars Reloaded? In: Datenschutz und Datensicher-
heit (DuD) 39.8 (2015), S. 546547.
Das Smart Home als Herausforderung fr das Datenschutzrecht: Enthlt die
DSGVO risikoadquate Regelungen? In: Datenschutz und Datensicherheit
(DuD) 40.9 (2016), S. 575580.
Die Debatte um nationales Routing eine Scheindebatte? In: Multimedia und
Recht (MMR) 18.2 (2015), S. 98103.
Gierow, Hauke. Cyber Security in China (III): Standortfaktor Internetsicherheit:
Herausforderung fr westliche Unternehmen. China Monitor 22. Berlin: Mercator
Institute for China Studies, 18. Mrz 2015. URL: http : / / www. merics . org /
leadmin/ templates/download/china - monitor/China _Monitor_ No_22 .pdf
(besucht am 08. 09. 2016).
Gola, Peter. Beschftigtendatenschutz und EU-Datenschutz-Grundverordnung.
In: Eurpische Zeitschrift fr Wirtschaftsrecht (EuZW) 23.9 (2012), S. 332336.
Gola, Peter und Sebastian Schulz. Der Entwurf fr eine EU-Datenschutz-Grund-
verordnung eine Zwischenbilanz. In: Recht der Datenverarbeitung (RDV) 29.1
(2013), S. 17.
Goldsmith, Jack und Tim Wu. Who controls the Internet? Illusions of a Borderless
World. New York: Oxford Univiversity Press, 2006.
Grimm, Dieter. Die Zukunft der Verfassung II: Auswirkungen von Europisierung
und Globalisierung. Berlin: Suhrkamp, 2012.
Grger, Anne-Christin. Generali erndet den elektronischen Patienten. In: Sued-
deutsche.de (21. Nov. 2014). URL: http://www.sueddeutsche.de/geld/neues-
krankenversicherungsmodell-generali-erndet-den-elektronischen-patienten-
1.2229667 (besucht am 08. 09. 2016).
Grzeszick, Bernd. Art. 20 GG. In: Grundgesetz: Loseblatt-Kommentar. Hrsg. von
Theodor Maunz, Gnter Drig und Roman Herzog. 75. Au. Mnchen: Beck,
2015.
Habermas, Jrgen. Der europische Nationalstaat unter dem Druck der Globa-
lisierung. In: Bltter fr internationale und europische Politik 44.4 (1999),
S. 425436.
Hahn, Tobias, Paul C. Johannes und Benjamin Lange. Schutzschilde gegen die
NSA. In: Datenschutz und Datensicherheit (DuD) 39.2 (2015), S. 7177.
Hansen, Marit. Interview with the UN Special Rapporteur on the Right to Privacy.
In: Datenschutz und Datensicherheit (DuD) 39.12 (2015), S. 786787.
Hoeren, Thomas. Das Pferd frisst keinen Gurkensalat berlegungen zur Internet
Governance. In: Neue Juristische Wochenschrift (NJW) 61.36 (2008), S. 2615
2619.
Internationalisierung vs. Nationalisierung 315

Internet und Recht - Neue Paradigmen des Informationsrechts. In: Neue Juris-
tische Wochenschrift (NJW) 51.39 (1998), S. 28492854.
Hoffmann-Riem, Wolfgang. Freiheitsschutz in den globalen Kommunikationsin-
frastrukturen. In: Juristenzeitung (JZ) 69.2 (2014), S. 5363.
Hornung, Gerrit. Eine Datenschutz-Grundverordnung fr Europa? In: Zeitschrift
fr Datenschutz (ZD) 2.3 (2012), S. 99106.
Jandt, Silke, Alexander Ronagel und B. Volland. Datenschutz fr SmartMeter,
Spezische Neuregelungen im EnWG. In: Zeitschrift fr Datenschutz (ZD) 1.3
(2011), S. 99103.
Johnson, David R. und David G. Post. Law and Borders The Rise of Law in
Cyberspace. In: Stanford Law Review 48.5 (1996), S. 13671402.
Karaboga, Murat, Tobias Matzner u. a. Das versteckte Internet: Zu Hause - Im Auto
- am Krper. White Paper. Karlsruhe: Forum Privatheit und selbstbestimmtes
Leben in der digitalen Welt, 2015.
Karaboga, Murat, Philip Schtz u. a. Selbstdatenschutz. White Paper. Karlsruhe:
Fraunhofer ISI und Forum Privatheit und selbstbestimmtes Leben in der digitalen
Welt, 2014. URL: http://www.forum-privatheit.de/ (besucht am 09. 09. 2016).
Kipker, Dennis-Kenji. Privacy by Default und Privacy by Design. In: Datenschutz
und Datensicherheit (DuD) 39.6 (2015), S. 410.
Klar, Manuel. Privatsphre und Datenschutz in Zeiten technischen und legislativen
Umbruchs. In: Die ffentliche Verwaltung (DV) 66.3 (Feb. 2013), S. 103112.
Kuner, Christopher und Jrg Hladjk. Rechtsprobleme der Kryptograe. In: Hand-
buch Multimedia-Recht: Rechtsfragen des elektronischen Geschftsverkehrs (Teil
17). Hrsg. von Bernd Holznagel u. a. 40. Ergnzungslieferung. Mnchen: Beck,
2014.
Lessig, Lawrence. Code: And Other Laws of Cyberspace, Version 2.0. New York:
Basic Books, 2006.
Lewinski, Kai von. Europisierung des Datenschutzrechts. In: DuD Datenschutz
und Datensicherheit 36.8 (2012), S. 564570.
Markoff, John. Internet Trafc Begins to Bypass the U.S. In: The New York Times
(29. Aug. 2008). URL: http://www.nytimes.com/2008/08/30/business/30pipes.
html (besucht am 08. 09. 2016).
Martini, Mario. Big Data als Herausforderung fr den Persnlichkeitsschutz und
das Datenschutzrecht. In: Deutsches Verwaltungsblatt (DVBl) 129.23 (2014),
S. 14811489.
Marvasti, Reza und Anna Rees. Smart Cities: Efcient, Sustainable, Digitised
Living. RESET gemeinntzige Stiftungs-GmbH. 2014. URL: https://en.reset.org/
knowledge/smart-cities-efcient-sustainable-digitised-living-10312014 (besucht
am 08. 09. 2016).
316 Christian L. Geminn und Maxi Nebel

Masing, Johannes. Ein Abschied von den Grundrechten. In: Sddeutsche Zeitung
(9. Jan. 2012), S. 9.
Herausforderungen des Datenschutzes. In: Neue Juristische Wochenschrift
(NJW) 65.32 (2012), S. 23052311.
McLuhan, Marshall. The Gutenberg Galaxy. Toronto: Univ. of Toronto Press, 1962.
Mhlich, Regina. Datenschutz und Industrie 4.0 eine sensible Annherung ist
notwendig. In: Zeitschrift fr Datenschutz (ZD) 14.8 (2014), S. 381382.
Nebel, Maxi und Philipp Richter. Datenschutz bei Internetdiensten nach der DS-
GVO. In: Zeitschrift fr Datenschutz (ZD) 2.9 (2012), S. 407413.
NETmundial Multistakeholder Statement. NETmundial Initiative, 24. Apr. 2014.
URL : http : / / netmundial . br / wp - content / uploads / 2014 / 04 / NETmundial -
Multistakeholder-Document.pdf (besucht am 08. 09. 2016).
Nguyen, Alexander. Die Subsidiarittsrge des Deutschen Bundesrates gegen
den Vorschlag der EU-Kommission fr eine Datenschutz-Grundverordnung. In:
Zeitschrift fr euoparechtliche Studien (ZEuS) 15.3 (2012), S. 277300.
Obama: China cyber attacks unacceptable. In: BBC News (12. Sep. 2015).
URL : http://www.bbc.com/news/world- us- canada- 34229439 (besucht am
08. 09. 2016).
Piltz, Carlo und Niclas Krohm. Was bleibt vom Datenschutz brig? Nebenwir-
kungen der Datenschutz-Grundverordnung. In: Privacy in Germany (PinG) 1.2
(2013), S. 5661.
Podlech, Adalbert. Inividualdatenschutz - Systemdatenschutz. In: Beitrge zum
Sozialrecht. Hrsg. von Klaus Brckner und Gerhard Dalichau. Percha: Verlag R.
S. Schulz, 1982, S. 451462.
Richter, Philipp. Die Wahl ist geheim . . . so what?, Big Data Mining im US-
Wahlkampf. Und hier? In: Die ffentliche Verwaltung (DV) 66.24 (2013),
S. 961970.
Ronellentsch, Michael. Fortentwicklung des Datenschutzes. In: Datenschutz
und Datensicherheit (DuD) 36.8 (2012), S. 561563.
Rosenbach, Marcel und Holger Stark. Der NSA-Komplex: Edward Snowden und
der Weg in die totale berwachung. Mnchen: Deutsche Verlags-Anstalt, 2014.
Ronagel, Alexander. Allianz von Medienrecht und Informationstechnik: Hoffnun-
gen und Herausforderungen. In: Allianz von Medienrecht und Informationstech-
nik? Ordnung in digitalen Medien durch Gestaltung der Technik am Beispiel von
Urheberschutz, Datenschutz, Jugendschutz und Vielfaltschutz. Hrsg. von Alexan-
der Ronagel. Bd. 24. Schriftenreihe des Instituts fr Europisches Medienrecht
Saarbrcken. Baden-Baden: Nomos, 2001, S. 1735.
Big Data Small Privacy? Konzeptionelle Herausforderungen fr das Daten-
schutzrecht. In: Zeitschrift fr Datenschutz (ZD) 3.11 (2013), S. 562566.
Internationalisierung vs. Nationalisierung 317

Das Gebot der Datenvermeidung und -sparsamkeit als Ansatz wirksamen tech-
nikbasierten Persnlichkeitsschutzes? In: Innovation, Recht und ffentliche
Kommunikation. Hrsg. von Martin Eifert und Wolfgang Hoffmann-Riem. Bd. IV.
Innovation und Recht. Berlin: Duncker & Humblot, 2011, S. 4166.
Datenschutz in einem informatisierten Alltag. Gutachten im Auftrag der Friedrich-
Ebert-Stiftung. Berlin, 2007.
Datenschutz in globalen Netzen: Das TDDSG - ein wichtiger erster Schritt. In:
Datenschutz und Datensicherheit (DuD) 23.5 (1999), S. 253257.
Datenschutzgesetzgebung: Monopol oder Vielfalt? In: Datenschutz und Da-
tensicherheit (DuD) 36.8 (2012), S. 553555.
Datenschutztechnik und -recht in globalen Netzen. In: Multimedia und Recht
(MMR) 1.9 (1998), S. VVII.
Globale Datennetze: Ohnmacht des Staates - Selbstschutz der Brger. In:
Zeitschrift fr Rechtspolitik (ZRP) 30.1 (1997), S. 2630.
Grundrechtsausgleich beim vernetzten Automobil, Herausforderungen, Leis-
tungsfhigkeit und Gestaltungsbedarf des Rechts. In: Datenschutz und Datensi-
cherheit (DuD) 39.6 (2015), S. 353358.
Weltweites Internet globale Rechtsordnung? In: Multimedia und Recht
(MMR) 5.2 (2002), S. 6771.
Ronagel, Alexander und Maxi Nebel. (Verlorene) Selbstbestimmung im Da-
tenmeer: Privatheit im Zeitalter von Big Data. In: DuD Datenschutz und
Datensicherheit 39.7 (2015), S. 455459.
Ronagel, Alexander, Andreas Ptzmann und Hansjrgen Garstka. Modernisierung
des Datenschutzrechts. Gutachten im Auftrag des Bundesministeriums des Innern.
Berlin, Sep. 2001.
Ronagel, Alexander, Philipp Richter und Maxi Nebel. Besserer Internetdaten-
schutz fr Europa. In: Zeitschrift fr Datenschutz (ZD) 3.3 (2013), S. 103
108.
Ronagel, Alexander und Philip Scholz. Datenschutz durch Anonymitt und Pseud-
onymitt: Rechtsfolgen der Verwendung anonymer und pseudonymer Daten. In:
Multimedia und Recht (MMR) 3.12 (2000), S. 721731.
Rost, Martin und Kirsten Bock. Privacy by Design und die neuen Schutzziele. In:
Datenschutz und Datensicherheit (DuD) 35.1 (2011), S. 3035. DOI: 10.1007/
s11623-011-0009-y.
Schaar, Peter. Lsst sich die globale Internetberwachung noch bndigen? In:
Zeitschrift fr Rechtspolitik (ZRP) 46.7 (2013), S. 214216.
Schneider, Jochen und Niko Hrting. Wird der Datenschutz endlich internettaug-
lich? In: Zeitschrift fr Datenschutz (ZD) 2.5 (2012), S. 199203.
318 Christian L. Geminn und Maxi Nebel

Scholz, Philip. Datenschutz beim Internet-Einkauf: Gefhrdungen - Anforderungen


- Gestaltungen. Bd. 8. Der elektronische Rechtsverkehr. Baden-Baden: Nomos,
2003.
Schwichtenberg, Simon. Pay as you drive neue und altbekannte Probleme. In:
DuD Datenschutz und Datensicherheit 39.6 (2015), S. 378382.
Siedenbiedel, Christian. Revolution der Kfz-Versicherung. In: FAZ.net (13. Jan.
2014). URL: http://www.faz.net/aktuell/nanzen/meine-nanzen/versichern-
und- schuetzen/nachrichten/ueberwachtes- fahrverhalten- revolution- der- kfz-
versicherung-12747505.html (besucht am 08. 09. 2016).
Steinmller, Wilhelm u. a. Grundfragen des Datenschutzes - Gutachten im Auftrag
des Bundesinnenministeriums. Bundestagsdrucksache VI/2826. 1971.
Szczekalla, Peter. Sicherung grund- und menschenrechtlicher Standards gegenber
neuen Gefhrdungen durch private und auslndische Akteure. In: Deutsches
Verwaltungsblatt (DVBl) 129.17 (2014), S. 11081113.
Trute, Hans-Heinrich. Wissenschaft und Technik. In: Handbuch des Staatsrechts,
Band IV: Aufgaben des Staates. Hrsg. von Josef Isensee und Paul Kirchhof. 3.
vllig neubearb. und erw. Au. Heidelberg: C. F. Mller, 2006, S. 747782.
Venzke-Caprarese, Sven. Social Media Monitoring. Analyse und Proling ohne
klare Grenzen? In: DuD Datenschutz und Datensicherheit 37.12 (2013),
S. 775779.
Vesting, Thomas. Die Staatsrechtslehre und die Vernderung ihres Gegenstandes.
2. Bericht. In: Verffentlichungen der Vereinigung der Deutschen Staatsrechts-
lehrer, Bd. 63. Hrsg. von Beatrice Weber-Drler. Berlin: De Gruyter, 2004, S. 41
58.
Weber, Rolf H. Internet-Governance. In: Handbuch Multimedia-Recht: Rechts-
fragen des elektronischen Geschftsverkehrs (Teil 2). Hrsg. von Bernd Holznagel
u. a. 40. Ergnzungslieferung. Mnchen: Beck, 2014.
Weiser, Mark. The Computer for the 21st Century. In: Scientic American 265.3
(1991), S. 94104.
Wilkens, Andreas. China verteidigt massive Strung von VPN-Diensten. In: heise
online (27. Jan. 2015). URL: http://heise.de/-2529233 (besucht am 08. 09. 2016).
Ausblick

Die Zukunft der informationellen Selbstbestimmung


Tobias Matzner und Philipp Richter

1. Die Lage der informationellen Selbstbestimmung


Die Informationelle Selbstbestimmung ist im deutschen Rechtssystem das zentrale
Schutzkonzept, um Persnlichkeitsentfaltung, persnliche und demokratische Frei-
heit beim automatisierten Umgang mit personenbezogenen Daten zu gewhrleisten.
Sie ist seit dem Volkszhlungsurteil von 1983 Grundrecht in Deutschland. Die
informationelle Selbstbestimmung ist dabei kein bloes Recht auf Rckzug aus dem
gesellschaftlichen Leben, kein Recht auf Teilhabe unter diktierten Bedingungen
oder als alternative vllige Nicht-Teilhabe. Informationelle Selbstbestimmung ist
ein Kommunikationsgrundrecht, ein Recht auf verhltnismigen Umgang mit
Wissen ber Personen, die gerade in der Gesellschaft leben und kommunizieren,
auch mit modernsten Techniken und Diensten. Die informationelle Selbstbestim-
mung sagt Ja zur Informations- und Kommunikationsgesellschaft und Ja zum
Grundrechtsschutz.
Aus dem Recht zum selbstbestimmten Umgang mit den eigenen Daten ergibt sich
auch eine Verantwortung dafr, diese Daten nicht unberlegt berall preiszugeben.
Allerdings hat der Selbstbestimmungsaspekt der informationellen Selbstbestim-
mung auch Grenzen. Erstens ist das sogenannte Privacy Paradox (die Menschen
wollen Datenschutz, geben aber berall ihre Daten preis) eine verdrehte Darstellung:
Ja, die Menschen geben berall und stndig ihre Daten preis. Dies ist aber nicht
paradox, denn es besteht ein immenser wirtschaftlicher und sozialer Druck, genau
dies zu tun. Wer an den neuen Diensten nicht teilnimmt, wer nicht mitkommu-
niziert, wer nicht bereit ist, nach den Regeln der Diensteanbieter zu spielen und
hierfr seine Daten preisgibt, der isoliert sich. Dies gilt umso mehr, je strker der
Alltag von Datenverarbeitung durchdrungen wird (Ubiquitous Computing). Die
digitalen Medien haben eine erhebliche Bedeutung fr das Leben der Menschen.
* Dr. Tobias Matzner | Eberhard Karls Universitt Tbingen | tobias.matzner@uni-tuebingen.de
Dr. Philipp Richter | Universitt Kassel | prichter@uni-kassel.de

Springer Fachmedien Wiesbaden GmbH 2017


M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4_18
320 Tobias Matzner und Philipp Richter

Dazu kommt, dass es schwierig ist und immer schwieriger wird, zu durchschauen,
wann welche Daten bei der Nutzung von Informationstechnik anfallen und wo diese
weiterverarbeitet werden, etwa bei Datenhndlern oder Dritten, welche zugekaufte
Dienste anbieten, die fr die Endnutzerinnen und -nutzer nicht erkenntlich sind.
Von einer bewussten, selbstbestimmten Preisgabe der Daten kann also in vielen
Fllen nicht gesprochen werden.
Aber auch demokratische Prozesse, der Meinungs- und Willensbildung nden
immer strker in digitalen Medien statt. Ein selbstbestimmter Umgang mit In-
formationen in diesen Medien ist daher konstitutiv sowohl fr die Ausbung der
individuellen Freiheitsrechte als auch fr die demokratische Willensbildung. Die
Nutzung dieser Medien geht aber mit einer erheblichen Bedrohung der informatio-
nellen Selbstbestimmung und damit auch der Handlungs- und Willensfreiheit einher.
Personenbezogene Daten werden nicht nur genutzt, um das Konsumverhalten von
Menschen gezielt anzuregen, sondern lngst auch um ihre politischen Handlungen
zu beeinussen.
Sieht man das Individuum neoliberal als Einzelkmpfer, der sich selbst um den
Schutz seiner Daten zu kmmern hat, und lsst staatliche und gesellschaftliche Ver-
antwortung auen vor, ignoriert man, dass der oder die Einzelne mit dieser Aufgabe
hoffnungslos berfordert ist. Die genutzte Technik beschrnkt den Handlungsrah-
men individueller Selbstbestimmung auf das, was sie technisch zulsst. Einzelne
Brgerinnen und Brger haben auf diesen technischen Rahmen kaum Einuss.
Auerdem sind sie gegenber IT-Konzernen und Geheimdiensten technisch vllig
unterlegen. Gleichzeitig knnen viele dieser Menschen, und ganz besonders Kinder,
Jugendliche, alte Menschen oder Menschen mit Behinderungen nicht in dem Sinn
selbstbestimmt handeln, wie eine individualistisch-verantwortungsbasierte Auffas-
sung der informationellen Selbstbestimmung suggeriert. Die Rede vom Privacy
Paradox ist ein rhetorisches Mittel, um die informationelle Selbstbestimmung auf
ein Recht zum Rckzug zu reduzieren. Informationelle Selbstbestimmung ist zwar
einerseits Individualschutz, andererseits aber auch Teil der objektiven Werteord-
nung des Grundgesetzes und Schutzauftrag an den Staat. Die erste Herausforderung
fr die informationelle Selbstbestimmung, oder besser gesagt fr alle, die in ihrem
Namen sprechen, in der Welt der sozialen Netzwerke und der allgegenwrtigen
Datenverarbeitung, ist es daher, sich diesen Wesenskern nicht ausreden zu lassen.
Die Folgen von individuellen Handlungen mit Informationstechnik betreffen
zudem nicht nur die Handelnden selbst. Daten, die eine Person preisgibt, erlauben
Rckschlsse ber ganz andere Personen. Selbst wenn diese Person also ihre
informationelle Selbstbestimmung zu ihrer eigenen Zufriedenheit ausben knnte,
kann dies ungewollte und problematische Effekte fr andere haben. Das Selbst der
informationellen Selbstbestimmung wird damit unschrfer. Wer der Betroffene
eines personenbezogenen Datums ist wird unklar in einer Zeit, in der Daten nicht
Ausblick 321

mehr als Speicherung einer Information sondern als immer neu zu interpretierender
und auf andere Daten beziehbarer Rohstoff fr Informationen gelten.
Die informationelle Selbstbestimmung wird derzeit durch zahlreiche sprunghafte
Technologieentwicklungen herausgefordert. Big Data, Ubiquitous Computing und
Smart Everything stellen das Schutzkonzept der informationellen Selbstbestim-
mung fundamental in Frage. Die Idee, dass der Umgang mit personenbezogenen
Daten auf vorher festgelegte Zwecke und auf ein hierfr erforderliches Ma be-
schrnkt wird erscheint vielen schon anachronistisch angesichts der praktischen
Alltagsdienste und groen Verheiungen, die mit der grenzenlosen Verfgbarkeit
der Daten verbunden sind. Datenbasierte Technologien sollen nicht nur ein Motor
fr die Wirtschaft sein, sondern das Gesundheitswesen, Erziehung und Bildung, die
ffentliche Verwaltung und viele andere Bereiche des Lebens verbessern. Vor allem
im kalifornischen Silicon Valley ist die Idee verbreitet, viele soziale und politische
Probleme lieen sich nun technisch lsen.
Zustzlich wurde der Datenschutz in Europa gerade umfassend reformiert. Die
Datenschutz-Grundverordnung gilt ab dem 25. Mai 2018. Auerdem wird hier-
durch bald die EU-Grundrechtecharta, die eine informationelle Selbstbestimmung
zumindest nicht ausdrcklich enthlt, eine zentrale Rolle fr die Auslegung da-
tenschutzrechtlicher Vorschriften spielen. Die informationelle Selbstbestimmung
wird also auch im deutschen Rechtssystem nicht mehr ohne Weiteres das Monopol
auf die Interpretation datenschutzrechtlicher Normen innehaben, sondern es wer-
den auch grundrechtliche Wertevorstellungen anderer EU-Mitgliedstaaten in diese
Auslegung einieen.

2. Hat die informationelle Selbstbestimmung eine Zukunft?


Hat die informationelle Selbstbestimmung ausgedient? Muss die Idee der eigen-
verantwortlichen Nutzer im Zeitalter von Big Data und Ubiquitous Computing
aufgegeben werden? Knnen die relevanten Entscheidungen nur noch von Staaten
getroffen werden oder von anderen Institutionen, wie Verbraucherschutzverbnden
oder transnationalen Organisationen?
Die Idee dass Individuen grundstzlich das Recht haben, selbst ber die Nutzung
ihrer Daten zu bestimmen, bleibt wichtig und richtig. Notwendig ist aber ein Zu-
sammenspiel aus Eigenverantwortung und kollektivem, demokratisch legitimiertem
Schutz. Hier mssen mehrere Elemente ineinandergreifen: Ein interessengerech-
ter Handlungsrahmen, der staatlich reguliert und durchgesetzt wird; in diesem
Handlungsrahmen ein eigenverantwortlicher Selbstdatenschutz; und schlielich
kollektive Prozesse der Aushandlung von Datenschutz unterhalb und oberhalb der
staatlichen Ebene. Wenn Menschen selbst ber den Umgang mit Informationen
322 Tobias Matzner und Philipp Richter

bestimmen, muss das nicht heien jede und jeder Einzelne bestimmt egozentrisch
fr sich. Auch Gruppen, Gemeinschaften, Gesellschaften, Angestellte einer Firma,
Mitglieder eines Berufsverbandes, Brger eines demokratischen Rechtsstaats und
viele mehr knnen auf berindividueller Ebene fr sich selbst bestimmen.
Die informationelle Selbstbestimmung enthlt diese Komponenten, einen staat-
lichen Schutzauftrag als Rahmen fr ein individuell oder kollektiv auszubendes
Grundrecht, von Beginn an. Sie hat daher nicht nur eine Zukunft, sondern ist ge-
nau das Grundrecht und die normativ leitende Idee, die ber dreiig Jahre nach
ihrer Erndung fr die Gestaltung und Anwendung von Informations- und Kom-
munikationstechnik wichtiger ist denn je. Die politische Entscheidung ber den
Umgang mit personenbezogenen Daten in der Welt von Big Data und Ubiquitous
Computing ist keine Entscheidung, die Grokonzernen berlassen werden darf, die
sie an die Menschen nur in der transformierten Form von Konsumentscheidungen
weiterleiten.

3. Die Zukunft der Informationellen Selbstbestimmung:


Impulse fr den Umgang mit Informationstechnologien und
der EU-Datenschutzreform
Technik ist ein entscheidender Faktor, der den Handlungsrahmen relevanter indi-
vidueller und kollektiver Handlungen bestimmt. Wer sollte diese Technik gestal-
ten? Wozu sollte sie eingesetzt werden, wenn sie wie gestaltet ist? Formen der
demokratischen Technikgestaltung mssen erforscht, diskutiert und ausprobiert
werden, denn die Informationstechnik ist Demokratieinfrastruktur. Der politische
Rahmen informationeller Selbstbestimmung muss daher auch die Regulierung
groer, transnationaler Unternehmen beinhalten. Die Vorstellung des Internets als
unregulierbarer Raum ist ein Mythos. Sowohl aus technischer, gesellschaftlicher,
als auch aus konomischer Sicht spricht vieles dafr, dass groe Unternehmen
aus den USA und Europa sich an starke und strenge Datenschutzregeln anpassen
wrden.
In diesem Sinn kann die Informationelle Selbstbestimmung auch ein kritisches
Instrument sein, die neuen Verheiungen einer datengetriebenen Gesellschaft zu hin-
terfragen. Groe Unternehmen verbinden die Aussicht auf einen Datenreichtum,
der konomischen und sozialen Aufschwung bescheren soll, mit der Forderung,
den Privatheitsschutz einzudmmen, weil er diese vorteilhafte Entwicklung auf-
halte. Ein moralischer und rechtlicher Anspruch, dass auch potentiell ntzliche
Entwicklungen nicht ber die Kpfe der Bevlkerung hinweg entschieden werden
drfen insbesondere nicht von gewinnorientierten Unternehmen kann durch die
Selbstbestimmungsrechte gestrkt werden. Dies steht auch in Verbindung mit der
Ausblick 323

Frage, wo die Gewinne der datenbasierten Wirtschaft anfallen. Ist die Gesellschaft
beteiligt am Gewinn durch data mining oder ist sie blo der Datenrohstoff, der
von groen Unternehmen abgebaut wird?
Die weit verbreitete Nutzung der Dienste von Firmen wie Google, Facebook oder
Amazon bedeutet nicht, dass all die Nutzerinnen und Nutzer mit deren Umgang mit
Daten einverstanden wren. Viele nutzen die Dienste widerstrebend, z. B. aufgrund
mangelnder Alternativen, sozialen Drucks, anderer Vorteile, die gerade wichtig sind,
etc. Die kollektive Aushandlung von Datennutzungspraktiken darf sich deshalb
nicht darin erschpfen, Techniken zu nutzen oder eben nicht. Ein Raum fr die
kollektive Aushandlung des Umgangs mit Daten muss dazu in kritische Distanz
treten knnen. In diesem Sinn muss er ein politischer Raum sein.
Der Schutz von Privatheit und informationeller Selbstbestimmung muss als kol-
lektive und solidarische Aufgabe anerkannt werden. Diese braucht einen politischen
und sozialen Rahmen, der die Lsung dieser Aufgabe ermglicht. Dazu gehrt
insbesondere die Strkung reprsentativer Strukturen, auch die Reprsentation der
Interessen von Minderheiten, von Menschen, die keine europische Staatsbrger-
schaft haben, wie z. B. Gechtete und anderer, die in der ffentlichen Debatte oft
zu selten zu Wort kommen. Weitere Formen dieser kollektiven Auseinandersetzung
zu nden, ist ein Auftrag fr die Forschung und die Politik gleichermaen.
Wo die informationelle Selbstbestimmung als Grundrecht durch die Europi-
sche Datenschutzreform nicht mehr anwendbar ist, sondern die EU-Grundrechte
entscheidend werden, wird es schlielich darauf ankommen, das Schutzkonzept
der informationellen Selbstbestimmung in die Rechtsprechung des Europischen
Gerichtshofs bei seiner Auslegung und Konkretisierung dieser Grundrechte hinein
zu transportieren.
Fragen des Umgangs mit Daten mssen auerdem auch im breiteren Kotext von
Fragen ber Wissen und Nichtwissen diskutiert werden. Was sollte wer wissen
und was nicht? Oder besser gesagt, welches Wissen drfen Institutionen und Un-
ternehmen erlangen und welches nicht? Auch Informationen ohne Personenbezug
erffnen neue Strategien der Beeinussung individueller und ffentlicher Willens-
bildung fr die Datenakteure. Unwissen, auch in der Anonymitt, ist ein Bereich
in den die informationelle Selbstbestimmung bisher nicht hineinreicht. Wird sie
dies mssen oder wird dies ein anderes Grundrecht leisten mssen? Auch wenn
es zunchst paradox klingt: Gibt es nicht Bereiche in denen Handlungen nicht auf
Wissen beruhen drfen, sondern sich auf Vertrauen sttzen mssen, um Freiheit zu
erhalten?
Verzeichnis der Verfasserinnen und Verfasser

Prof. Dr. Dominik van Aaken ist Professor fr strategisches Management und
Organisation an der Universitt Salzburg. Er forscht zu Themen der Strategie,
Unternehmensethik und Organisationstheorie.
Prof. Dr. Marion Albers, Studium der Rechtswissenschaft und Soziologie und
Ttigkeit u. a. als wissenschaftliche Mitarbeiterin am Bundesverfassungsgericht,
gegenwrtig Inhaberin des Lehrstuhls fr ffentliches Recht, Informations- und
Kommunikationsrecht, Gesundheitsrecht und Rechtstheorie an der Fakultt fr
Rechtswissenschaft der Universitt Hamburg. Forschungsschwerpunkte: Verfas-
sungsrecht, Informationsrecht, Datenschutz, Gesundheitsrecht, Rechtstheorie und
Rechtssoziologie.
Carlos Becker, M.A. ist wissenschaftlicher Mitarbeiter an der Goethe Universitt
Frankfurt a. M. In seiner Dissertation beschftigt er sich mit der Legitimation
von Widerstandsrechten und zivilem Ungehorsam. Er ist zudem angestellt im
interdisziplinren Forschungsprojekt Strukturwandel des Privaten, in dem er sich
mit dem Verhltnis von kommunikativer Freiheit und Privatheit, dem Konzept der
group privacy und einer sozialphilosophischen Kritik der Privatheit auseinander-
setzt. Weitere Forschungsschwerpunkte liegen im Bereich der Kritischen Theorie,
aktuellen Demokratietheorie und Stadtsoziologie.
Niels Brggen arbeitet seit 2007 als wissenschaftlicher Mitarbeiter am JFF - In-
stitut fr Medienpdagogik in Forschung und Praxis in Mnchen. Seit 2016 ist
er Stellvertreter der Abteilungsleitung Forschung. Er studierte Kommunikations-
und Medienwissenschaft (Schwerpunkt Medienpdagogik), Informatik und Er-
ziehungswissenschaft an der Universitt Leipzig und der Dublin City University
und war anschlieend wissenschaftlicher Mitarbeiter an der Universitt Leipzig.
Schwerpunkte seiner Arbeit sind u. a. Jugendliche und deren Aneignung digita-
ler Medien (z. B. Umgang mit persnlichen Informationen und Konikten im
Netz, Kenntnis ber Verbraucherrechte), die Untersuchung pdagogischer Kon-
zepte zur Arbeit mit Jugendlichen zu Themen wie Big Data, Persnlichkeits- und
Verbraucherrechten sowie die Mediatisierung von Jugendarbeit.
Prof. Dr. Clemens H. Cap hat in Innsbruck Mathematik, Informatik und Physik
studiert. Nach Lehrttigkeiten an den Universitten Zrich und Mannheim leitet
Springer Fachmedien Wiesbaden GmbH 2017
M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4
326 Verzeichnis der Verfasserinnen und Verfasser

er derzeit den Lehrstuhl fr Informations- und Kommunikationsdienste an der


Universitt Rostock. Seine Forschungsinteressen umfassen die Vermittlung von
Inhalten in verteilten, vernetzten Systemen, Sicherheitsfragen und soziale Aspekte
der Informatik.

Malte Dold, M.A. ist seit dem Jahr 2012 wissenschaftlicher Mitarbeiter und Dok-
torand bei Prof. Dr. Tim Krieger, Wilfried-Guth-Stiftungsprofessor fr Ordnungs-
und Wettbewerbspolitik an der Albert-Ludwigs-Universitt Freiburg. In seiner
Promotion beschftigt er sich mit methodologischen und normativen Implikatio-
nen der Experimental- und Verhaltenskonomik. Aktuell besucht Herr Dold die
New York University fr einen neunmonatigen Forschungsaufenthalt bei Prof. Dr.
Mario Rizzo.

Dr. Michael Friedewald leitet das Geschftsfeld Informations- und Kommuni-


kationstechnik am Fraunhofer Institut fr System- und Innovationsforschung ISI
in Karlsruhe. Er studierte Elektrotechnik, Wirtschaftswissenschaften und Tech-
nikgeschichte an der Rheinisch-Westflischen Technischen Hochschule Aachen.
Er beschftigt sich mit Voraussetzungen, Prozessen und Folgen des technischen
Wandels vor allem im Bereich IKT. Er ist Koordinator des vom BMBF gefrderten
Projekts Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt.

Dr. Christian L. Geminn studierte Rechtswissenschaften an der Johannes Guten-


berg-Universitt Mainz und an der De Montfort University Leicester (UK). Er
ist seit 2011 wissenschaftlicher Mitarbeiter an der Universitt Kassel als Teil
der Projektgruppe verfassungsvertrgliche Technikgestaltung (provet) im Wissen-
schaftlichen Zentrum fr Informationstechnikgestaltung (ITeG). 2013 promovierte
er mit einer Arbeit zum Rechtsvertrglichen Einsatz von Sicherheitsmanahmen
im ffentlichen Verkehr. Christian Geminn ist Mitglied im Forum Privatheit
und selbstbestimmtes Leben in der digitalen Welt.

Dipl.-Inform. Jrgen Geuter studierte Informatik und Philosophie an der Uni-


versitt Oldenburg. Er beschftigt sich mit der Beschreibung und Analyse sozio-
technischer Systeme insbesondere auch im Kontext digitalisierter Lebensfhrung.
Dr. Dietmar Kammerer ist wissenschaftlicher Mitarbeiter am Institut fr Me-
dienwissenschaf der Philipps-Universitt Marburg. Er wurde an der Humboldt-
Universitt zu Berlin promoviert mit einer Arbeit zu Bilder der berwachung
(Frankfurt am Main: Suhrkamp 2008). Seither hat er zahlreiche Aufstze und
Beitrge publiziert zu Geschichte, sthetik und Theorie von berwachung, insbe-
sondere von Videoberwachung.
Verzeichnis der Verfasserinnen und Verfasser 327

Dr. Innokentij Kreknin ist wissenschaftlicher Mitarbeiter an der TU Dortmund


und befasst sich in seinem Habilitationsprojekt mit Schlsselliteratur, Fiktion
und Privatheit. Arbeitsschwerpunkte: Autobiographie / Autoktion, Autorschaft
und Subjekttheorien, Medien-, Literatur- und Kulturtheorie, Pop-Literatur, Game
Studies. Publikationen u. a. zur Autoktion in der Gegenwartliteratur (Poetiken
des Selbst. Identitt, Autorschaft und Autoktion, Berlin u. a.: de Gruyter 2014),
Christian Kracht und Rainald Goetz.

Prof. Dr. Tim Krieger ist seit dem Jahr 2012 Inhaber der Wilfried-Guth-Stif-
tungsprofessor fr Ordnungs- und Wettbewerbspolitik an der Albert-Ludwigs-
Universitt Freiburg. Nach dem Studium der Volkswirtschaftslehre an der Universi-
tt Kiel und der Promotion an der Universitt Mnchen war er Juniorprofessor fr
Internationale Wirtschaftspolitik an der Universitt Paderborn sowie Lehrstuhlver-
treter an den Universitten Mainz und Marburg. Seine Forschungsschwerpunkte
liegen im Bereich der Ordnungspolitik, der Wirtschafts-, Sozial- und Bildungspoli-
tik in alternden Gesellschaften in Zeiten der Globalisierung sowie der konomisch
fundierten Kriminalitts-, Gewalt- und Terrorismusforschung.

Prof. Dr. Jrn Lamla ist Universittsprofessor fr Soziologische Theorie am


Fachbereich Gesellschaftswissenschaften sowie Direktor des Wissenschaftlichen
Zentrums fr Informationstechnik-Gestaltung (ITeG) der Universitt Kassel. Jrn
Lamla ist Mitglied im Forum Privatheit und selbstbestimmtes Leben in der
digitalen Welt.

Dr. Tobias Matzner ist Philosoph und Informatiker und arbeitet an der Schnitt-
stelle von politischer Theorie und Technikphilosophie. Seine Forschungsschwer-
punkte sind normative Theorien der Privatheit sowie Probleme von Algorithmen,
Automatisierung und maschinellem Lernen. Er ist Mitglied im Internationalen
Zentrums fr Ethik in den Wissenschaften in Tbingen und derzeit als Feodor
Lynen-Stipendiat an der New School for Social Research in New York ttig.

Dr. Ricarda Moll, Dipl.-Psych., forscht zum Thema Privatheit im Kontext digi-
taler Medien. Nach ihrer Promotion im DFG-Graduiertenkolleg Vertrauen und
Kommunikation in einer digitalisierten Welt arbeitet sie derzeit bei der Verbrau-
cherzentrale NRW im Gemeinschaftsprojekt Marktwchter Digitale Welt.

Dr. Michael Nagenborg hat Philosophie, Literaturwissenschaft und Kunstge-


schichte an der Universitt Karlsruhe (TH) studierte. Seine Dissertation hat er
zum Thema Das Private unter den Rahmenbedingungen der Informations- und
Kommunikationstechnologie (2004) verfasst. Seit 2013 ist er Ass. Professor fr
Technikphilosophie und philosophische Anthropologie an der Universitt Twente
328 Verzeichnis der Verfasserinnen und Verfasser

(NL). Seit 2014 ist er zudem als geschftsfhrender Direktor des 4TU.Centre for
Ethics and Technologies (4TU.Ethics) ttig.

Maxi Nebel, Ass. iur. studierte Rechtswissenschaften an der Friedrich-Alexander-


Universitt Erlangen-Nrnberg und absolvierte ihr Rechtsreferendariat in Nrn-
berg und Washington, DC. Seit 2012 arbeitet sie als wissenschaftliche Mitar-
beiterin in der Projektgruppe verfassungsvertrgliche Technikgestaltung (provet)
im Wissenschaftlichen Zentrum fr Informationstechnikgestaltung (ITeG) an der
Universitt Kassel. Dort befasst sie sich vorrangig mit allen Themen rund um
informationelle Selbstbestimmung und Privatheit im Internet, speziell mit sozia-
len Netzwerken, sowie mit dem Thema Ersetzendes Scannens. Maxi Nebel ist
Mitglied im Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt.
Dr. Andreas Ostermaier arbeitet an der TUM School of Management der Techni-
schen Universitt Mnchen. Seine Forschungsschwerpunkte liegen in Controlling
und Ethik. Insbesondere interessiert er sich fr Fragen, die beide Bereiche zugleich
berhren.

Prof. Dr. Dres. h.c. Arnold Picot leitet die Forschungsstelle fr Information, Or-
ganisation und Management der LMU Mnchen. Er interessiert sich insbesondere
fr Wechselwirkungen zwischen IuK-Technologien und Strukturen von Mrkten
und Unternehmen.

Dipl.-Inform. Andreas Poller arbeitet seit 2001 in der Fraunhofer-Gesellschaft


und seit 2006 am Fraunhofer-Institut SIT. Seine Ttigkeitsschwerpunkte sind
Sicherheitsanalysen von IT-Systemen und Prozessen, Forschung an Verfahren
zur sicheren Softwareentwicklung und Privatsphrenschutz in Soziale-Netzwerke-
Plattformen.

Dr. habil. Ramn Reichert war 2009-13 Professor fr Digitale Medien am In-
stitut fr Theater-, Film- und Medienwissenschaft der Universitt Wien. Seit
Frhjahr 2014 ist er Leiter der postgradualen Masterstudiengnge Data Studies
und Cross Media an der Donau-Uni Krems und als leitender Herausgeber und
Chefredakteur der internationalen Fachzeitschrift Digital Culture & Society
ttig. Er lehrt und forscht mit besonderer Schwerpunktsetzung des Medienwandels
und der gesellschaftlichen Vernderungen in den Wissensfeldern von Theorie und
Geschichte digitaler Medien.

Dr. Philipp Richter ist wissenschaftlicher Mitarbeiter am Fachgebiet ffentliches,


insb. Umwelt- und Technikrecht an der Universitt Kassel und Geschftsfhrer der
Projektgruppe verfassungsvertrgliche Technikgestaltung (provet) im Wissen-
schaftlichen Zentrum fr Informationstechnik-Gestaltung (ITeG) der Universitt
Verzeichnis der Verfasserinnen und Verfasser 329

Kassel. Seine Forschungsschwerpunkte sind die Modernisierung des Datenschutz-


rechts im Angesicht der fortschreitenden Digitalisierung, die elektronische Demo-
kratie und das Verhltnis von Recht und Informationsstechnik.

Prof. Dr. Alexander Ronagel ist Universittsprofessor fr ffentliches Recht


mit dem Schwerpunkt Recht der Technik und des Umweltschutzes am Fachbe-
reich Wirtschaftswissenschaften und Direktor des Wissenschaftlichen Zentrums
fr Informationstechnik-Gestaltung (ITeG) an der Universitt Kassel. Alexander
Ronagel ist Sprecher des Projekts Forum Privatheit und selbstbestimmtes Leben
in der digitalen Welt.

Dipl.-Inform. Sven Trpe ist Informatiker und Enfant terrible zweiter Klasse am
Fraunhofer-Institut SIT. Er beschftigt sich vor allem mit Sicherheitsanalysen,
Sicherheitsparadigmen und nichttechnischen Sicherheitsfaktoren.

Dipl.-Inform. Max- R. Ulbricht war nach Abschluss seines Diplom-Studiums


der Informatik wissenschaftlicher Mitarbeiter am Fachgebiet Informatik & Ge-
sellschaft und wechselte danach zur Forschungsgruppe Information Systems En-
gineering. Neben Fragen der Technologie-Regulierung liegen seine Forschungs-
schwerpunkte in den Bereichen Privacy Enhancing Technologies, Consent Mana-
gement sowie Privacy-Preserving Data Integration.

Dr. Ulrike Wagner studierte Kommunikationswissenschaft und Politologie an der


Universitt Salzburg und der Universit degli Studi di Pavia, Doktoratsstudium an
der Universitt Leipzig. Von 2001 bis 2009 wissenschaftliche Mitarbeiterin am
JFF Institut fr Medienpdagogik in Forschung und Praxis, von 2010 bis 2016
Direktorin des JFF.

Prof. Dr. Karsten Weber ist Ko-Leiter des Instituts fr Sozialforschung und Tech-
nikfolgenabschtzung an der OTH Regensburg und Honorarprofessor fr Kultur
und Technik an der BTU Cottbus-Senftenberg. Er beschftigt sich unter anderem
mit Technikethik, -bewertung und folgenabschtzung vor allem im Bereich der
Informations- und Kommunikationstechnologie.

Bettina Weelmann ist Fachjournalistin und Beraterin fr kommunikative Aspek-


te der Informationssicherheit und des Datenschutzes. Ihre Spezialgebiete sind
unter anderem die menschlichen und kulturellen Einussfaktoren auf Informations-
sicherheit, die Sensibilisierung von IT-Anwendern fr Belange der IT-Sicherheit
sowie Strategien gegen Social Engineering.

Dr. Johannes Wiele arbeitet als Managing Consultant fr Informationssicherheit


und Datenschutz mit den Spezialgebieten Security Intelligence und Cognitive
330 Verzeichnis der Verfasserinnen und Verfasser

Computing. Er ist Lehrbeauftragter fr menschliche und kommunikative Fak-


toren der Informationssicherheit am Institut fr Internet-Sicherheiit (if(is)) der
Westflischen Hochschule, Gelsenkirchen, und zertizierter betrieblicher Daten-
schutzbeauftragter (GDDCert).

Dr. Max Winter studierte Philosophie und Geschichtswissenschaften in Freiburg


im Breisgau und Rom. Er wurde mit einer Arbeit zu Hegels formaler Geschichts-
philosophie an der Universitt Basel promoviert. Seine Forschungsschwerpunkte
liegen in der Philosophie des Deutschen Idealismus, der Politischen Philosophie
und der Wirtschaftsphilosophie.
Abkrzungen

AEUV Vertrags ber die Arbeitsweise der Europischen Union


AGB Allgemeine Geschftsbedingungen
AOK Allgemeine Ortskrankenkasse

BDSG Bundesdatenschutzgesetz
BGH Bundesgerichtshof
BLM Bayerischen Landeszentrale fr neue Medien
BNDG Gesetz ber den Bundesnachrichtendienst
BVerfG Bundesverfassungsgericht

CIA Central Intelligence Agency

DIN Deutsches Institut fr Normung


DIVSI Deutsches Institut fr Vertrauen und Sicherheit im Internet
DS-GVO Datenschutz-Grundverordnung

EFF Electronic Frontier Foundation


EGMR Europische Gerichtshof fr Menschenrechte
eID Elektronische Identizierungen
EMRK Europische Menschenrechtskonvention
EuGH Europische Gerichtshof

GG Grundgesetz
GPS Global Positioning System
GrC Grundrechte der Charta der Europischen Union; Grundrechte-
Charta

HTTP Hypertext Transfer Protocol

ICANN Internet Corporation for Assigned Names and Numbers


IEC International Electrotechnical Commission
IEEE Institute of Electrical and Electronics Engineers
IETF Internet Engineering Task Force
Springer Fachmedien Wiesbaden GmbH 2017
M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4
332 Abkrzungen

IP Internet Protocol
IPbpR Internationaler Pakt ber brgerliche und politische Rechte
iSB informationelle Selbstbestimmung
ISO International Organization for Standardization
IT Informationstechnik
i.V.m. in Verbindung mit

JOW Jugendliche und Online-Werbung im Social Web (Studie)

LTE Long Term Evolution

MMORPG Massively Multiplayer Online Role-Playing Game

NJW Neue Juristische Wochenschrift


NSA National Security Agency
NTIA National Telecommunications and Information Administration

OECD Organisation for Economic Co-operation and Development


OLG Oberlandesgericht

PI Privatsphre in Sozialen Netzwerkdiensten (Studie)

SCA Stored Communications Act


SNS Social Networking Sites
StGB Strafgesetzbuch

TA Trusted Authority
TKG Telekommunikationsgesetz
TLS Transport Layer Security
TOR The Onion Routing; The Onion Router

VPN Virtual Private Network

WLAN Wireless Local Area Network

W3C World Wide Web Consortium

Das könnte Ihnen auch gefallen