Beruflich Dokumente
Kultur Dokumente
Informationelle
Selbstbestimmung
im digitalen Wandel
DuD-Fachbeitrge
Herausgegeben von
H. Reimer, Erfurt, Deutschland
K. Rihaczek, Bad Homburg v.d. Hhe, Deutschland
A. Ronagel, Kassel, Deutschland
Die Buchreihe ergnzt die Zeitschrift DuD Datenschutz und Datensicherheit
in einem aktuellen und zukunftstrchtigen Gebiet, das fr Wirtschaft, ffentliche
Verwaltung und Hochschulen gleichermaen wichtig ist. Die Thematik verbindet
Informatik, Rechts-, Kommunikations- und Wirtschaftswissenschaften.
Den Lesern werden nicht nur fachlich ausgewiesene Beitrge der eigenen Diszi
plin geboten, sondern sie erhalten auch immer wieder Gelegenheit, Blicke ber den
fachlichen Zaun zu werfen. So steht die Buchreihe im Dienst eines interdisziplin
ren Dialogs, der die Kompetenz hinsichtlich eines sicheren und verantwortungs
vollen Umgangs mit der Informationstechnik frdern mge.
Herausgegeben von
Prof. Dr. Helmut Reimer Prof. Dr. Alexander Ronagel,
Erfurt Universitt Kassel
Dr. Karl Rihaczek
Bad Homburg v.d. Hhe
Michael Friedewald Jrn Lamla
Alexander Ronagel
(Hrsg.)
Informationelle
Selbstbestimmung
imdigitalen Wandel
Herausgeber
Dr. Michael Friedewald Prof. Dr. Alexander Ronagel
Fraunhofer Institut fr System- Universitt Kassel
und Innovationsforschung Deutschland
Karlsruhe, Deutschland
DuD-Fachbeitrge
ISBN 978-3-658-17661-7 ISBN 978-3-658-17662-4 (eBook)
DOI 10.1007/978-3-658-17662-4
Springer Vieweg
Springer Fachmedien Wiesbaden GmbH 2017
Das Werk einschlielich aller seiner Teile ist urheberrechtlich geschtzt. Jede Verwertung, die
nicht ausdrcklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung
des Verlags. Das gilt insbesondere fr Vervielfltigungen, Bearbeitungen, bersetzungen,
Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem
Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche
Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten
wren und daher von jedermann benutzt werden drften.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informa
tionen in diesem Werk zum Zeitpunkt der Verffentlichung vollstndig und korrekt sind.
Weder der Verlag noch die Autoren oder die Herausgeber bernehmen, ausdrcklich oder
implizit, Gewhr fr den Inhalt des Werkes, etwaige Fehler oder uerungen. Der Verlag bleibt
im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in verffentlichten
Karten und Institutionsadressen neutral.
Max Winter
Demokratietheoretische Implikationen des Rechts auf informationelle
Selbstbestimmung 37
Ricarda Moll
Die Zukunft des Rechts auf informationelle Selbstbestimmung aus me-
dienpsychologischer Sicht 49
Michael Nagenborg
Informationelle Selbstbestimmung und die Bestimmung des Selbst 65
Dietmar Kammerer
Das mehrfache Selbst der Selbstbestimmung im Kontext elektronischer
Kommunikation: Eine Annherung ber den Umweg der Rhetorik von
Daten 73
Carlos Becker
Kritische Theorie des Privaten: Ortbestimmung einer Sozialkritik der
Privatheit und ihre Verteidigung 147
Clemens H. Cap
Verpichtung der Hersteller zur Mitwirkung bei informationeller Selbst-
bestimmung 249
Abkrzungen 331
Vorwort
Um im interdisziplinren Dialog die Herausforderungen des digitalen Wandels fr
die informationelle Selbstbestimmung zu analysieren, verschiedene Bedeutungs-
varianten und Konzepte von Selbstbestimmung in einer digitalen Gesellschaft zu
diskutieren sowie konstruktive Bausteine fr eine zukunftsgerechte Gewhrleistung
von individueller und kollektiver Selbstbestimmung zu errtern, veranstaltete das
Forum Privatheit und selbstbestimmtes Leben in der Digitalen Welt am 26. und
27. November 2015 in Berlin die Konferenz Die Zukunft der informationellen
Selbstbestimmung. Der vorliegende Band prsentiert die wichtigsten Vortrge und
reektiert die Diskussionen zu ihnen.
Das Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt
(http://www.forum-privatheit.de) ist ein vom Bundesministerium fr Bildung und
Forschung gefrdertes Projekt, das ausgehend von technischen, juristischen, ko-
nomischen sowie geistes- und gesellschaftswissenschaftlichen Anstzen an einem
interdisziplinr fundierten, zeitgemen Verstndnis der Rolle von Privatheit ar-
beitet. Hieran anknpfend werden Konzepte zur (Neu-)Bestimmung und Gewhr-
leistung informationeller Selbstbestimmung und des Privaten in der digitalen Welt
erstellt. Das Forum Privatheit versteht sich ber seine Kerndisziplinen hinaus als
eine Plattform fr den fachlichen Austausch und erarbeitet Orientierungswissen fr
den ffentlichen Diskurs in Form wissenschaftlicher Publikationen, Tagungen und
White-Papers. Mitglieder des Forums Privatheit und selbstbestimmtes Leben in der
digitalen Welt sind das Fraunhofer-Institut fr System- und Innovationsforschung
ISI, Karlsruhe, das Fraunhofer-Institut fr Sichere Informationstechnologie SIT,
Darmstadt, das Fachgebiet Soziologische Theorie und die Projektgruppe verfas-
sungsvertrgliche Technikgestaltung (provet), beide Mitglieder des Wissenschaftli-
chen Zentrums fr Informationstechnik-Gestaltung an der Universitt Kassel, der
Lehrstuhl fr Medienpsychologie der Universitt Hohenheim, Stuttgart, das Interna-
tionale Zentrum fr Ethik in den Wissenschaften (IZEW) der Universitt Tbingen,
das Institut fr Wirtschaftsinformatik und neue Medien der Ludwig-Maximilians-
Universitt Mnchen und das Unabhngiges Landeszentrum fr Datenschutz (ULD)
Schleswig-Holstein, Kiel.
Die Herausgeber haben gern die Bitte des Forums aufgenommen, die Publikation
eines Konferenzbandes zu organisieren. Sie danken den Autorinnen und Autoren
fr ihre Bereitschaft, ihre Beitrge fr diese Verffentlichung zu berarbeiten. Sie
danken dem gesamten Team des Projekts Forum Privatheit, insbesondere dem
X Vorwort
Nicht nur Facebook, Google, Big Data, Cloud Computing, weltweite Geheimdienst-
berwachung und Vorratsdatenspeicherung, auch die Entwicklung des vernetzten
Automobils, des Smart Homes oder der krpernahen vernetzten Sensorik und
andere Anwendungen der Informationstechnik machen deutlich, dass sich nor-
mative Vorstellungen von Freiheit durch informationelle Selbstbestimmung im
heutigen digitalen Zeitalter vor massive Herausforderungen gestellt sehen. Eine
solche Selbstbestimmung ist uerst voraussetzungsreich. Dies gilt sowohl mit
Blick auf das adressierte Individuum und seine pragmatischen Handlungs- und
Entscheidungssituationen. Dies gilt aber auch mit Blick auf die technischen, rechtli-
chen, wirtschaftlichen, sozio-kulturellen und politischen Rahmenbedingungen, etwa
verlsslichen Institutionen oder Konventionen, verfgbaren Handlungsmittel und
Verteilungen des Wissens sowie geeigneten Sanktionspotentiale. Zu bercksichtigen
sind ebenso die Anreizstrukturen, die von den unmittelbaren Vorteilen der Nutzung
von Informationstechnik fr das alltgliche Leben, etwa fr die Bearbeitung von
Arbeitsaufgaben oder fr die Konsum- und Freizeitgestaltung, ausgehen oder sich
in typischen Geschftsmodellen manifestieren. Die zunehmend unbersichtliche
und immer weiter fortschreitende Digitalisierung des sozialen Lebens stellt die
gesellschaftliche Verwirklichung informationeller Selbstbestimmung auf vielen
Feldern vor groe Hrden.
Daher ist es dringend notwendig, konstruktiv und gestaltungsorientiert, aber
auch kritisch und richtungsoffen ber die Zukunft der informationellen Selbstbe-
stimmung im digitalen Wandel zu diskutieren. Nur im interdisziplinren Dialog
lassen sich Fragen klren, wie weit die durch das Bundesverfassungsgericht vor-
genommene rechtliche Normierung der informationellen Selbstbestimmung noch
trgt, in welchen informationstechnischen Anwendungsfeldern sie der Ergnzung
oder Erneuerung bedarf und welche Ansatzpunkte sich in der Demokratie oder in
der Verfassungsrechtsprechung selbst hierfr nden lassen. Im digitalen Wandel
drngen sich aber auch Fragen auf, welche Rolle informationelle Selbstbestimmung
in der modernen Freiheitsvorstellung und ihrer historischen Entwicklung genau
spielt, welche Bedeutung ihr mit Blick auf den Schutz und die Neugestaltung von
Privatheit eigentlich zukommt und welche Alternativen sich in der Ausdeutung
dieser Zusammenhnge abzeichnen. Hierbei ist zu bercksichtigen, dass in der
Gesellschaft unterschiedliche Vorstellungen und Interpretationen darber bestehen
und aufeinandertreffen, was informationelle Selbstbestimmung genau bedeuten
und in welche Richtung sie sich entwickeln soll. Daneben gilt es, diese normativen
Vorstellungen zu den stark technikgetriebenen empirischen Wandlungsprozessen in
der Wirtschaft, der Politik, den sozialen Netzwerken oder der Kultur ins Verhltnis
zu setzen und zu klren, welche Bedrohungen und Gefahren sich darin fr ein derart
fundiertes individuelles Freiheitsverstndnis abzeichnen, aber auch welche Chan-
cen der digitale Wandel fr dessen gesellschaftliche Realisierung noch bereithalten
knnte.
In der deutschen Verfassungsrechtsprechung gilt das Grundrecht auf informa-
tionelle Selbstbestimmung als eine zeitgeme Weiterentwicklung des Persnlich-
keitsschutzes angesichts der modernen Datenverarbeitung. Um die Risiken der
Datenverarbeitung fr den Schutz der Persnlichkeit zu erfassen hat sich die Ori-
entierung an rumlichem Denken (unterschiedlich schutzwrdige Intim-, Privat-
und ffentlichkeitssphren) nicht mehr als praktikabel erwiesen. In einer virtuellen
Welt ist dies noch weniger mglich. Ausgangspunkt des Persnlichkeitsschutzes
ist vielmehr die Befugnis jedes Einzelnen, selbst darber zu bestimmen, welche
Daten von ihm andere verarbeiten knnen sollen. Grenzen und Grenzziehungen
des geschtzten Handelns ergeben sich nicht mehr aus der Interpretation von Privat
oder ffentlich durch ein Unternehmen, eine Behrde oder einen Richter, son-
dern werden vom Gesetzgeber festgelegt. Die informationelle Selbstbestimmung
soll gewhrleistet werden durch die Datenschutzprinzipien der Transparenz, der
Zweckbindung, der Erforderlichkeit und der Betroffenenrechte. Jedes dieser Prin-
zipien stt jedoch angesichts der neuen Anwendungen der Informationstechnik
an Grenzen. Daher stellt sich die dringende Frage, wie diese Prinzipien angepasst
oder ergnzt werden mssen, um Datenschutz auch im digitalen Wandel zu ge-
whrleisten. Zu klren ist, welche Verwirklichungsbedingungen die informationelle
Selbstbestimmung bentigt und wie diese gesichert werden knnen.
Hierbei gilt es zu bercksichtigen, dass die Normen der Privatheit und der indivi-
duellen Freiheit Gegenstand vielfltiger Auseinandersetzungen in unterschiedlichen
wissenschaftlichen Disziplinen sind, in denen zum einen ihr genauer Gehalt und
ihre Implikationen in verschiedene Richtungen ausgedeutet sowie zum anderen ihre
Folgen fr die gesellschaftliche Entwicklung und umgekehrt, d. h. die Folgen des
historischen Wandels fr die Freiheitsnormen analysiert werden. So gilt es etwa
zu klren, welche Konsequenzen verschiedene Freiheitsbegriffe fr die Konzeptua-
Einleitung: Informationelle Selbstbestimmung im digitalen Wandel 3
Der dritte Teil des Bandes ist schlielich der Weiterentwicklung und knftigen
Ausgestaltung der informationellen Selbstbestimmung gewidmet. Diese Aufgaben
richten sich nicht nur an Politik und Technik, sondern erfordern eine disziplinen-
bergreifende Anstrengung, wie die folgenden Beitrge deutlich machen. Sie zeigen
in der Gesamtschau nmlich deutlich, dass Politik und Technik in der Gestaltung
der digitalen Welt gar nicht zu trennen sind.
In seinem Beitrag Rettung der informationellen Selbstbestimmung durch die
Teilung der digitalen Sphre? Ein Vorschlag aus subjekttheoretischer Perspektive
geht Innokentij Kreknin (Technische Universitt Dortmund) der Frage nach, ob
die Idee der der informationellen Selbstbestimmung in einer digitalisierten und
vernetzten Mediengesellschaft noch praktikabel ist. Obwohl er diese Frage aus sub-
jekttheoretischer Perspektive verneint, da aktuell lediglich graduale und relationale
Formen als Balanceakt zwischen Autonomie und Heteronomie umgesetzt werden
knnen, sieht der Autor mgliche Lsung in autoktionalen Poetiken, auf denen
aufbauend er einen Vorschlag zur Weiterentwicklung der informationellen Selbst-
bestimmung durch die Entwicklung von geteilten und abgeschotteten digitalen
Handlungssphren macht.
Im Beitrag Emission statt Transaktion: Weshalb das klassische Datenschutzpa-
radigma nicht mehr funktioniert eruieren Sven Trpe, Andreas Poller (Fraunhofer
SIT, Darmstadt) und Jrgen Geuter (Oldenburg), wie Datenschutz als Werkzeug
zum Schutz des Individuums im Internet of Everything neu ausgestaltet wer-
den kann. Sie argumentieren, dass die Datenbank als klassisches Technik- und
Organisationsparadigma des herkmmlichen Datenschutzes den heute allgegen-
wrtigen vernetzten Systemen und Technologien maschinellen Lernens nicht mehr
angemessen ist. Sie schlagen deshalb die Metapher der Datenemission vor, die
die Folgen fr die Betroffenen erkennbar macht: Jeder sendet fortlaufend Daten
aus wie eine Lichtquelle Photonen. Diese Daten verbreiten sich und werden von
anderen empfangen und verwendet. Unter diesen Bedingungen mssen die Mittel
eines modernen Datenschutzes funktionieren.
Clemens H. Cap (Universitt Rostock) macht in seinem Kapitel Verpichtung
der Hersteller zur Mitwirkung bei informationeller Selbstbestimmung Vorschlge
zur Weiterentwicklung des Datenschutzrechts, bei dem nicht nur die Verantwort-
lichen fr die Datenverarbeitung, sondern auch und vor allem die Hersteller von
Soft- und Hardware strker einbezogen werden. Dazu zeigt Cap, wie dem Benutzer
heute systematisch die Hoheit ber seine Daten genommen und die Wahrnehmung
seines Rechts auf informationelle Selbstbestimmung verweigert wird. Lsungsan-
stze knnten durch eine Emanzipierung der Benutzer im Sinne einer digitalen
Aufklrung gesucht werden; deren Schwche jedoch deutet eher auf regulatorische
Manahmen hin, wie sie der Verbraucherschutz in vielen anderen Branchen lange
kennt.
8 Michael Friedewald, Jrn Lamla, Alexander Ronagel
Informationelle Selbstbestimmung:
Normative Grundlagen im Wandel
Informationelle Selbstbestimmung als vielschichtiges
Bndel von Rechtsbindungen und Rechtspositionen
Marion Albers
1. Einleitung
Das Recht auf informationelle Selbstbestimmung gehrt in Deutschland zu den zen-
tralen Leitgedanken des Datenschutzes. Im Anschluss an das Volkszhlungsurteil
des Bundesverfassungsgerichts (BVerfG) ist es in gesellschaftlichen Diskussionen
ebenso wie in verschiedenen Wissenschaftsdisziplinen populr geworden. Mittler-
weile wird es zudem in einigen transnationalen Debatten erwhnt.1
In den Diskussionen ist allerdings oft nicht klar, was informationelle Selbst-
bestimmung genau bedeutet. Meist wird sie mit eher diffusen Vorstellungen ver-
knpft, dass jeder eine gewisse Kontrolle ber seine Daten haben msse. Ihre
breite Popularitt erklrt sich nicht zuletzt damit, dass sie vage und implikations-
reich zugleich ist. Dieser Beitrag beschftigt sich aus rechtlicher Sicht mit ihren
Grundlagen und ihrer Konzeption, den Folgen und den Herausforderungen. Die
Bedeutung und die Funktionen, die (das Recht auf) informationelle Selbstbestim-
mung aus dieser Perspektive hat, erschlieen sich nur im Blick auf bergreifendere
rechtliche Zusammenhnge.
Meine berlegungen mnden in mehrere Ergebnisse. Fr die Entwicklung des
Schutzes einzelner Personen im Hinblick auf den Umgang mit sie betreffenden
Daten und Informationen hat das in seinen Grundzgen im Volkszhlungsurteil
entwickelte Recht auf informationelle Selbstbestimmung (2.1) entscheidende Fort-
schritte gebracht. Das gilt unter anderem, weil es sich durch einen unmittelbaren
Bezug auf die Daten- und Informationsebene auszeichnet, dabei einen relativ hohen
Abstraktionsgrad aufweist und so die Privatsphre als das bis dahin zentrale
Schutzgut abgelst hat (2.2). Privatsphre oder auch Privatheit sind mit he-
2 Ausfhrungen zur Privatheit als Konzept und zu den verschiedenen Relationen zwischen Privatheit
und Recht: Albers, Privatheitsschutz als Grundrechtsproblem, S. 15ff.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 13
Hinweise auf die Relativitt der Privatsphre11 hoben die Pluralisierung und
Individualisierung des Privatheitsverstndnisses hervor. Grundrechtsdogmatisch
lsst sich diese Kritik aber auffangen, indem man das Selbstverstndnis der ge-
schtzten Personen bei der Konkretisierung des Schutzbereichs so weit wie mglich
bercksichtigt und im brigen, wie es im Recht immer erforderlich ist, typisiert.
Entscheidend war und ist ein anderer Kritikpunkt: Fr Datenschutzerfordernisse
komme es weniger auf die private Sphre als Entstehungskontext bestimmter Daten
als vielmehr darauf an, welche Informationen aus erlangten Daten gewonnen und
wie sie verwendet wrden.12 Dieses Argument lenkt den Blick von Daten auf die
Gewinnung und Verwendung von Informationen und auf deren Folgen fr die
betroffene Person. Es trifft die zentrale Schwche des Privatsphrenkonzepts. In
der Rechtsprechung des BVerfG hat es schnell Flle gegeben, in denen man Infor-
mationen mit Blick auf ihren Aussagegehalt als privat einstufen konnte, ohne
dass sie einer privaten Sphre entstammten. Beispiel ist ein in der Regenbogen-
presse abgedrucktes Interview mit Prinzessin Soraya ber Privatangelegenheiten,
das die Presse frei erfunden hatte.13 Im Volkszhlungsurteil greift das BVerfG
ausdrcklich das Argument auf, dass dem Verwendungszusammenhang fr die
rechtliche Beurteilung von Daten(verarbeitungen) zentrale Bedeutung zukommen
muss. Damit rckt es den Umgang mit personenbezogenen Daten und Informatio-
nen als solchen in den Mittelpunkt. Der darauf gerichtete Grundrechtsschutz wird
exibilisiert und fr vielfltige Schutzerfordernisse geffnet. Die damals wie heute
relevante berwachung von politischen Aktivitten oder von Demonstrationen
beispielsweise lsst sich nicht unter die Privatsphre und bestenfalls mit Mhe
unter eine erweitert verstandene Privatheit qulen. Privatheit mag, angemessen
konzipiert, Teilfacetten des Datenschutzes erfassen; Datenschutz ist aber weitaus
mehr als Privatheitsschutz. Der unmittelbar auf personenbezogene Daten und Infor-
mationen gerichtete Schutz und die ffnung fr vielfltige, gegebenenfalls knftig
erst entstehende Schutzerfordernisse sind ein wichtiger Fortschritt, den das Recht
auf informationelle Selbstbestimmung gebracht hat.
beschrnktes Denken fehl. Informationen, aber auch Daten knnen einer Person
selbst dann, wenn sie in ihrem Aussagegehalt auf diese Person verweisen, nicht
grundstzlich16 eigentumshnlich zugeordnet werden.17 Ein solcher Ansatz passt
nicht und er zieht eine Vielzahl weiterer Dezite nach sich.
Der Schutzbereich des Rechts auf informationelle Selbstbestimmung bezieht sich
auf Daten, nher auf das einzelne personenbezogene Datum, und im Weiteren auf
dessen Verarbeitung in einer Abfolge bestimmter Schritte Erhebung, Speicherung,
Vernderung, Nutzung, bermittlung. Damit gelangt man zu einem isolierend auf
einzelne Daten und Verarbeitungsschritte ausgerichteten Blick statt, wie es gegen-
standsgerecht wre, zu einem kontext- und prozessbezogenen Ausgangspunkt, in
dessen Rahmen sich problembezogen bestimmte Verarbeitungsschritte fokussie-
ren lieen. Wegen der Fassung des Schutzgehalts und des daraus resultierenden
Erfordernisses einer gesetzlichen Regelung fr jeden Schritt der Verarbeitung perso-
nenbezogener Daten ist im Laufe der Zeit eine Flle gesetzlicher Vorschriften ent-
standen, die jedoch zum Teil wenig substantiellen Steuerungsgehalt aufweisen und
mit den sachbezogenen Vorschriften des jeweiligen Regelungsfeldes unzureichend
abgestimmt sind. Verrechtlichungsfalle lautet hierzu das Schlagwort. Des weite-
ren kommt nicht hinreichend zum Ausdruck, welch elementare Rolle Kenntnis-,
Einuss- und Partizipationsrechte der betroffenen Personen im Datenschutzrecht
spielen mssen. Sowohl unter inhaltlichen als auch unter grundrechtsdogmatischen
Aspekten greifen die Lsungen des Gerichts zu kurz.
16 Formen der Kommerzialisierung sind unabhngig davon, ob man sie in Teilbereichen fr sinnvoll
hlt oder nicht vgl. dazu Weichert, Die konomisierung des Rechts auf informationelle Selbst-
bestimmung, S. 1464ff.; Wem gehren die privaten Daten?, bes. S. 283ff. immer (nur) eine un-
terverfassungsrechtliche Frage der gesetzgeberischen Gestaltung von Eigentumsrechten. Vgl. auch
den allenfalls in begrenzten Feldern berzeugenden Ansatz bei Buchner, Informationelle Selbstbe-
stimmung im Privatrecht, S. 201ff. Siehe auerdem Buchner, Die Einwilligung im Datenschutz-
recht, S. 39ff. Ebenfalls zur Diskussion, wenn auch nicht immer berzeugend, Unseld, Die Kom-
merzialisierung personenbezogener Daten.
17 Die Kritik daran ist im juristischen Kontext zunehmend verbreitet, vgl. etwa Albers, Zur Neu-
konzeption des grundrechtlichen Datenschutzes, S. 113, 119, 123; Trute, Verfassungsrechtliche
Grundlagen, Kap. 2.5, Rn. 19, 21, 22; Ladeur, Das Recht auf informationelle Selbstbestimmung,
S. 48ff.; Britz, Informationelle Selbstbestimmung zwischen rechtswissenschaftlicher Grundsatz-
kritik und Beharren des Bundesverfassungsgerichts, S. 566ff. Vgl. auch Allen, Privacy As Data
Control, S. 865ff.
18 Marion Albers
18 Vgl. hierzu bereits ausfhrlich Albers, Umgang mit personenbezogenen Informationen und Da-
ten, 22 Rn. 62ff.
19 Vgl. zuletzt aus der stndigen Rechtsprechung BVerfG, Urteil vom 19.04.2016, 1 BvR 3309/13, Rn.
56, abrufbar unter http://www.bverfg.de.
20 BVerfGE 115, 320 (342ff.). Die Auseinandersetzung mit dem Schutzgehalt des Rechts auf infor-
mationelle Selbstbestimmung liegt bei der Rasterfahndung nahe: Einerseits bedingt diese Methode
der rechnergesttzten Massendatenverarbeitung die Erhebung und Verarbeitung einer Vielzahl ein-
zelner, dabei auch fr sich genommen belangloser personenbezogener Daten, deren Verarbeitung
unter bestimmten Umstnden praktisch folgenlos bleiben kann; andererseits steht dies im Kontext
sicherheitsbehrdlicher Ermittlungen mit deren potenziellen Folgen fr davon Betroffene.
21 Vgl. auch die Reformulierung in BVerfGE 118, 168 (185); 120, 378 (399); 130, 151 (183f.), es ge-
be unter den Bedingungen der elektronischen Datenverarbeitung bzw. angesichts der Verarbeitungs-
und Verknpfungsmglichkeiten kein schlechthin, also ungeachtet des Verwendungskontextes, be-
langloses personenbezogenes Datum (Hervorhebung von M. A.).
22 Vgl. etwa BVerfGE 133, 277 (350ff.).
23 BVerfGE 118, 168 (184f.); 120, 274 (312); 120, 351 (360); 120, 378 (397ff.). Vgl. auch BVerfG
(Kammer), Beschl. vom 24.07.2015, 1 BvR 2501/13, http://www.bverfg.de, Rn. 11: Das Recht auf
informationelle Selbstbestimmung trgt Gefhrdungen und Verletzungen der Persnlichkeit Rech-
nung, die sich fr den Einzelnen aus informationsbezogenen Manahmen ergeben.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 19
24 BVerfGE 120, 274 (344f.); 120, 351 (361f.). Die Ausfhrungen betreffen das bloe behrdliche
Surfen im Internet oder Angaben aus Telefonbchern oder Handelsregistern. Vgl. auch die Aus-
fhrungen in BVerfGE 120, 378 (399). In der Entscheidung zur Online-berwachung verneint das
Gericht einen Eingriff grundstzlich selbst dann, wenn eine staatliche Stelle unter Verschleierung
ihrer Identitt im Rahmen internetvermittelter Kommunikationsbeziehungen zu Grundrechtstrgern
Daten ber diese sammelt, weil es hier von vornherein am Vertrauen hinsichtlich der Identitt der
Kommunikationspartner fehle, BVerfGE 120, 274 (345). Diese Ausfhrung ist in ihrer Pauschalitt
nicht tragfhig und von einer berholten Dichotomie von realer und virtueller Welt geprgt.
25 BVerfG, Beschl. vom 21.06.2016, 2 BvR 637/09, mit Sondervotum Huber, abrufbar unter http:
\\www.bverfg.de.
26 Das liegt auch deshalb nahe, weil sich die genetischen Grundlagen des Rechts auf informationel-
le Selbstbestimmung inzwischen ihrerseits an zentralen Stellen gendert haben, vgl. nher Albers,
Umgang mit personenbezogenen Informationen und Daten, Rn. 64, mit Hinweisen auf die rele-
vanten Entscheidungen.
27 Im Volkszhlungsurteil hat dies wegen der Fallkonstellation ausgereicht.
28 Vgl. BVerfGE 120, 351 (362ff.); BVerfG (Kammer), DVBl 2001, S. 275. Die BKA-Entscheidung,
BVerfG, Beschl. v. 20.04.2016, 1 BvR 966/09 u. a., http:\\www.bverfg.de, Rn. 134ff., ordnet Kennt-
nismglichkeiten demgegenber wiederum dem bermaverbot bei eingriffsabwehrrechtlichem
Ausgangspunkt zu.
20 Marion Albers
29 BVerfGE 84, 192 (194ff.); BVerfG (Kammer), Beschluss vom 17.07.2013, 1 BvR 3167/08, , Rn. 19,
http:\\www.bverfg.de.
30 Vgl. exemplarisch BVerfGE 100, 313 (358); 109, 279 (325f.); 110, 33 (53); 125, 260 (310).
31 Zu den nheren Magaben etwa BVerfGE 100, 313 (360f.); 109, 279 (379f.); 115, 320 (359ff.);
118, 168 (186ff.); 120, 351 (366ff.); 120, 378 (407ff.); 125, 260 (325ff.); 130, 151 (187ff.); 133, 277
(320ff.); in Form einer begreifenden Zusammenfassung s. auch BVerfG, Beschl. v. 20.04.2016, 1
BvR 966/09 u. a., Rn. 93ff., http://www.bverfg.de.
32 Vgl. zuletzt BVerfGE 130, 151 (187ff.); 133, 277 (320ff.); BVerfG, Beschl. v. 20.04.2016, 1 BvR
966/09 u. a., http:\\www.bverfg.de, Rn. 93ff., bes. 103ff.
33 Nicht treffend hierzu etwa BVerfG, Beschl. v. 20.04.2016, 1 BvR 966/09 u. a., http : / / www .
bverfg . de, Rn. 278ff.: Hier geht das BVerfG davon aus, der Gesetzgeber und die jeweilige Ein-
griffsgrundlage bestimmten den Zweck und die Zweckbindung bestimme sich nach der Reichweite
der Erhebungszwecke in der fr die jeweilige Datenerhebung mageblichen Ermchtigungsgrundla-
ge, anstatt als Ausgangspunkt zugrundezulegen, dass Gesetzgeber und Gesetz einen begrenzenden
und strukturierenden Rahmen setzen, innerhalb dessen die Akteure, hier die Sicherheitsbehrden,
Verwendungszwecke konstellations- oder fallorientiert weiter spezizieren mssen. Vgl. zu diesen
Bausteinen nher: Albers, Informationelle Selbstbestimmung, S. 497ff.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 21
ausgearbeitet sein, damit die Przisierung und Relationierung der jeweils invol-
vierten Interessen oder die funktionalen Erwgungen, mit Hilfe derer die ntigen
Schutzvorkehrungen bestimmt werden, normativ abgesichert sind. Anderenfalls
entsteht die Gefahr, dass Anforderungen hervorgezaubert werden, die im zu ent-
scheidenden Fall durchaus passen mgen, aber normativ nicht stringent hergeleitet
und deswegen nicht hinreichend stabilisierbar sind.
Bislang hat sich das BVerfG noch nicht konsequent genug auf die Charakteristika
und Anforderungen eines gerade informations- und datenorientierten Schutzes ein-
und umgestellt. Insgesamt wird im individualistisch-eingriffsabwehrrechtlichen
Zuschnitt des Rechts auf informationelle Selbstbestimmung nicht deutlich, wie sehr
der Datenschutz auf eine schutzzielgerechte, sich auf mehreren Ebenen bewegende,
vielfltige Bausteine umfassende und miteinander koordinierende Ausgestaltung
im Wege verschiedener Ebenen und Formen des Rechts angewiesen ist.
mung, wie das BVerfG es hergeleitet hat, enthlt die GrC aber nicht, und bereits
aus rechtsmethodischen Grnden darf man deutsche Konzeptionen nicht einfach in
die unionale Charta hineinlesen. Art. 8 Abs. 1 GrC sieht vor: Jede Person hat das
Recht auf Schutz der sie betreffenden personenbezogenen Daten. Art. 8 Abs. 2 und
3 GrC halten das Erfordernis einer Zweckfestlegung, einen Einwilligungs- oder Ge-
setzesvorbehalt, Kenntnis- und Berichtigungsrechte sowie die Datenschutzkontrolle
durch eine unabhngige Stelle fest. Art 7 GrC schtzt in weit gehendem Gleich-
klang mit Art. 8 Abs. 1 der Europischen Menschenrechtskonvention (EMRK) das
Recht jeder Person auf Achtung ihres Privat- und Familienlebens, ihrer Wohnung
sowie ihrer Kommunikation. Eine gefestigte Dogmatik, wie die jeweiligen Inhalte
und die Beziehungen zwischen diesen Rechten zu interpretieren sind, muss sich
erst noch herausbilden.34 In der Entscheidung des EuGH zur Vorratsdatenspeiche-
rung klingt an, dass Art. 8 GrC in einer nicht auf das Privatleben beschrnkten
Weise die Verarbeitung personenbezogener Daten in den Blick nimmt und daran
eigenstndige Anforderungen stellt, whrend Art. 7 GrC in inhaltlicher Akzentu-
ierung dem Schutz des Privatlebens dient.35 Die Grundrechte-Charta enthlt noch
eine Reihe anderer inhaltlicher Freiheiten, etwa die Meinungsuerungs- oder die
Berufsausbungsfreiheit. Auf unionaler Ebene gibt es somit kein Verfgungsrecht,
sondern ein Recht auf Schutz personenbezogener Daten, ergnzt um bestimmte
inhaltliche Mastbe.
In den nchsten Jahren ist mit wechselseitigen Einssen der Aussagegehal-
te unionaler und nationaler Gewhrleistungen aufeinander zu rechnen. Denn das
Recht auf Schutz personenbezogener Daten ist konkretisierungsbedrftig36 und
die Rechtsprechung des EuGH noch nicht ausgefeilt, so dass dieser Art. 8 GrC
knftig mit konkreteren Vorgaben auffllen, sich hier von passenden nationalen
Schutzkonzeptionen anregen lassen und diese dann europisch zuschneiden wird.
Umgekehrt kann man bei der Suche nach einem neuen Konzept fr das deutsche
Recht auf informationelle Selbstbestimmung aufgreifen, dass die unionale Fassung
als ein Recht auf Schutz akzentuiert ist, das ganz abstrakt formuliert und mit sinn-
vollen normativen Magaben anzureichern ist. Damit man nicht immer wieder mit
entscheidungsrelevanten Abgrenzungsschwierigkeiten der Anwendbarkeit entweder
unionaler oder nationaler Grundrechte zu kmpfen hat, ist eine gewisse Konvergenz
der Schutzkonzeptionen bei Eigenstndigkeiten im Detail angezeigt. Fr eine ge-
genstandsgerechte Konzeption ist wichtig, wie der Gegenstand zu erfassen ist, mit
dem man zu tun hat, wie die grundrechtlich geschtzten Interessen zu begreifen und
34 Nher Albers, Umgang mit personenbezogenen Informationen und Daten, Rn. 43ff.
35 EuGH, Urt. v. 8.4.2014, C-293/12 u. C-594/12, Rn. 29f.
36 Vgl. hierzu auch Stentzel, Das Grundrecht auf. . . ?, S. 188ff., hier mit der These, dass (nur) das
Privatleben des Art. 7 GrC schutzgutrelevante Mastbe liefere.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 23
und damit verbundene Folgen. Angesichts einer zunehmenden Lsung von Daten-
verarbeitungen aus konkreten Handlungszusammenhngen knnen Handlungs- und
Entscheidungszusammenhnge (oder: Verwendungskontexte) zwar abstrahiert,
typisiert oder als Zukunftsszenarien formuliert, aber nicht vollkommen ausgeblen-
det werden. Daten drfen somit nicht isoliert betrachtet, sie mssen vielmehr in
einem Netzwerk mehrerer Grundbegriffe begriffen werden. In diesem Netzwerk
sind sie ein zentraler Anknpfungspunkt der rechtlichen Regulierung, freilich
nicht der einzige Anknpfungspunkt.47 Datenschutz zielt auf die Regulierung der
Datenverarbeitung, aber eben auch auf die Regulierung der Informations- und
Wissenserzeugung in Handlungs- und Entscheidungszusammenhngen und damit
verbundener nachteiliger Folgen fr die betroffenen Personen.
47 Die rechtliche Regulierung muss an mehrere Punkte anknpfen; daher wre es beispielsweise ver-
fehlt, statt auf Daten einfach auf Informationen abzustellen und den einen Begriff durch den anderen
zu substituieren.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 27
48 Orwell, 1984.
49 Bentham, The Panopticon Writings, S. 29ff.
50 Kafka, Der Prozess.
51 Eggers, The Circle.
52 Solove, Privacy and Power, S. 1399.
53 Ebd., S. 1426.
28 Marion Albers
6. Regulierung im Datenschutz
Nur noch kurz soll aufgezeigt werden, dass man auf der Basis eines Bndels grund-
rechtlicher Rechtsbindungen und Rechtspositionen im Rahmen einer Zwei-Ebenen-
Konzeption zu einer sinnvollen Regulierung im Feld des Datenschutzes gelangen
kann. Ebenso wie man die Gewhrleistungsinhalte in Gestalt mehrdimensionaler
und vielschichtiger Bindungen und Schutzpositionen entfalten kann, erlauben die
Grundrechtsnormen ein multidimensionales Verstndnis der Gesetzesvorbehalte.
Rechtsnormen erscheinen dann in vielfltigen Funktionen und vielfltiger Gestalt:
Sie knnen Freiheiten beschrnken, aber auch erst herstellen, konkretisieren und
ausgestalten. Damit lassen sich angemessene Regulierungskonzepte an die entwi-
ckelbaren Gewhrleistungsinhalte anknpfen.
Solche Konzepte erfordern statt einer bloen Steuerung der Verarbeitungsschrit-
te eine Vielzahl ineinander greifender, nicht zuletzt mit Figuren des Risiko- und
des Technikrechts operierende Bausteine. Dazu zhlen zum Beispiel Elemente der
Systemgestaltung, Anreize oder Vorgaben zur Technikentwicklung und Technikge-
staltung, neue Formen der Kenntnis- und Einussrechte Betroffener, institutionelle
Qualitts- und Kontrollgewhrleistungen oder auch institutionalisierte Verfahren,
in denen konkrete Schutzstandards fr konkrete Komplexe erst noch ausgearbeitet
und auf die sich darin ergebenden Schutzerfordernisse zugeschnitten werden.61
Hier sind in den letzten Jahrzehnten bereits diverse Komponenten entwickelt wor-
den. Den erarbeiteten Bausteinen fehlt jedoch als Gesamtkonzept eine stimmige
verfassungsrechtliche Rckbindung und sie stehen bislang oft eher nebeneinander
statt passend miteinander verzahnt zu sein. Wie die Bausteine nher auszugestal-
ten, zu kombinieren und zu koordinieren sind, hngt nicht zuletzt von dem in den
Blick genommenen Regelungsbereich ab. Denn als fundamentale Querschnittsdi-
mension und wegen des engen Zusammenhanges zwischen Daten, Informationen,
Wissen, Handlungen und Entscheidungen muss das Datenschutzrecht nicht nur
in sich, sondern auch mit den schon vorhandenen sachlichen Rechtsvorschriften
abgestimmt werden. Dies weist auf die Differenzierungserfordernisse innerhalb des
Datenschutzrechts hin. Etwa muss man grndlich darber nachdenken, in welchen
Hinsichten ein einheitliches Datenschutzrecht fr staatliche und private Bereiche
sinnvoll ist. Auch unterhalb dieser groben Unterscheidung gibt es eine Vielzahl
von Feldern video- oder zunehmend drohnenberwachte ffentliche und private
Rume, rztinnen/Patienten-Beziehungen in Gesundheitssektoren, Arbeitsverhlt-
nisse, soziale Netzwerke, e-commerce, Wearables oder Fitness Tracker , in denen
bestimmte Techniken mit bestimmten Folgen eingesetzt und spezische Risiken
hinsichtlich des Umgangs mit personenbezogenen Daten und Informationen ausge-
lst werden. Das heit nicht, dass man jedes Feld fr sich detailliert regeln msste.
Die Lsung der Frage, wann und inwieweit allgemeine Regelungen passen oder
wann und inwieweit man sektor- oder technikspezische Regelungen bentigt,
gehrt jedoch zu den anspruchsvollsten Herausforderungen, vor denen man im
Datenschutzrecht steht.
Abschlieend kann ein Bogen zurck zur populren Idee der Kontrolle ber
die eigenen Daten geschlagen werden. Man braucht diese Idee nicht fr vollkom-
men obsolet zu halten. Man muss sie aber richtig einordnen. Kontrolle beschreibt
keine Schutzposition, sondern eher in vereinfachender Form eines der Instrumente,
mit denen die anderweitig zu begrndenden vielschichtigen Schutzpositionen der
Betroffenen im Hinblick auf den Umgang mit personenbezogenen Informationen
und Daten in Feldern realisiert werden knnen, in denen die Idee einer individuellen
Kontrolle ber Daten in bestimmtem Umfang passt. Im Verhltnis beispielweise zu
einem Sozialleistungstrger, bei dem jemand Leistungen beantragt, berzeugt diese
Idee nicht, denn Sozialleistungen hngen von der Mitteilung bestimmter Angaben
ab und Grenzen der Mitteilungspichten oder der Weiterleitungsbefugnisse lassen
sich besser auf andere Argumente sttzen. Im Bereich sozialer Netzwerke, im
e-commerce oder bei Wearables und Fitness Trackern kann die Idee aber partiell
geeignet sein und sich etwa in gesetzlich verankerten individuellen Gestaltungs-,
Unterlassungs-, Lschungs- oder Informationsansprchen widerspiegeln. Freilich
knnen Nutzer und Nutzerinnen trotzdem komplexe Techniken und Verarbeitungs-
ablufe, in die Diensteanbieter involviert sind, weder vollstndig berschauen noch
vollkommen kontrollieren. Die Kontrollidee kann somit selbst hier nicht als erschp-
fend begriffen werden. Datenschutz ist weitaus vielschichtiger und inhaltsreicher
auszuarbeiten.
32 Marion Albers
7. Schluss
Im Ergebnis ist die informationelle Selbstbestimmung dann, aber auch nur dann
zukunftsfhig, wenn man sie grundlegend neu konzipiert. Bei Daten, Informationen
oder Wissen hat man es mit einem Netzwerk fundamentaler Kategorien zu tun. In-
formationelle Selbstbestimmung muss als Bndel grundrechtlicher Bindungen und
Rechtspositionen begriffen werden, das sich sowohl inhaltlich als auch dogmatisch
vielschichtig gestaltet. Dies mndet in vielfltige Regulierungskonzepte, die auch
mit einem neuartigen, weniger gesetzeszentrierten Rechtsverstndnis kompatibel
wren. So verstanden ist das Paradigma der informationellen Selbstbestimmung
leistungsfhiger als beispielsweise dasjenige der Privatheit. Informationelle Selbst-
bestimmung wrde nicht nur international anschlussfhig, sondern knnte inter-
nationale Debatten, die oft ihrerseits in berkommenen Mustern verharren, sogar
positiv vorantreiben. Passende rechtliche Ausarbeitungen sind auf die Erkenntnisse
anderer Disziplinen angewiesen, etwa auf Erkenntnisse aus der Sozialwissenschaft,
der Technikwissenschaft oder der Informationswissenschaft. All das macht die Be-
schftigung mit informationeller Selbstbestimmung und mit dem Datenschutzrecht
so spannend.
Literatur
Albers, Marion. Information als neue Dimension im Recht. In: Rechtstheorie
33.1 (2002), S. 6189.
Informationelle Selbstbestimmung. Bd. 6. Studien zu Staat, Recht und Verwaltung.
Baden-Baden: Nomos, 2005.
Privatheitsschutz als Grundrechtsproblem. In: Privatheit. Strategien und Trans-
formationen. Hrsg. von Stefan Halft und Hans Krah. Passau: Stutz, 2013, S. 15
44.
Umgang mit personenbezogenen Informationen und Daten. In: Grundlagen
des Verwaltungsrechts. Band II: Informationsordnung, Verwaltungsverfahren,
Handlungsformen. Hrsg. von Wolfgang Hoffman-Riem, Eberhard Schmidt-A-
mann und Andreas Vokuhle. 2. Mnchen: C. H. Beck, 2012, S. 107234.
Zur Neukonzeption des grundrechtlichen Datenschutzes. In: Herausforde-
rungen an das Recht der Informationsgesellschaft: 26. Tagung der wissenschaft-
lichen Mitarbeiterinnen und Mitarbeiter der Fachrichtung ffentliches Recht.
Hrsg. von Andreas Haratsch, Dieter Kugelmann und Ulrich Repkewitz. Stuttgart
u. a.: Richard Boorberg Verlag, 1996, S. 113139.
Allen, Anita L. Privacy As Data Control: Conceptual, Practical, and Moral Limits
of the Paradigm. In: Connecticut Law Review 32 (2000), S. 861875.
Ein vielschichtiges Bndel von Rechtsbindungen und Rechtspositionen 33
Die Probleme bei der rechtlichen und technischen Umsetzung der informationel-
len Selbstbestimmung sind hinreichend bekannt. Zu ihnen zhlen die zahlreichen
Ausnahmeregelungen, mit denen Eingriffe ermglicht werden, die schleppende
Anpassung an neue technische Gegebenheiten und der unbefriedigende Schutz
gegenber privaten Akteuren. Doch diese Probleme knnen nicht ausschlielich
auf mangelnden politischen Willen oder auf neue technische wie soziale Umweltbe-
dingungen zurckgefhrt werden. Denn es bestehen weiterhin Unklarheiten in der
normativen Begrndung des Rechts auf informationelle Selbstbestimmung, die ei-
ner konsistenten Schutzkonzeption im Wege stehen. Im Bemhen um politische wie
technische Anpassung tritt die Frage, warum genau informationelle Selbstbestim-
mung schutzwrdig ist und was dies fr ihre konkrete Auslegung bedeutet, hug
zu schnell in den Hintergrund. Ich mchte im Folgenden die These vertreten, dass
eine Strkung des Rechts auf informationelle Selbstbestimmung es aus normativer
Sicht erforderlich macht, den demokratietheoretischen Begrndungsstrang dieses
Rechts strker in den Vordergrund zu rcken. Denn seine eigentliche Legitimation
erfhrt es nicht, so die Behauptung, durch Verweis auf seine Schutzfunktion in Be-
zug auf das Individuum, sondern durch seine Ermglichungsfunktion in Bezug auf
eine demokratisch verfasste ffentlichkeit. Diesen Gedanken, der in der ursprngli-
chen Begrndung des Volkszhlungsurteils durchaus prominent ist, mchte ich aus
philosophischer Sicht ausbuchstabieren, indem ich ihn auf eine nicht-instrumentelle
Demokratiekonzeption beziehe, um abschlieend seine bertragbarkeit auf die
aktuellen Herausforderungen des Datenschutzes anzudeuten.
Der erste der beiden angefhrten Grnde, die auch als subjektives Grundrecht und
Objektives Strukturprinzip einer Kommunikationsverfassung diskutiert werden,2
kann als individualrechtlicher, der zweite dagegen als demokratietheoretischer be-
zeichnet werden. Der individualrechtliche verweist auf die Interessen des Einzelnen,
denen eine unkontrollierte Sammlung und Verbreitung persnlicher Informationen
entgegenstehen knnen. Wie das Bundesverfassungsgericht ausfhrt, ist dies etwa
dann gegeben, wenn auf die Beteiligung bei einer Brgerinitiative verzichtet wird,
um mgliche negative Konsequenzen fr die eigene Person zu vermeiden, weil eine
Unsicherheit darber besteht, wer alles von dem betreffenden Engagement erfhrt.
Die Unsicherheit fhrt entsprechend zu einer Beeintrchtigung der Entfaltungs-
chancen des Einzelnen. Das Beispiel der Beteiligung an einer Brgerinitiative ist
jedoch vor allem deshalb so erhellend, weil es bei ihm eben nicht allein um die
Durchsetzung ausschlielich persnlicher Interessen geht. Wrde man stattdessen
an den Fall denken, dass ein Einzelner aus Sorge, mglicherweise dabei entdeckt
zu werden, etwa auf die Lektre bestimmter Schriften oder den Verzehr bestimmter
Speisen verzichtet, so wrde er dabei zwar auch in der Verfolgung seiner Interessen
beeintrchtigt. Doch es fehlte die Perspektive auf die Aktivitten des Einzelnen als
Bestandteil eines funktionierenden Gemeinwesens, wie sie im Beispiel der Brger-
initiative anklingt. Es gbe schlicht weniger brgerschaftliches Engagement, wenn
dieses mit Unwgbarkeiten und potentiellen Risiken fr den Einzelnen verbunden
wre. Und darauf zielt der zweite der beiden Grnde fr die informationelle Selbst-
bestimmung, der die negativen Konsequenzen ihrer Einschrnkung nicht fr den
Einzelnen, sondern fr eine funktionierende Demokratie und damit fr das Gemein-
wohl in den Vordergrund stellt. Selbstbestimmung wird demzufolge gerade nicht als
Selbstzweck im Sinne des Vermgens, frei ber die eigenen Belange verfgen zu
knnen, aufgefhrt, sondern ausdrcklich als unerlssliche Funktionsbedingung
eines demokratischen Gemeinwesens.
1 BVerfGE 65, 1.
2 Doerfel u. a., Informationelle Selbstbestimmung im Web 2.0, S. 24f.
Demokratietheoretische Implikationen 39
3 Ein von der Grundrechtsausbung abschreckender Effekt fremden Geheimwissens muss nicht nur
im Interesse der betroffenen Einzelnen vermieden werden. Auch das Gemeinwohl wird hierdurch
beeintrchtigt, weil Selbstbestimmung eine elementare Funktionsbedingung eines auf Handlungs-
und Mitwirkungsfhigkeit seiner Brger gegrndeten freiheitlichen demokratischen Gemeinwesens
ist. Vgl. BVerfGE 115, 166 (188): BVerfG, NJW 2006, 976).
4 Siehe u.a. Gola u. a., Bundesdatenschutzgesetz: Kommentar, 1 Rn. 9-13; Maunz und Drig,
Grundgesetz: Kommentar, Art. 2, Rn. 173-178.
5 BVerfGE 65, 1.
6 Vgl. Foucault, berwachen und Strafen, S. 259-161; Zur Relevanz Foucaults fr die gegenwrtige
Diskussion siehe Bauman und Lyon, Daten, Drohnen, Disziplin, S. 70-97; sowie Caluya, The post-
panoptic society?; zu abweichender Internetnutzung unter Bedingungen der berwachung siehe
Berger u. a., berwachung des digitalen Raumes.
40 Max Winter
7 Es ist deshalb nicht unbedingt von einem Paradox der Privatheit auszugehen, wohl aber von einer
niedrigeren Risikosensibilitt in der Abwgung zwischen Datenpreisgabe und sozialer Teilhabe.
Vgl. Barnes, A privacy paradox; Neuere Untersuchungen legen zumindest einen Zusammenhang
zwischen Datenschutzbedenken und Datenpreisgabe nahe. Siehe dazu Spiekermann u. a., Online
Social Networks; Dienlin und Trepte, Is the privacy paradox a relic of the past?; Stutzman,
Capra und Thompson, Factors mediating disclosure in social network sites.
Demokratietheoretische Implikationen 41
8 Eine Einwilligung, die auf der Vorstellung beruht, ausschlielichen ber persnliche Daten ver-
fgen zu knnen, ist nicht zuletzt deshalb realittsfern, weil ein Groteil der anfallenden, perso-
nenbezogenen Daten mehrrelational sind und daher gerade nicht ausschlielich einem Eigentmer
zugeordnet werden knnen. Vgl. Steinmller, Informationstechnologie und Gesellschaft, S. 216ff.
9 Entsprechend knnen restriktive Anforderungen an privatrechtliche Vertrge im Sinne einer AGB-
Kontrolle nicht allein mit Verweis auf die Vertragsfreiheit abgelehnt werden, da ein solcher Ver-
weis zum einen das demokratietheoretische Ziel des Schutzes informationeller Selbstbestimmung
verkennt und zum anderen der Vorstellung einer individuellen Verfgbarkeit ber personenbezoge-
ne Daten verpichtet bleibt.
10 Warren und Brandeis, The Right to Privacy, S. 193.
42 Max Winter
dagegen auf einen Begriff der Selbstbestimmung, der politische Partizipation und
demokratische Selbstregierung impliziert.
13 Eine Reihe klassischer Einwnde gegen einen rein negativen Freiheitsbegriff ndet sich bereits bei
Taylor, Der Irrtum der negativen Freiheit.
14 Diesen Ansatz vertreten insbesondere Philip Pettit und Quentin Skinner. Beide bestehen darauf, re-
publikanische Freiheit lediglich als rule of law bzw. als non-domination oder independence from
arbitrary power zu fassen und nicht im Sinne einer positiven Freiheit der self-mastery oder Au-
tonomie im Sinne selbst auferlegter Gesetze. Vgl. Pettit, Republicanism; und Skinner, A Third
Concept of Liberty.
44 Max Winter
sehen, nicht notwendig aber die Herrschaft durch selbst gegebene Gesetze. Erst der
letztere Umstand aber, nmlich nicht nur Adressat von Gesetzen zu sein, sondern
an der Ausarbeitung dieser Gesetze auch aktiv beteiligt und insofern auch ihr Autor
zu sein, unterscheidet die wohlwollende Technokratie von der gelebten Demokra-
tie. Anders gesagt: Es ist wenig sinnvoll, die politische Ttigkeit der Menschen
als notwendiges bel zur Durchsetzung rein privater Interessen anzusehen, das
ihnen in einer paternalistischen, nicht-demokratischen Gesellschaft erspart bliebe.
Whrend Vertreter des politischen Liberalismus dazu tendieren, Demokratie als
(bestgeeignetste) Organisationsform zu verstehen, um den Zweck des negativen
Schutzes privater Interessen zu sichern, lsst sich der Grundgedanke von Vertretern
eines nicht-instrumentellen Demokratieverstndnisses eben so beschreiben, dass
Selbstbestimmung und mithin Freiheit nur als aktive Teilhabe an demokratischen
Deliberationsprozessen berhaupt vorgestellt werden kann.15 Es geht mit anderen
Worten um die Ausbung von Freiheit und nicht um deren formale Prservation,
was weitreichende Auswirkungen auf das Bild der Brgerschaft hat, die sich in
demokratischer Partizipation und in zivilgesellschaftlichem Engagement erst ver-
wirklicht. Dies hat also durchaus eine Abkehr von demjenigen Paradigma zur Folge,
das Freiheit in der mglichst ungehinderten Befriedigung privater, vorpolitischer
Prferenzen sieht.16
Eine so verstandene, nicht-instrumentelle Demokratietheorie in diesem starken
Sinne hat nun zwar einen in vieler Hinsicht gehaltvolleren und plausibleren Frei-
heitsbegriff anzubieten als ihr Gegenpart, ist aber ihrerseits wieder mit spezischen
Problemen behaftet. Denn der gehaltvolle Begriff von Freiheit als Autonomie ist
innerhalb des demokratischen Prozesses nur so lange reibungslos anwendbar, wie
von mehr oder minder konsensualen Systemen ausgegangen wird. In Fllen strit-
tiger Mehrheitsentscheidungen dagegen wird eine Minderheit stets von Regeln
beherrscht, die sie sich streng genommen nicht selbst gegeben hat und die sich
aus der Sicht des Einzelnen nicht notwendig von Regeln unterscheiden, die ihm
innerhalb autoritrer Systeme auferlegt wrden. Selbst minimal pluralistische Ge-
sellschaften aber werden schon beim Versuch der Klrung selbst sehr grundlegender
Fragen des Zusammenlebens keinen Konsens erzielen. Ein mglicher Ausweg be-
steht darin, die Anforderungen an legitime demokratische, freiheitsverbrgende
Normen zu senken. Wenn es nicht im strengen Sinn Normen sein knnen, die alle
sich faktisch gemeinsam auferlegen, so mssen es zumindest Normen sein, die sich
erstens in Form von Gesetzen, und das heit so formulieren lassen, dass sie univer-
salisierbar sind und damit fr alle gelten knnen. Dieses Kriterium etwa schliet
willkrliche Beschrnkungen auf bestimmte Personenkreise aus. Und zweitens
15 Vgl. Rostbll, The Non-instrumental Value of Democracy, S. 272.
16 Vgl. zum Begriff sozialer Freiheit im Kontext der demokratischen Willensbildung Honneth, Das
Recht der Freiheit, S. 470-612.
Demokratietheoretische Implikationen 45
muss sichergestellt sein, dass sich an der Aushandlung solcher Regeln potentiell
alle Brgerinnen und Brger gleichermaen beteiligen drfen. Dieses Kriterium
etwa schliet jede Form der Geheimverhandlung allgemeinverbindlicher Regeln
aus, wie sie derzeit im Fall des TTIP-Abkommens zu beobachten ist.
Der Schutz vor Erfassung und Verwendung persnlicher Daten hat nicht so
sehr im Interesse der Individuen zu erfolgen (denen an einer Preisgabe persn-
licher Daten aus partikularen Motiven sogar gelegen sein kann), sondern stellt
ein eminent ffentliches Interesse dar. Beschrnkungen der informationellen
Selbstbestimmung sind nicht so sehr eine Gefahr fr Einzelne (fr die sie hug
irrelevant sind bzw. gar nicht bemerkt werden), sondern fr die Demokratie, ver-
standen nicht als Mittel, sondern als eigenstndiger Zweck individueller Freiheit.
Ihrem Schutz hat sich das partikulare Interesse an einer individuellen Einwilli-
gung in die Preisgabe persnlicher Daten zur Teilhabe an sozialen Netzwerken
oder aus monetren Interessen unterzuordnen.
Oberstes Ziel datenschutzrechtlicher Manahmen ist daher nicht etwa die voll-
stndige, individuelle Verfgbarkeit ber persnliche Daten (die nicht zuletzt
aufgrund der Mehrrelationalitt solcher Daten obsolet erscheint), sondern die Ge-
whrleistung eines ffentlichen, digitalen Raums mit ffentlichen, demokratisch
ausgehandelten und stets neu verhandelbaren Regeln. Selbstbestimmt sind Br-
ger nicht dann, wenn sie frei ber ihre persnlichen Daten verfgen knnen,
sondern nur in einer Gesellschaftsordnung, die eine politische Willensbildung
ohne verzerrende Einsse von ngsten oder Einschchterungen gewhrleistet,
wie sie mit einer extremen Informationsasymmetrie einhergehen.
Literatur
Anderson, Elizabeth. Democracy: Instrumental vs. Non-Instrumental Value. In:
Contemporary Debates in Political Philosophy. Hrsg. von Thomas Christiano
und John Philip Christman. Contemporary debates in philosophy. Malden, MA:
Wiley-Blackwell, 2009, S. 213227.
Arneson, Richard J. The Supposed Right to a Democratic Say. In: Contemporary
Debates in Political Philosophy. Hrsg. von Thomas Christiano und John Philip
Christman. Malden, MA: Wiley-Blackwell, 2009, S. 197212.
Barnes, Susan B. A privacy paradox: Social networking in the United States. In:
First Monday 11.9 (2006). DOI: 10.5210/fm.v11i9.1394.
Bauman, Zygmunt und David Lyon. Daten, Drohnen, Disziplin: Ein Gesprch ber
chtige berwachung. Berlin: Suhrkamp, 2013.
Berger, Peter A. u. a. berwachung des digitalen Raumes: Verhaltensnderungen
von Internetnutzern. In: Soziale Welt 65 (2014), S. 221245.
Caluya, Gilbert. The post-panoptic society? Reassessing Foucault in surveillance
studies. In: Social Identities 16.5 (2010), S. 621633. DOI: 10.1080/13504630.
2010.509565.
Dienlin, Tobias und Sabine Trepte. Is the privacy paradox a relic of the past?
An in-depth analysis of privacy attitudes and privacy behaviors. In: European
Journal of Social Psychology 45 (2015), S. 285297. DOI: 10.1002/ejsp.2049.
Doerfel, Stephan u. a. Informationelle Selbstbestimmung im Web 2.0: Chancen und
Risiken sozialer Verschlagwortungssysteme. Berlin und Heidelberg: Springer
Berlin Heidelberg, 2013. DOI: 10.1007/978-3-642-38056-3.
Foucault, Michel. berwachen und Strafen: Die Geburt des Gefngnisses. Frankfurt
a. M.: Suhrkamp, 1977.
Gola, Peter u. a. Bundesdatenschutzgesetz: Kommentar. 12., berarb. und erg. Au.
Mnchen: Beck, 2015.
Honneth, Axel. Das Recht der Freiheit: Grundri einer demokratischen Sittlichkeit.
Berlin: Suhrkamp, 2011.
Maunz, Theodor und Gnter Drig, Hrsg. Grundgesetz: Kommentar. 55. Ergn-
zungslieferung. Mnchen: Beck, 2009.
Pettit, Philip. Republicanism: A theory of freedom and government. Oxford: Oxford
University Press, 1997.
Rostbll, Christian F. The Non-instrumental Value of Democracy: The Freedom
Argument. In: Constellations 22.2 (2015), S. 267278. DOI: 10.1111/1467-
8675.12159.
Skinner, Quentin. A Third Concept of Liberty. In: Proceedings of the British
Academy 117 (2002). Hrsg. von F.M.L. Thompson, S. 237268.
48 Max Winter
1. Einleitung
Das Recht auf informationelle Selbstbestimmung gewhrleistet, dass jeder Mensch
grundstzlich selbst ber die Preisgabe und Verwendung seiner persnlichen Daten
und damit darber bestimmen kann, wer was wann bei welcher Gelegenheit ber
ihn wei (BVerfG NJW 1984, S. 419 [422]). Das Grundrecht auf informationelle
Selbstbestimmung ist damit ein grundlegender Baustein einer auf der Freiheit und
Autonomie des Einzelnen beruhenden Kommunikationsordnung.1
Die Hervorhebung der Autonomie des Einzelnen macht insbesondere deutlich,
dass das Recht auf informationelle Selbstbestimmung eine individualpsychologi-
sche Dimension beinhaltet, in der Personen Kontrolle darber haben sollen (und
somit Verantwortung dafr bernehmen knnen), fr welche Personenkreise ihre
Informationen zugnglich sind.2 Dies entspricht einussreichen psychologischen
Theorien zum individuellen Umgang mit der eigenen Privatheit.3 So denierte
Irwin Altman bereits in den 1970er Jahren Privatheit als einen dynamischen Prozess,
bei dem Personen ihre interpersonalen Beziehungen darber regulieren, dass sie
Informationen mehr oder minder zugnglich machen.4 Privatheit setzt innerhalb die-
ser Modellvorstellung die auch dem Recht auf informationelle Selbstbestimmung
zugrunde liegen scheint voraus, dass Personen kontrollieren knnen, wer Zugriff
auf ihre Informationen hat. Das zugrundeliegende Privatheitsmodell kann auch als
deterministisch bezeichnet werden, da Privatheit und informationelle Selbstbestim-
mung ber eine wenn-dann-Beziehung zweier Parameter zustande kommen kann
* Dr. Ricarda Moll | Westflische Wilhelms-Universitt Mnster | ricarda.moll@uni-muenster.de
Teile der in diesem Beitrag prsentierten Inhalte sind in dieser oder hnlicher Form bereits in den
folgenden Publikationen erschienen: Moll, (Meta-)Cognitive Parameters of Privacy Regulation;
Moll, Pieschl und Bromme, Trust into Collective Privacy?
1 Culmsee, Prinzipien des Datenschutzrechts.
2 Kontrolle wird in diesem Beitrag in erster Linie unter sozialwissenschaftlichen Aspekten behandelt.
Die Darstellungen erheben keinen Anspruch auf juristische Gltigkeit.
3 Fr einen berblick siehe z. B. Margulis, Three Theories of Privacy.
4 Altman, Privacy a conceptual analysis.
(zugespitzt formuliert: wenn man kontrollieren kann, wer potentiell Zugriff auf die
eigenen persnlichen Informationen hat, dann kann man zu einem gewissen Aus-
ma Privatheit erlangen).5 Aus medienpsychologischer Perspektive schliet sich
jedoch unmittelbar die Frage an, ob auch NutzerInnen selbst mit dem Konzept der
Privatheit deterministisch umgehen, indem sie sich beispielsweise ihrer Privatheit
beraubt fhlen, wenn sie keine Kontrolle ber das Publikum ausben (knnen).
Hierzu muss zunchst die Frage beantwortet werden, auf welcher Informationsbasis
NutzerInnen berhaupt Wissen ber die eigene Privatheit erlangen knnen, auf
Basis dessen sie wiederum die eigene Privatheit regulieren. Die Kernthese hierbei
ist, dass dieses Wissen im Wesentlichen auf Informationen ber das Publikum
als Empfnger der eigenen Informationen zurckgeht. Unterschieden wird zwi-
schen zwei verschiedenen Publikumskategorien, die die Wahrnehmung der eigenen
Privatheit beeinussen knnen.
5 Fr eine kritische Auseinandersetzung mit der Beziehung zwischen Kontrolle und Privatheit siehe
Ben-Zeev, Privacy, Emotional Closeness, and Openness in Cyberspace.
Medienpsychologische Sicht 51
knnen. Anschlieend wird unter Rckbezug auf die Vorstellung eines determinis-
tischen Modells von Privatheit (s.o.) diskutiert, inwieweit dies der individuellen
Wahrnehmung von Privatheit entspricht (Abschnitt 5).
Kritik an der Grundidee des Privacy Calculus wurde zwar frh geuert, hat
aber der Beliebtheit des Ansatzes als wissenschaftliche Denkkategorie keinen
prinzipiellen Abbruch getan: So wandte Acquisti Erkenntnisse aus verhaltensko-
nomischer Forschung auf den Kontext privatheitsbezogener Entscheidungen an
und schlussfolgerte, dass NutzerInnen zu einer rationalen Abwgung von Vorteilen
und Risiken nicht in der Lage seien, da ihnen die relevanten Informationen fr den
Abwgungsprozess entweder fehlten, oder unsichere und in der Zukunft liegende
Risiken der Informationspreisgabe geringer werteten als damit sicher verbundene
und unmittelbare verfgbare Vorteile (hyperbolic discounting).10 Der innerhalb des
Privacy Calculus stattndende Abwgungsprozess wre entsprechend ber eine Un-
terreprsentation von Risiken verzerrt, zugunsten der Bereitschaft, Informationen
preiszugeben.
Eine zweite Kategorie von Anstzen geht ber die Vorstellung von situativen
Entscheidungen des Privacy Calculus Modells hinaus. Innerhalb von Selbstregulati-
onsmodellen werden privatheitsbezogene Entscheidungen vor dem Hintergrund pro-
zeduraler Mechanismen verstanden, innerhalb derer NutzerInnen den Ist-Zustand
ihrer Privatheit (Status Quo; z. B.: was habe ich bereits offenbart, fr wen sind
meine Informationen zugnglich) mit dem Soll-Zustand (Privatheitsbedrfnisse;
z. B.: was mchte ich, dass andere von mir erfahren knnen), vergleichen.11
Selbstregulation dieser Art stellt NutzerInnen vor die Herausforderung, die eigenen
kognitiven Zustnde und Prozesse zu berwachen eine kognitive Aktivitt, die als
metakognitives Monitoring bezeichnet wird.12
Analog zum Privacy Calculus stellt sich auch in Zusammenhang mit Selbstregu-
lationsmodellen die Frage, wie valide und zielfhrend diese Selbstregulation sein
kann. Entscheidend dafr ist, dass NutzerInnen nicht nur eine klare Vorstellung da-
von haben, was genau ihre Privatheitsbedrfnisse sind, sondern auch, dass sie eine
akkurate kognitive Reprsentation des Status Quo ihrer Privatheit haben. Nur dann
kann eine mglicherweise vorhandene Diskrepanz zwischen Ist- und Soll-Zustand
aufgedeckt und reguliert werden.
blicherweise haben Personen das Wissen um den Status Quo ihrer Privatheit
(so wie jedes Wissen um nicht direkt beobachtbare Merkmale)13 nicht unmittelbar,
sondern mssen dieses Wissen aus mehr oder minder validen Umgebungsinfor-
mationen herleiten. In Bezug auf die eigene Privatheit liegt es nahe, dass dazu
Informationen ber die Empfnger der eigenen Informationen, d. h. Informationen
ber das Publikum, relevant sind. Eine Eigenschaft digital vermittelter Kommunika-
tion ist jedoch, dass Informationen ber das Publikum hug uneindeutig sind und
10 Acquisti, Privacy in Electronic Commerce and the Economics of Immediate Gratication.
11 Petronio, Boundaries of Privacy; Dienlin, The Privacy Process Model.
12 Pieschl, Metacognitive Calibration.
13 Brunswik, Representative Design and Probabilistic Theory in a Functional Psychology.
Medienpsychologische Sicht 53
Das fehlende Wissen der SchlerInnen zeigte sich ebenso auf metakognitiver
Ebene. Berechnet wurde hier ein intraindividuelles Zusammenhangsma zwischen
der subjektiven Sicherheit der SchlerInnen in die Korrektheit ihrer eigenen Antwor-
ten, und der tatschlichen Korrektheit ihrer Angaben (metakognitive Akkuratheit).
Dieser Zusammenhang war nur geringfgig vorhanden fr die Angaben zu offen-
barten Prolinhalten, und fehlte fr die Angaben zu den Publikumseinstellungen
vollstndig. Dieses Ergebnis impliziert, dass NutzerInnen nicht nur nicht wissen,
wer potentiell Zugang zu ihren Informationen hat, sondern sich selbst darber
hinaus auch nicht bewusst ber diese Wissenslcke sind.
Im Kontext der Kommunikation auf sozialen Netzwerkseiten ist das potenti-
elle Publikum vergleichsweise unkompliziert zu kontrollieren. Auch wenn das
Interface-Design der verschiedenen Angebote variiert, so ist es doch in der Regel
mglich, Kontrolle darber auszuben, welche anderen Personen Zugang zu den
eigenen Informationen haben. Dennoch ben NutzerInnen diese Form der Kontrolle
kaum aus, zum Beispiel ber das Erstellen spezischer Empfngerlisten,15 und
haben kaum Wissen darber, welche anderen NutzerInnen auf ihre Informationen
zugreifen knnen. Mit anderen Worten haben sie keine validen Anhaltspunkte fr
das potentielle Publikum, aus denen sie den Status Quo ihrer Privatheit ableiten
knnten. Dies und das darber hinaus festgestellte eingeschrnkte Bewusstsein ber
dieses fehlende Wissen macht eine funktionale Privatheitsregulation zumindest
unwahrscheinlicher.
Im Gegensatz zur Kommunikation mit dem Netzwerkpublikum, gibt es im Kon-
text der institutionellen Datenverarbeitung durch Unternehmen und Behrden kaum
eine Mglichkeit, einen berblick ber die potentiellen Empfnger zu erlangen
oder den Zugriff auf Informationen in efzienter Form einzuschrnken. Darber
sind sich NutzerInnen durchaus bewusst, worauf folgendes Zitat aus einer qualitati-
ven Untersuchung von Kang, Dabbish, Fruchter, und Kiesler hinweist: I think it
goes everywhere. Information just goes, well say like the earth. I think everybody
has access.16 NutzerInnen knnen entsprechend kein akkurates Wissen ber ihr
potentielles, institutionelles Publikum haben. Die geschilderten empirischen Befun-
de implizieren darber hinaus, dass selbst wenn NutzerInnen den Zugriff auf ihre
Informationen durch Unternehmen und Behrden granular beschrnken knnten,
sie dies vor groe Herausforderungen stellen wrde.
15 Vitak, The Impact of Context Collapse and Privacy on Social Network Site Disclosures.
16 Kang u. a., My Data Just Goes Everywhere, S. 45.
Medienpsychologische Sicht 55
weise gesttzt durch Befunde aus einer Eyetracking-Studie, die das Leseverhalten
von Twitter-Nutzern untersuchte. Hier zeigte sich, dass die Nutzer sich jedem
Tweet nur sehr kurz widmen und sich hinterher nur an einen Teil der gelesenen
Inhalte erinnern.28 Insgesamt scheinen NutzerInnen also als Konsequenz aus ihrer
Informationsberladung ihre begrenzte Aufmerksamkeits- und Verarbeitungskapa-
zitt konomisch einzusetzen, in dem sie berssige Informationen systematisch
ausblenden.29
Diese alltglichen Erfahrungen und Strategien knnen bedeutend fr implizite
Theorien und Annahmen ber das Publikum sein. So benutzen Menschen ihre
eigenen Erfahrungen und Verhaltensweisen oft als ein Standard-Modell, wenn sie
Annahmen ber andere Menschen bilden.30 bertragen auf die beschriebene Er-
fahrung knnte dies entsprechend dazu fhren, dass NutzerInnen aufgrund ihrer
eigenen Informationsberladung davon ausgehen, dass auch andere Akteure nur
begrenzte Aufmerksamkeits- und Verarbeitungskapazitten haben und daher sorgfl-
tig selektieren mssen, welchen Informationen sie Beachtung schenken. Lundblad
argumentierte in diesem Zusammenhang, dass NutzerInnen auf Basis dieser An-
nahme eine kollektive Privatheitserwartung entwickeln: Auch wenn Informationen
grundstzlich ffentlich zugnglich seien, knnten sie als privat wahrgenommen
werden, da die berwltigende Masse aller vorhandenen Informationen es unwahr-
scheinlich macht (wenn auch nicht ausschliet), dass sich nur wenige Leute die
Mhe machen, einzelne Informationen zu kontextualisieren und ihnen somit erst
Bedeutung zu geben.31 Insofern scheint es seitens der NutzerInnen zumindest ein
latentes Bewusstsein dafr zu geben, dass andere Akteure die in numerischem
Format vorliegenden Daten nur unter Aufwand begrenzter Verarbeitungsressour-
cen in tatschliches Wissen umwandeln knnen. Die skizzierten berlegungen
zum tatschlichen Publikum implizieren ein probabilistisches Grundmodell von
Privatheit, da es auf Wahrscheinlichkeitsaussagen ber das Publikum basiert. Dies
steht in Kontrast zur deterministischen Ausrichtung des Rechts auf informatio-
nelle Selbstbestimmung, innerhalb derer Personen tatschliche Kontrolle darber
ausben knnen sollen, wer ihr Publikum ist.
Privatheit getreten sein, innerhalb dessen sie Privatheit nicht auf Basis tatschli-
cher Kontrolle darber ableiten wer was wann bei welcher Gelegenheit ber ihn
wei,36 sondern auf Basis unsicherer Annahmen ber ihr tatschliches Publikum
(s. 4).
In Bezug auf das institutionelle Publikum, das ber die automatisierte Erhe-
bung und Speicherung personenbezogener Daten kaum kontrolliert werden kann,
scheinen NutzerInnen hnliche Erwartungen und Mastbe anzulegen, wie im
Kontext der Kommunikation mit anderen NutzerInnen: Klassisch hierfr ist die
Aussage, man htte vor datensammelnden Unternehmen und Behrden nichts
zu verbergen.37 Innerhalb eines probabilistischen Modells von Privatheit wrde
diese Aussage keinesfalls bedeuten, dass Personen ihre Privatheit gleichgltig ist,
sondern lediglich, dass sie diese anders denieren: Ihre (unsicheren) Annahmen
und Theorien zum tatschlichen Publikum suggerieren, dass ihre Informationen
privat genug bleiben nicht weil sie den Zugang wirklich kontrollieren knnen
(deterministisches Modell), sondern weil sie nicht davon ausgehen, dass tatsch-
lich viele Akteure sich die Mhe machen sie zu lesen (probabilistisches Modell).
An dieser Stelle offenbart sich der fehlerhafte Charakter eines probabilistischen
Privatheitsmodells, der sich schon im Kontext der Kommunikation mit anderen
NutzerInnen andeutete. Die grundlegende Annahme, der Zugriff auf die eigenen
Informationen sei ber die knappen Aufnahme- und Verarbeitungskapazitten an-
derer Akteure begrenzt, trifft im Kontext des institutionellen Publikums kaum zu.
Anstelle menschlicher Verarbeitungskapazitten stehen auf Seiten des institutionel-
len Publikums Rechenzentren und Algorithmen, deren Ressourcen nicht natrlich,
sondern hchstens nanziell begrenzt sind.
Was bedeutet dies nun in Bezug auf die Zukunft des Rechts auf informationelle
Selbstbestimmung? Auer Frage steht, dass Mglichkeiten zur rechtlichen und
technischen Umsetzung gefunden werden mssen, die die Durchsetzung des Rechts
auf informationelle Selbstbestimmung erhalten und ermglichen.38 Diese Mg-
lichkeiten sollten bercksichtigen, dass NutzerInnen begrenzte Ressourcen haben,
um sich im Alltag mit diesen Fragen auseinanderzusetzen. Entsprechend sollten
Technologien und Anwendungen dem Prinzip der Datensparsamkeit folgen und
dabei privatheitsfreundliche Grundeinstellungen implementieren. Darber hinaus
sollten Mglichkeiten zur Wahrnehmung dieses Rechts so in das Webseiten- und
Applikations-Interface eingebunden sein, dass Handlungsoptionen simpel, direkt,
und intuitiv sind.
Damit NutzerInnen jedoch auch tatschlich Gebrauch von ihrem Recht auf in-
formationelle Selbstbestimmung machen, mssen sie zunchst darber aufgeklrt
36 Zit. nach Culmsee, Prinzipien des Datenschutzrechts.
37 Solove, Ive got nothing to hide and Other Misunderstandings of Privacy.
38 Z. B. Hoffmann u. a., Legal Compatibility as a Characteristic of Sociotechnical Systems.
Medienpsychologische Sicht 61
werden, warum gerade die deterministische Ausrichtung dieses Rechts, im Sinne ei-
ner Ausrichtung auf tatschliche Kontrolle ber ihre Informationen, fundamental fr
individuelle Freiheit und Autonomie ist. Verinnerlicht werden muss, dass ein proba-
bilistisches Verstndnis von Privatheit nicht gut genug ist, da die dahinterstehenden
Annahmen falsch sein knnen (z. B. wenn begrenzte Verarbeitungsressourcen auf
Seiten des institutionellen Publikums angenommen werden), und unabhngig davon
keine Garantie fr das erwnschte Ma an Privatheit darstellen. Schlielich sollte
bewusst gemacht werden, dass die Bedeutung privatheitsbezogener Entscheidungen
individuelle Risiken bersteigt, indem sie gesellschaftspolitische Einstellungen
transportiert und die damit verbundenen gesellschaftlichen Entwicklungen beein-
ussen kann. Diese zum Teil politisch geprgte Bildung ist die Voraussetzung
dafr, dass es auch in Zukunft Akteure geben wird, die rechtliche und technische
Entwicklungen zugunsten informationeller Selbstbestimmung prgen knnen.
Literatur
Acquisti, Alessandro. Privacy in Electronic Commerce and the Economics of Im-
mediate Gratication. In: Proceedings of the 5th ACM Conference on Electronic
Commerce EC04. New York: ACM, 2004, S. 2129. DOI: 10.1145/988772.
988777.
Acquisti, Alessandro, Laura Brandimarte und Georg Loewenstein. Privacy and
Human Behavior in the Age of Information. In: Science 347.6221 (2015),
S. 509514.
Altman, Irwin. Privacy a conceptual analysis. In: Environment and Behavior
81.1 (1976), S. 730.
Ben-Zeev, Aaron. Privacy, Emotional Closeness, and Openness in Cyberspace.
In: Computers in Human Behavior 19.4 (2003), S. 451467. DOI: 10.1016/S0747-
5632(02)00078-X.
Bernstein, Michael S. u. a. Quantifying the Invisible Audience in Social Networks.
In: Proceedings of the SIGCHI Conference on Human Factors in Computing
Systems CHI13. New York: ACM, 2013, S. 2130. DOI: 10.1145/2470654.
2470658.
boyd, danah m. Taken Out of Context: American Teen Sociality in Networked Pu-
blics. Diss. Berkeley: University of California Berkeley, School of Information,
2008. URL: http://www.danah.org/papers/TakenOutOfContext.pdf (besucht am
23. 06. 2015).
Bromme, Rainer. On the Limitations of the Theory Metaphor for the Study of
Teachers Expert Knowledge. In: Teacher Thinking Twenty Years On: Revisiting
62 Ricarda Moll
Persisting Problems and Advances in Education. Hrsg. von Michael Kompf und
Pam Denicolo. Boca Raton: CRC Press, 2003, S. 283294.
Brunswik, Egon. Representative Design and Probabilistic Theory in a Functional
Psychology. In: Psychological Review 62.3 (1955), S. 193217. DOI: 10.1037/
h0047470.
Counts, Scott und Kristie Fisher. Taking It All In? Visual Attention in Microblog
Consumption. In: Proceedings of the Fifth International AAAI Conference on
Weblogs and Social Media. Barcelona: The AAAI Press, Juli 2011. URL: http:
//www.aaai.org/ocs/index.php/ICWSM/ICWSM11/paper/viewFile/2769/3298
(besucht am 09. 09. 2016).
Culmsee, Thorsten. Prinzipien des Datenschutzrechts. In: Praxishandbuch Big
Data: Wirtschaft, Recht, Technik. Hrsg. von Joachim Dorschel. Wiesbaden: Sprin-
ger Gabler, 2015.
Dienlin, Tobias. The Privacy Process Model. In: Medien und Privatheit. Hrsg.
von Simon Garnett u. a. Passau: Stutz, 2014, S. 105122.
Dinev, Tamara und Paul Hart. An Extended Privacy Calculus Model for E-
Commerce Transactions. In: Information Systems Research 17.1 (2006), S. 61
80. DOI: 10.1287/isre.1060.0080.
Dweck, Carol S., Chi-yue Chiu und Ying-yi Hong. Implicit Theories and their Role
in Judgments and Reactions: A World from Two Perspectives. In: Psychological
Inquiry 6.4 (1995), S. 267285.
Eppler, Martin J. und Jeanne Mengis. The Concept of Information Overload: A
Review of Literature from Organization Science, Accounting, Marketing, MIS,
and Related Disciplines. In: The Information Society 20.5 (2004), S. 325344.
DOI : 10.1080/01972240490507974.
Franck, Georg. konomie der Aufmerksamkeit: Ein Entwurf. Mnchen: Hanser,
1998.
Frye, Nancy E. und Michele M. Dornisch. When is Trust not Enough? The Role
of Perceived Privacy of Communication Tools in Comfort with Self-Disclosure.
In: Computers in Human Behavior 26.5 (2010), S. 11201127.
Gebel, Christa, Gisela Schubert und Ulrike Wagner. . . . dann sollte man gar nicht
erst ins Internet, weil sie da mit Daten machen, was sie wollen. Risiken im
Bereich Online-Kommunikation und Persnlichkeitsschutz aus Sicht Heranwach-
sender. Ausgewhlte Ergebnisse der Monitoringstudie. ACT ON! Short Report
Nr. 2. Mnchen: JFF Institut fr Medienpdagogik in Forschung und Praxis,
2016. URL: http://www.jff.de/act-on (besucht am 09. 09. 2016).
Gelman, S.A. und N. S. Noles. Domains and Naive Theories. In: Wiley Interdis-
ciplinary Reviews: Cognitive Science 2.5 (2011), S. 490502.
Hargittai, Eszter, W. Russel Neuman und Olivia Curry. Taming the Information
Tide: Perceptions of Information Overload in the American Home. In: The
Medienpsychologische Sicht 63
Moll, Ricarda, Stephanie Pieschl und Rainer Bromme. Whoever will Read it
The Overload Heuristic in Collective Privacy Expectations. Unverffentlichtes
Manuskript. Westflische Wilhelms-Universitt Mnster, 2015.
Nickerson, Raymond S. How we Know and Sometimes Misjudge What Others
Know: Imputing Ones Own Knowledge to Others. In: Psychological Bulletin
125.6 (1999), S. 737759.
Petronio, Sandra. Boundaries of Privacy: Dialectics of Disclosure. Albany: State
University of New York Press, 2002.
Pieschl, Stephanie. Metacognitive Calibration: An Extended Conceptualization
and Potential Applications. In: Metacognition and Learning 4.1 (2009), S. 331.
DOI : 10.1007/s11409-008-9030-4.
Pieschl, Stephanie u. a. Relevant dimensions of cyberbullying: Results from two
experimental studies. In: Journal of Applied Developmental Psychology 34.5
(2013), S. 241252. DOI: 10.1016/j.appdev.2013.04.002.
Schmidt, Jan Hinrik. (Micro)blogs: Practices of Privacy Management. In: Privacy
Online. Hrsg. von Sabine Trepte und Leonard Reinecke. Berlin und Heidelberg:
Springer, 2011, S. 159173.
Solove, Daniel J. Ive got nothing to hide and Other Misunderstandings of
Privacy. In: St. Diego Law Review 44 (2007), S. 745772.
Taddei, Stefano und Bastianina Contena. Privacy, Trust and Control: Which Rela-
tionships with Onlineself-Disclosure? In: Computers in Human Behavior 29.3
(2013), S. 821826. DOI: 10.1016/j.chb.2012.11.022.
Trepte, Sabine und Leonard Reinecke, Hrsg. Privacy Online: Perspectives on
Privacy and Self-Disclosure in the Social Web. Berlin und Heidelberg: Springer,
2011.
Tversky, Amos und Daniel Kahneman. Judgement under Uncertainty: Heuristics
and Biases. In: Science 185 (27. Sep. 1974), S. 11241131.
Vigas, Fernanda B. Bloggers Expectations of Privacy and Accountability: An
Initial Survey. In: Journal of Computer-Mediated Communication 10.3 (2005).
DOI : 10.1111/j.1083-6101.2005.tb00260.x.
Vitak, Jessica. The Impact of Context Collapse and Privacy on Social Network
Site Disclosures. In: Journal of Broadcasting and Electronic Media 56.4 (2012),
S. 451470. DOI: 10.1080/08838151.2012.732140.
Wilson, Dave und Joseph S. Valacich. Unpacking the Privacy Paradox: Irrational
Decision-Making within the Privacy Calculus. In: Proceedings of the Thirty
Third International Conference on Information Systems, ICIS 2012, Orlando.
2012. URL: http://aisel.aisnet.org/cgi/viewcontent.cgi?article=1286&context=
icis2012 (besucht am 09. 09. 2016).
Informationelle Selbstbestimmung und die
Bestimmung des Selbst
Michael Nagenborg
1. Einleitung
Eine der Grundannahmen im sogenannten Persuasive Design1 lautet, dass die
Dinge, die wir nutzen, keine wertneutralen Instrumente sind, sondern bestimmte
Nutzungs- und Wahrnehmungsformen nahelegen oder gar einen Anreiz dazu geben,
das Artefakt in dieser oder jener Form zu nutzen.2 Es ist durchaus naheliegend,
diese berlegungen auch bei der Gestaltung von Datenschutz-freundlichen oder
Datenschutz-frderlichen Technologien anzuwenden und beispielsweise Schnittstel-
len so zu gestalten, dass die Wahrscheinlichkeit gesenkt wird, mit der Nutzer(innen)
personenbezogene Daten preisgeben. So hatte Ugo Pagallo (2014) etwa im Rah-
men des Onlife-Projektes der Europischen Kommission vorgeschlagen, Elemente
des persuasive designs in der Gestaltung von Online-Angeboten und der ihnen
zugrundeliegenden Infrastruktur aufzugreifen.3 Die Idee ist auch deswegen nahelie-
gend, weil einige Online-Angebote wie z.B. Facebook anscheinend sehr erfolgreich
darin sind, Menschen zur Daten-Preisgabe anzuregen und deswegen auch in
der einschlgigen Literatur gerne als Beispiele fr effektives Persuasive Design
herangezogen werden.4 Wieso also nicht die gleichen Einsichten dazu nutzen, die
Wahrscheinlichkeit der Daten-Preisgabe zu senken?
Die Idee ist jedoch ebenso naheliegend wie paradox: Denn einerseits soll das
Recht auf informationelle Selbstbestimmung ja gerade das selbstbestimmte Handeln
der Nutzer(innen) von digitalen Medien ermglichen, anderseits wird aber eben
5 Vgl. hierzu im Kontext von ubiquitren Computersystemen z. B.: Spiekermann und Pallas, Tech-
nologiepaternalismus.
6 Clark und Chalmers, The Extended Mind; die Plausibilisierung knnte auch durch Rckgriff
auf andere Theorien und Konzepte erfolgen, etwa auf die sog. Post-Phnomenologie. Vgl., z. B.
Verbeek, Moralizing Technology.
7 Hier und im Folgenden beziehe ich mich auf den grundlegenden Beitrag von Clark und Chalmers,
The Extended Mind; der Aufsatz hat eine lebhafte Rezeption erfahren, auf die hier nicht eingegan-
gen werden soll. Eine gute bersicht ber die Debatte des Ansatzes und seiner Weiterentwicklung
ndet sich in bei Aydin, The Artifactual Mind; einen guten berblick zur hnlich gelagerten
Theorie der kognitiven Artefakte bietet: Heersmink, A Taxonomy of Cognitive Artifacts.
Informationelle Selbstbestimmung und die Bestimmung des Selbst 67
2. Mind umfasst auch diejenigen Ttigkeiten des Geistes, die uns zumindest
temporr nicht zu Bewusstsein kommen. Erinnerungen sind deshalb auch
ein beliebtes Beispiel in der Debatte, weil diese uns zum einen nicht stets
bewusst sind, zum anderen aber im Geist verortet werden. Wenn wir uns an
etwas erinnern, dann verlsst die Erinnerung den nicht-bewussten Bereich des
Geistes und wird uns wieder bewusst. Dieser nicht-bewusste Bereich des Geistes
wird im Rahmen der klassischen Anstze der Philosophy of Mind als Teil des
geistigen Innenraums gedacht. In der Extended Mind Theory hingegen ist es
denkbar, dass Erinnerungen (aber auch andere nicht-bewusste geistige Inhalte
und Ttigkeiten) in die Auenwelt ausgelagert werden. Wohl gemerkt: Wenn der
Geist erweitert wird, so bezieht sich diese Erweiterung auf die nicht-bewussten
Inhalte und Prozesse. Das Bewusstsein wird hingegen nicht erweitert und wir
erfahren auch weiterhin unser Bewusstsein als Zentrum geistigen Erlebens.
Wenn wir dieser Behauptung in Hinblick auf Ottos Notizbuch zustimmen, dann
ist es naheliegend, das innige Verhltnis, das viele zu ihrem Smartphone haben,
ebenfalls aus dieser Perspektive zu betrachten und Mensch und Technik als cou-
pled system zusammen zu denken.9 Um an dieser Stelle Missverstndnisse zu
vermeiden: Nicht jede Nutzung eines Smartphones (oder einer anderen Informa-
tionstechnologie) berechtigt uns, von einem coupled system zu sprechen. Die
nur sporadische Nutzung ist etwa nicht ausreichend. Auch ist es denkbar, dass nur
bestimmte Aspekte des Smartphones fr das coupled system von Relevanz sind:
Die elektronische Aufgabenliste mag eher dazu gehren als z. B. die Wetter-App.
Vereinfacht ausgedrckt: Je nher die Praxis der Smartphone-Nutzung an das k-
tive Beispiel von Ottos Notizbuch kommt, desto mehr ist es sinnvoll, von einem
coupled system zu sprechen.
Ciano Aydin10 geht noch einen Schritt weiter, indem er die Frage aufwirft, warum
im Rahmen der Extended Mind Theory davon ausgegangen wird, dass es einen
natrlich gegebenen Geist/Mind gibt, der dann erweitert wird. Da er keinen
Anlass sieht, den inneren geistigen Vorgngen oder Inhalten einen Vorrang vor den
uerlichen einzurumen, schlgt er vor, das Modell des Extended Minds noch
weiter zu radikalisieren und spricht vom Artifactual Mind einem Geist, der
ganz wesentlich von den uerlichen Vorgngen geprgt ist. Insbesondere in dieser
radikalisierten Variante sollte die Relevanz dieser berlegungen fr die informatio-
nelle Selbstbestimmung deutlich werden. In dem zweiten Teil des Kapitels mchte
ich deshalb nun nach den mglichen Konsequenzen dieses Befundes fragen.
mie als eine wnschenswerte Form der Freiheit zu begrnden. Auch dies ist nicht
gnzlich neu, weil die Bestimmung der als natrlich gedachten Autonomie
ja ebenfalls einiges an Nachdenken erfordert. Das fngt mit der Frage nach der
Willensfreiheit an, die sich in der Diskussion bestenfalls als notwendige, aber nicht
hinreichende Bedingung fr die Zuschreibung von Autonomie erweisen mag.12
Die Crux ist: Wenn Autonomie nicht lnger als eine gegebene und deswegen scht-
zenswerte Eigenschaft des Menschen gedacht wird, sondern als eine besondere und
zu (auch mit technischen) realisierende Form der Freiheit, dann gilt es zu klren,
warum wir gerade in diesem Sinne frei sein wollen. Was nicht lnger greift, ist der
Einwand, dass dort wo Technik ins Spiel kommt, eine natrliche und schtzenswerte
Eigenschaft des Menschen unterwandert wird.
Was dies bedeuten knnte, mchte ich abschlieend noch einmal am Beispiel
des persuasive designs zur Strkung des Selbstdatenschutzes verdeutlichen. Wenn
wir nicht davon ausgehen, dass das Selbst unabhngig von der Technik existiert,
dann erscheint die Idee der bewussten Gestaltung von Online-Angeboten mit dem
Ziel, bestimmte Verhaltensweisen wahrscheinlicher zu machen, nicht mehr ganz
so skandals. Denn im Rahmen der vorgeschlagenen Betrachtungsweise bedeutet
ein solches Unterfangen nicht, das Verhalten der Benutzer(innen) zu manipulieren,
sondern sie bei der Realisierung einer bestimmten Form der Freiheit in diesem
Fall: Der Freiheit Nein zu sagen zu untersttzen. Zugleich stellt sich die Frage
danach, wer darber entscheiden soll und kann, welche Form von Freiheit in
ihrer Realisierung untersttzt werden soll, mit um so grerer Dringlichkeit. Diese
Frage ist aber unvermeidlich, sofern wir bereit sind, Technikgestaltung als Selbst-
Gestaltung ernst zu nehmen. Es gilt dann nmlich nicht lnger, Freiheit allein
durch die Zurckweisung und Beschrnkung von Technik zu realisieren - sondern
durch die entsprechende Gestaltung zu ermglichen.13 Ein erster Schritt hier knnte
sein, Technologien zu kennzeichnen, die darauf abzielen, ein coupled system zu
konstituieren oder die in der Praxis ein solches ermglichen.
radikalisiert, in deren Rahmen der Geist letztendlich wesentlich als von ueren
Prozessen geprgt erscheint. Diese Anstze haben dabei durchaus Implikationen
fr die Praxis. So wird, beispielsweise, eine Unterscheidung zwischen personenbe-
zogenen Daten und Daten, die Teil eines coupled systems und somit einer Person
sind, ermglicht.
Mir ging es aber gar nicht so sehr darum, diese speziellen Anstze zu verteidigen.
Vielmehr ging es mir darum aufzuzeigen, dass wenn Selbst und Technik
nicht mehr als unabhngig voneinander gedacht werden, Technikgestaltung als
Selbstgestaltung ernst zu nehmen ist.
Literatur
Aydin, Ciano. The Artifactual Mind: Overcoming the InsideOutside Dualism
in the Extended Mind Thesis and Recognizing the Technological Dimension of
Cognition. In: Phenomenology and the Cognitive Sciences 14.1 (2015), S. 73
94.
Buss, Sarah. Personal Autonomy. In: The Stanford Encyclopedia of Philosophy.
Hrsg. von Edward N. Zalta. Winter 2014 Edition. 2014. URL: http://plato.stanford.
edu/archives/win2014/entries/personal-autonomy (besucht am 07. 10. 2016).
Clark, Andrew. Natural-Born Cyborgs: Minds, Technologies, and the Future of
Human intelligence. Oxford: Oxford University Press, 2003.
Clark, Andrew und David Chalmers. The Extended Mind. In: Analysis 58 (1998),
S. 1023.
Dorrestijn, Steven und Peter-Paul Verbeek. Technology, Wellbeing, and Freedom:
The Legacy of Utopian Design. In: Journal of Design 7.3 (2013), S. 4556.
Fogg, B. J. Persuasive Technology: Using Computers to Change What We Think
and Do. San Francisco: Morgan Kaufmann, 2002.
Fogg, B. J. und Daisuke Iizawa. Online Persuasion in Facebook and Mixi: A
Cross-Cultural Comparison. In: Persuasive Technology: Proceedings of the
Third International Conference on Persuasive Technology, Oulu, Finland, June
4-6, 2008. Berlin und Heidelberg: Springer, 2008, S. 3546.
Hallinan, Dara u. a. Neurodata and Neuroprivacy: Data Protection Outdated? In:
Surveillance & Society 12.1 (2014), S. 5572. URL: http://www.surveillance-
and-society.org (besucht am 07. 10. 2016).
Heersmink, Richard. A Taxonomy of Cognitive Artifacts: Function, Information,
and Categories. In: Review of Philosophy and Psychology 4.3 (2013), S. 465
481.
72 Michael Nagenborg
Pagallo, Ugo. Good Onlife Governance: On Law, Spontaneous Orders, and De-
sign. In: The Onlife Manifesto. Hrsg. von Luciano Floridi. Cham: Springer,
2014, S. 161177.
Spiekermann, Sarah und Frank Pallas. Technologiepaternalismus: Soziale Aus-
wirkungen des Ubiquitous Computing jenseits der Privatsphre. In: Die Infor-
matisierung des Alltags: Leben in smarten Umgebungen. Hrsg. von Friedemann
Mattern. Berlin, Heidelberg und New York: Springer, 2007, S. 311325.
Thaler, Richard H. und Cass R. Sunstein. Nudge: Improving Decisions about Health,
Wealth, and Happiness. New Haven: Yale University Press, 2008.
Verbeek, Peter-Paul. Moralizing Technology: Understanding and Designing the
Morality of Things. Chicago: University of Chicago Press, 2011.
Das mehrfache Selbst der Selbstbestimmung im
Kontext elektronischer Kommunikation
Folgt man Kitchin, sind Daten ein Rohmaterial oder natrliche Ressource, das
nicht gefunden, sondern hergestellt (produced) wird, und zwar durch Abstrakti-
on, durch Idealisierung und Verallgemeinerung, durch das Entfernen von Welt.
Daten sind somit Teil der phsis, der vorhandenen Natur und das Ergebnis einer
technisch-handwerklichen Transformation, die die materielle Welt entfernt und
abtrennt. Auch in der nheren Bestimmung rechnet Kitchin die Daten sowohl
dem Bereich der rein formalen oder idealen Gren zu (Zahlen, Zeichen, Symbole
und Bilder) als auch dem Bereich der physikalischen Phnomene (Schallwellen,
elektromagnetische Wellen). Daten sind (in dieser Bestimmung) sowohl der Natur
als auch der Technik zugehrig, sie sind Voraussetzung eines Prozesses und dessen
Ergebnis, sie sind der materiellen und der immateriellen Welt zugehrig.
Begriffsgeschichtlich leiten die Daten sich bekanntlich ab von lat. dare, datum:
das Gegebene. Was mit den Daten jeweils gegeben wird, hat sich im Lauf
der Verwendung des Begriffs allerdings grundlegend verndert, wenn nicht ins
Gegenteil verkehrt. Wie Rosenberg4 nachweist, war data bereits im frhen 18.
Jahrhundert ein im wissenschaftlichen Kontext blicher Begriff, der vor allem
in mathematischen und theologischen Schriften der Epoche zu nden ist. Beides
2 Vgl. Saint-Mont, Die Macht der Daten, S. X.
3 Kitchin, The Data Revolution, S. 1, meine Hervorhebungen.
4 Rosenberg, Daten vor Fakten.
Das mehrfache Selbst der Selbstbestimmung 75
einmal denkmglich, sie sind ganz dem Inneren und Uneinsehbaren dieser automa-
tisiert ablaufenden Verarbeitungsvorgnge zuzurechnen und es sind diese, denen
das eigentliche Primat zukommt. Daten werden noch nher an den Prozess ihrer
Verarbeitung gerckt und von diesem ununterscheidbar, insofern in der heutzutage
blichen Von-Neumann-Architektur von Rechensystemen die Algorithmen (die
Software) im selben Speicher gehalten werden und genauso adressierbar werden
wie die Daten, die von diesen zu verarbeiten sind.
an. So knnen zwei oder mehr gegebene Datenstze prinzipiell immer nur daraufhin
untersucht werden, ob zwischen ihnen Isomorphie besteht, d. h. ob ein 1:1-Abgleich
zwischen beiden Stzen durchgefhrt werden kann. Aussagen von der Art, es wrde
sich bei einem Datensatz um eine Kopie eines anderen handeln, oder es wrde
eine Identitt zwischen beiden bestehen, sind schlicht nicht sinnvoll und setzen
unzulssigerweise Daten mit Informationen gleich. Whrend die Differenz von
Daten und Informationen in der Theorie auf unterschiedliche Weisen gefasst
wird, besteht Konsens darin, dass eine Differenz besteht Informationen werden als
Daten plus Struktur, Daten plus Kontext, Daten plus Bedeutung u. a. mehr gefasst.11
Information entsteht durch Interpretation und ist auf eine (mgliche oder wirkliche)
Welt bezogen, erst sie (und nicht die Daten) kann wahr oder falsch, berraschend
oder redundant sein und erst in ihr realisiert sich ein bestimmter Zweck.
3. ber Metadaten
In Big-Data-Szenarien sind oftmals die so genannten Metadaten Daten, die
Eigenschaften anderer Daten beschreiben von besonderem Interesse. Und zwar
aus mindestens dreierlei Grnden:
Erstens sind Metadaten einer Speicherung und weiteren Verarbeitung aus vielen
Grnden leichter zugnglich als etwa die Inhaltsdaten einer Kommunikation: Sie
liegen bereits in standardisierter, verarbeitbarer Form vor; sie enthalten Angaben
ber Ort und Zeit einer Kommunikation; sie sind fr Netzwerkanalysen unerlss-
lich; sie sind in rechtlicher und politischer Hinsicht weniger problematisch als die
in besonderer Weise (sowohl legal als gegebenenfalls auch technisch durch Ver-
schlsselung) geschtzten Inhalte einer Kommunikation, und vieles mehr. Zweitens
suggerieren dem Begriff nach die Metadaten eine hhere Wahrheitsfhigkeit,
als sie bloen Daten zugestanden wird. Die griechische Vorsilbe meta- dient in
Termini wie Metasprache, Metaphysik, Metaebene oder Metakommunika-
tion regelmig dazu, eine epistemische Differenz zu behaupten: eine Hierachie
zwischen einer niederen, einfachen und einer hheren, weil allgemeineren
Erkenntnis oder Einsicht in die Welt.12 Drittens versprechen Metadaten, im Kontext
von Web 2.0 paradoxerweise einen unmittelbareren Zugriff auf die Subjekte der
Daten als es Analysen des user generated content fr sich genommen erlauben
wrden. Das liegt daran, dass Aktivitten, Mobilitt, Kommunikationen, die in Ap-
plikationen des Web 2.0 durch mobile, vernetzte Medien protokolliert werden, nicht
nur nach (intentionalen) Inhalten (Welches Hashtag ist zu einer bestimmten Zeit,
in einer bestimmten Region, auf twitter dominant? Wonach suchen Nutzer aktuell
11 Vgl. Kitchin, The Data Revolution, S. 9-11; Floridi, Information: A Very Short Introduction, S. 20.
12 Zur Kritik daran: Boellstorff, Die Konstruktion von Big Data in der Theorie.
78 Dietmar Kammerer
sei es, weil durch die schiere Zahl an aggregierten Daten eine Art Kollektiv-
Subjekt als berechenbare Gre entsteht, das statistisch beschreibbar und aus-
wertbar ist und (nach Art eines Rousseauschen volont de tous) den Willen oder
das Wissen eines jeden partikularen Einzelnen berschreitet;
sei es, weil die Nutzung von mobilen digitalen Gerten oder von Plattformen wie
Facebook alternativlos geworden ist und durch Gewhnung und Routine in den
Hintergrund bewussten Handelns gerckt wurde;
Damit wre die Botschaft eines Mediums nicht der (bewusste) Inhalt einer
Kommunikation, sondern die den Vorgang der Kommunikation beschreibenden
Metadaten, die vom Subjekt der Daten in bewusster Weise kaum kontrolliert
13 Andrejevic und Burdon, Dening the Sensor Society.
14 Vgl. hierzu Sprenger, Politik der Mikroentscheidungen.
Das mehrfache Selbst der Selbstbestimmung 79
werden knnen. Metadaten, vor allem solche aus dem Web 2.0, gelten als spon-
taner, authentischer und unmittelbarer und damit wahrheitsfhiger, weil sie
gerade diejenigen Aspekte einer technisch vermittelten Kommunikation erfassen,
die vom Menschen nicht (oder nur mit Mhe) kontrolliert werden knnen. Auch in
Anwendungen des Quantied Self sollen Sensoren Auskunft geben ber unser
unbewusst-vegetatives Leben Schlafgewohnheiten, Herzrhythmus, Blutdruck usw.
und uns auf eine Weise ber uns selbst aufklren, die jede gezielte Selbstbeobach-
tung bersteigt, da die Sensoren (Fitnessarmbnder) nicht lgen. Diese Metadaten
unseres (biologischen) Lebens holen das Zufllige, das Spontane, das Unberechen-
bare ber statistische Verfahren und die Denkgur der Korrelation wieder ein und
fhren es einer Auswertung zu. Diese Daten oder Registrierungen sind zwar einzeln
zurechenbar, sind von Menschenhand oder einem Selbst ausgegangen, aber an
ihnen werden gerade diese Dimensionen verwertbar, die dem bewussten Selbst
entgehen, weil sie in dessen unbewusster Natur oder Wesen liegen. So klingt die
Formel des letting the data speak15 wie das ferne Echo auf die frhromantische
Vorstellung einer signatura rerum, einer Sprache, die in den stummen Dingen der
Natur verborgen liegt und die sich nur demjenigen erffnet, der es versteht zu
hren.16
19 Krmer, Spur.
Das mehrfache Selbst der Selbstbestimmung 81
physis oder Natur, insofern sie eben mit naturgesetzlicher Notwendigkeit entstehen,
insofern sie unserem Wollen entzogen sind und sich als ein Verhltnis von Ursache
und Wirkung darstellen, dem nicht zu entkommen ist.
In paketbasierter, elektronischer Kommunikation ist es nicht mglich, keine Spu-
ren zu hinterlassen.20 Will man berhaupt in Kommunikation einsteigen, wird man
mit Notwendigkeit digitale Spuren produzieren, die nur mit einigem Aufwand (man
denke hier an Verschlsselungstechniken oder das TOR-Netzwerk) zu kaschieren
sind. Auf diese technischen Fragen will ich aber nicht eingehen, sondern nur darauf,
was fr eine Figur dieses Selbst ist, das permanent Spuren in Form von Kopfda-
ten, IP-Paketen, IP-Adressen, Verkehrsdaten, Standortdaten usw. produziert und
hinterlsst. Ich denke, es ist vor allem durch zweierlei Eigenschaften charakterisiert:
Erstens ist es ein Subjekt, das seine Freiheit die zahlreichen Mglichkeiten der
Kommunikation auch als Zwang und Unfreiheit erfhrt, insofern es sich in einer
Netzwerkgesellschaft kaum vermeiden lsst, selbst in alltglichsten Handlungen
und Interaktionen Spuren zu hinterlassen. Und zweitens ist es sozusagen ein zu
umfangreiches Selbst, insofern es sich berall in diesem Netzwerk wiedern-
det. Mit anderen Worten: In elektronischen Netzwerken sind alle Daten, die von
den Kommunikationsteilnehmern hervorgebracht wurden, zumindest prinzipiell
personenbeziehbar, ganz unabhngig von ihrem Inhalt. In diesem Modell ist der
Anspruch auf informationelle Selbstbestimmung schlicht unmglich: Das Selbst
oder Subjekt ist notwendigerweise damit berfordert, wollte es ber alle seine
Spuren oder personenbeziehbaren Daten, die es in elektronischen Netzwerken hin-
terlsst, bestimmen oder auch nur den berblick darber behalten. Das erklrt
Forderungen nach einer technischen Ausgestaltung datenverarbeitender Systeme,
die die Missachtung des Rechts auf informationelle Selbstbestimmung wenn nicht
verunmglicht, so doch zumindest systematisch erschwert. Allerdings bedeutet
diese Auslagerung von Entscheidungsmacht an Technik zugleich auch eine Ein-
schrnkung oder eine (partielle) Aufgabe der Selbstbestimmung und Freiheiten des
Subjekts.
meiner Person geworden.26 Hier liegt meines Erachtens eine Steigerung vor,
eine Naturalisierung der Daten im Vergleich zur Denkgur der Spur. Die Daten
sind gewissermaen persnlicher geworden, nher an die Person, das Datensubjekt
herangerckt, enger mit ihm verknpft.
Kritisieren lsst sich an diesem Datenpossessivismus (mindestens) zweierlei:
Zum einen riskiert ein Datenschutz, der Individuen als Eigentmer ihrer Daten
begreift, dass diese ihr Eigentum als tauschbare Ware begreifen und die Verwer-
tungsrechte an ihren Daten an Dritte abgeben, egal, ob freiwillig oder unter sozialem,
konomischem oder sonstigem Druck. Zweitens ist dieser Anspruch sachlich kaum
zu rechtfertigen, da in einer durchgehend vernetzten Welt kein Individuum An-
spruch darauf erheben kann, in Autonomie und schpferischer Einsamkeit Daten
zu produzieren. Ebenso knnen die Daten einer Autoinspektion nicht allein auf
den Autobesitzer zurckgefhrt werden, insofern die Werkstatt ebenso mitgewirkt
hat. Auch bei Telefonaten und anderer Kommunikation wirken mindestens zwei
Beteiligte an der Datenproduktion mit. In jedem Fall sind es die von den Kommuni-
kationsunternehmen angebotenen Infrastrukturen und Netzwerke, die diese Daten
die Verkehrsdaten, die Transaktionsdaten berhaupt erst hervorbringen, die Art,
Umfang und Reichweite der Daten bestimmen.
Leben kontrollieren, eine Furcht, die in Buchtiteln wie Sie kennen dich! Sie haben
dich! Sie steuern dich!29 als unsere (paranoide) Gegenwart verkndet wird. Diese
Figur evoziert eine unheimliche, das heit: eine zugleich vollkommen vertraute und
uns dennoch fremde und unverstndliche Gre, die Einuss darauf zu nehmen
versucht, wer wir sind, wie wir handeln und wie wir leben wollen. Ein Schatten
ist nicht greifbar, er verndert sich mit uns, er verdoppelt unsere Bewegungen und
folgt uns berall hin. Einen Schatten kann man weder aufhalten noch bekmpfen.
Im data shadow ist das Natur-Werden der Daten auf die Spitze getrieben. Wh-
rend im Eigentum an Daten die Person oder Persnlichkeit des Datensubjekts
lediglich in veruerter, in uerer Form reprsentiert ist, so impliziert die Figur
des Datenschattens, liest man sie vor dem Hintergrund einer wirkmchtigen roman-
tischen Tradition des Unheimlichen, dass die Daten selbst als handlungsmchtige
und eigenstndige Instanzen anzusehen sind, die sich unserem Einuss entziehen.
Das Subjekt oder Selbst ist hier weitgehend ohnmchtig gegenber seinem Daten-
Doppel. Adelbert von Chamisso ist der Poetiker dieses tragischen Selbstverlustes:
In seinem Gedicht Erscheinung tritt der Schriftsteller unvermittelt seinem nchtli-
chen Doppelgnger gegenber und verliert den Wettstreit darum, wer der echte
Chamisso ist, weil er sich eingestehen muss, dass sein Alter Ego mehr ber ihn
wei, als er selbst.30
Diese Daten sind in dieser Redeweise nicht lnger personenbezogen wie die
Spuren oder persnlich wie das Eigentum , sie sind (scheinbar) selbst zu hand-
lungsfhigen Personen oder Akteuren geworden. Damit wre aus Technik Natur und
aus Natur Technik geworden: In dieser Metapher sind die beiden Aspekte vllig un-
unterscheidbar vereint. Denkt man die Rhetorik vom Datenschatten konsequent
weiter, wre man zur Entscheidung zwischen zwei Optionen gezwungen: Entweder
man entzieht sich der elektronischen Erfassung vollstndig, was den Verzicht auf
gesellschaftliche Teilhabe bedeuten wrde. Oder man akzeptiert und befrwortet
Praktiken und Institutionen, die unter Schlagworten wie Post Privacy31 oder
(kritisch) Transparenzgesellschaft32 diskutiert werden. In diesen Szenarien gibt
das Subjekt freiwillig oder unfreiwillig jegliche Kontrolle ber seine Daten
auf. In beiden Welten wre das Recht auf informationelle Selbstbestimmung
obsolet, da es durch den Zwang der informationellen Fremdbestimmung ersetzt
worden wre.
29 Morgenroth, Sie kennen dich! Sie haben dich! Sie steuern dich!
30 Chamisso, Smtliche Werke 1, S. 383ff.
31 Heller, Post-Privacy.
32 Han, Transparenzgesellschaft.
Das mehrfache Selbst der Selbstbestimmung 85
soziale (und solidarische) Grundlage: Nicht nur ich selbst, sondern auch der Andere
hat einen Anspruch darauf, dass ich meine Daten schtze.
Literatur
Andrejevic, Mark und Mark Burdon. Dening the Sensor Society. In: Television
& New Media 16.1 (2014), S. 1936. DOI: 10.1177/1527476414541552.
Boellstorff, Tom. Die Konstruktion von Big Data in der Theorie. In: Big Data.
Hrsg. von Ramn Reichert. Bielefeld: Transcript, 2014, S. 105131.
Bhme, Hartmut. Natur und Subjekt. Frankfurt am Main: Suhrkamp, 1988.
Chamisso, Adalbert von. Smtliche Werke. Band 1: Prosa Dramatisches Ge-
dichte Nachlese der Gedichte. Mnchen: Winkler, 1975.
Floridi, Luciano. Information: A Very Short Introduction. Oxford und New York:
Oxford University Press, 2010.
Gitelman, Lisa, Hrsg. Raw data is an oxymoron. Cambridge, Massachusetts: The
MIT Press, 2013.
Han, Byung-Chul. Transparenzgesellschaft. Berlin: Matthes und Seitz, 2012.
Heller, Christian. Post-Privacy: Prima leben ohne Privatsphre. Mnchen:
C.H.Beck, 2011.
Hoeren, Thomas. Big Data und Recht. Bd. 83. Schriftenreihe Information und
Recht. Mnchen: C.H. Beck, 2014.
Hornung, Gerrit. Verfgungsrechte an fahrzeugbezogenen Daten: Das vernetzte
Automobil zwischen innovativer Wertschpfung und Persnlichkeitsschutz. In:
Datenschutz und Datensicherheit (DuD) 39.6 (2015), S. 359366.
Kitchin, Rob. The Data Revolution: Big data, Open Data, Data Infrastructures &
their Consequences. Los Angeles: Sage, 2014.
Kittler, Friedrich A. Die Wahrheit der technischen Welt: Essays zur Genealogie der
Gegenwart. Berlin: Suhrkamp, 2013.
Koops, Bert-Jaap. Forgetting Footprints, Shunning Shadows: A Critical Analysis
of the Right to Be Forgotten in Big Data Practice. In: SCRIPTed 8.3 (2011),
S. 229256. DOI: 10.2139/ssrn.1986719.
Krmer, Sybille, Hrsg. Spur: Spurenlesen als Orientierungstechnik und Wissens-
kunst. Frankfurt am Main: Suhrkamp, 2007.
Mayer-Schnberger, Viktor und Kenneth Cukier. Big Data: A Revolution that will
Transform How we Live, Work and Think. London: John Murray, 2013.
Morgenroth, Markus. Sie kennen dich! Sie haben dich! Sie steuern dich! Mnchen:
Droemer Knaur, 2014.
Pschel, Florian. Big Data und die Rckkehr des Positivismus: Zum gesellschaft-
lichen Umgang mit Daten. In: Mediale Kontrolle unter Beobachtung 3.1 (2014).
Das mehrfache Selbst der Selbstbestimmung 87
URL : http://www.medialekontrolle.de/wp-content/uploads/2014/09/Pueschel-
Florian-2014-03-01.pdf (besucht am 20. 09. 2016).
Rosenberg, Daniel. Daten vor Fakten. In: Big Data. Hrsg. von Ramn Reichert.
Bielefeld: Transcript, 2014, S. 133156.
Ronagel, Alexander und Maxi Nebel. (Verlorene) Selbstbestimmung im Da-
tenmeer: Privatheit im Zeitalter von Big Data. In: DuD Datenschutz und
Datensicherheit 39.7 (2015), S. 455459.
Saint-Mont, Uwe. Die Macht der Daten: Wie Information unser Leben bestimmt.
Berlin und Heidelberg: Springer, 2013. DOI: 10.1007/978-3-642-35117-4.
Schrems, Max. Kmpf um deine Daten. Wahres Leben. Wien: Ed. a, 2014.
Spitz, Malte. Was macht ihr mit meinen Daten? Hamburg: Hoffmann und Campe,
2014.
Sprenger, Florian. Politik der Mikroentscheidungen: Edward Snowden, Netzneu-
tralitt und die Architekturen des Internets. Digital Cultures Series. Lneburg:
meson press, 2015. DOI: 10.14619/004.
Teil II.
Die digitale Vernetzungskultur hat mageblich zur Erosion von Privatheit gefhrt.
In der ra der Sozialen Medien und der Peer-to-Peer-Netzwerke rmiert das Private,
Intime und Persnliche als Objekt der ffentlichen Agenda und ist zum Allmende-
Gut geworden, das von der ffentlichkeit beliebig und unverbindlich angeeignet
werden kann. Die Prominenz des Self-Tracking in breiten Anwendungsschichten
hat dazu gefhrt, das sich das Verstndnis von informationeller Selbstbestimmung
von seinem ursprnglichen Kontext gelst hat. Die Figur der informationelle Selbst-
bestimmung bedeutet heute nicht nur, seine Daten gegenber dem Zugriff von
Dritten geschtzt zu wissen, sondern sie bezeichnet auch neue Praxisformen in
digitalen Kommunikationsrumen, nmlich die Freiheit des Selbst, personenbezo-
gene Inhalte in der ffentlichkeit zu teilen. Vor diesem Hintergrund erfhrt der
Begriff der informationellen Selbstbestimmung eine richtungsweisende Bedeu-
tungsverschiebung, mit der es nicht nur darum geht, das Selbst vor dem Zugriff der
ffentlichkeit zu schtzen, sondern dem Selbst ein Anrecht auf ffentlichkeit und
ffentlicher Reprsentation zuzugestehen.
An der Schnittstelle von mobilen Medien, Sensornetzwerken, GPS-gesttzten
Lokalisierungen, automatischen Identikationsverfahren, digitalen Datenvisualisie-
rungen und Social Web-Anwendungen tragen Fitness-Tracker mageblich zur Ver-
datung des Krpers und zur reexiven Selbstverwissenschaftlichung bei. Die Kon-
vergenz von mobilen Medien, Sensornetzwerken, digitalen Datenvisualisierungen
und dem Social Web hat dazu gefhrt, dass biometrische Apparate, Technologien
und Visualisierungen einen gesellschaftlichen Trend zur digitalen Selbstvermessung
ausgelst haben.1 In diesem Zusammenhang entwickeln Fitness-Apps Handlungsan-
weisungen und Orientierungswissen, die das Monitoring und Mapping krperlicher
Aktivitten mit Krperdisziplinierungen und Selbstpraktiken verknpfen und dabei
neue Formen von Steuerungs- und Kontrollwissen entwickeln.2
menhnge in der Auseinandersetzung mit jngeren Arbeiten aus den Bereichen der
Critical Code Studies, der Surveillance Studies und der Akteur-Medien-Theorie
wird hier eine wissens-, medien- und machtanalytische Perspektivierung der di-
gitalen Auswertungs- und Beratungs-Software in den Anwendungsbereichen von
Fitness und Gesundheit vorgeschlagen. Die in diesem Krftefeld entstehenden
Medientechnologien und -praktiken der digitalen Selbstvermessung verwischen
die Grenzen zwischen Technik und Gesellschaft, Privatheit und ffentlichkeit,
Experten und Laien. Denn die Smartphones mit ihren mikrosensorischen Kom-
ponenten, die tragbaren Computersysteme in Armbndern, Uhren oder Brillen
(wearables), die mobilen technischen Gerte (gadgets), die Verbreitung der mobi-
len Vernetzungstechnologien und die Anwendungssoftware fr Mobilgerte wie
Smartphone und Tablet-Computer (apps) berlagern Kommunikationsmedien mit
personalisierten Versuchsanordnungen. Diese technisch-medialen Infrastrukturen
ermglichen als Bio-Medien neuartige Sozialbeziehungen (community-building)
in vernetzten Verhandlungsspielrumen und produzieren digitale Selbstentwrfe
und digitale Krperbilder.22 In diesem Sinne bilden sie hybride Kollektive, die
sich sowohl aus menschlichen Akteuren als auch aus materiellen Apparaturen,
visuellen Notationssystemen und schriftbasierten Kommunikationsformen zusam-
mensetzen. Dementsprechend knnen diese Hybridbildungen nicht monokausal
als Folge moderner Technik, sondern anthropologisch auch als Teil des Menschen
bestimmt werden. So kann das Gegenwartsphnomen der biomedialen Kyberneti-
sierung ebenfalls in der Alltagskultur verortet werden. Auch die Semantiken von
Self-Tracking, Lifelogging oder Mobile Computing spannen einen weiten interpreta-
torischen Bogen und meinen damit sowohl individualisierte, sozial geteilte, als auch
automatisierte Aufzeichnungen, Archivierungen und Ausdeutungen von selbst- und
fremddokumentierten Lebensaktivitten.
Die hier dargestellten Thesen zum Fitness- und Gesundheitsmonitoring in digita-
len Kontroll- und Prozesskulturen versuchen diese heterogenen Medienpraktiken
zu bndeln, um die entscheidende Frage nach dem operativen und strategischen
Zusammenhang von numerischen Krpervermessungen (Gadgets), den Kulturtech-
niken der bildgebenden Darstellung von Krpern (Dashboards) und den sozial
geteilten Gesundheits- und Sportdiskursen (Social Net) aufzuwerfen. Die Nutzung
der Gadgets wurde oben als materielles Dispositiv beschrieben, das die digitale
Selbstkontrolle in die gelebte Praxis einfhrt. Die vertiefenden Formen der Selbst-
bezglichkeit mittels der Dashboards werden im folgenden Kapitel beschrieben.
Abschlieend wird auf die Ausung von Privatheit mit Hilfe der neuen Sharing-
Funktionen hingewiesen.
Drittens knnen die gesammelten und aufbereiteten Daten mittels sozialer Me-
dien verbreitet werden. Im Unterschied zu frheren Medienkulturen technisch
vermittelter Lebensdaten (vgl. grasche oder fotograsche Aufzeichnungs- und
Speichermedien) sind die dokumentarisierenden Praktiken auf das Engste mit
den kommunizierenden Praktiken im Kontext permanenter Konnektivitt und
kollaborativer Bedeutungsproduktion verknpft. Die technische Mglichkeit,
die statistisch ausgewerteten Daten und Zahlen des eigenen Lebens kontinu-
ierlich auf multiagentielle Kollektive zu beziehen, konstituiert Vergleichs- und
Wettbewerbsszenarios nicht nur fr das Community-Building, sondern auch
fr die Agenda der staatlich-administrativen Gesundheitsprognostik. Die Bio-
Datenbanken der digitalen Vernetzungskulturen sind daher als offene und dyna-
mische Datenkollektive angelegt und integrieren die Feedbacktechnologien fr
lebensstilbezogene Transformationen (Selbstformung, Rationalisierung, Assimi-
lierung).
Die Vermessung des Selbst 97
learning) und die Nutzungsmotivation der User eingesetzt.25 Ein zentrales Element
der Vermittlung spielehnlicher Anwendungen, die mit Technologien und Design
aus dem Unterhaltungssoftwarebereich entwickelt werden, stellt das Dashboard
dar26 . Es sorgt nicht nur fr eine bersichtliche Auswertung der erhobenen Daten,
sondern ermittelt auch Normabweichungen, Leistungsunterschreitungen oder er-
reichte Zielvorgaben. Das Dashboard, das in Browser-Anwendungen erreichbar ist,
bndelt mehrere funktionale Elemente der digitalen Selbstvermessung: (1) Es stellt
eine Anzeige im Sinne einer Mensch-Maschine-Schnittstelle dar und versammelt
operationalisierbare Krperdaten in Echtzeitbertragung und macht sie mittels bild-
gebender Verfahren der popularisierenden Informationsvisualisierung evident. Die
Daten werden bilddidaktisch in navigatorischen Geovisualisierungen, thematischen
Kartograen, Balkendiagrammen respektive tabellarischen Rangordnungen und in
anwendungsnahen Use-Cases-Diagrammen in Form von Tachometern, Thermo-
metern, Ampel- und Scoring-Sulen dargestellt. Um die Lesbarkeit der jeweiligen
Zahlenwerte zu erleichtern, sind numerische Reprsentationen oft auch mit di-
daktischen Annotationen versehen, die grasch, farblich, gurativ oder akustisch
aufbereitet werden. Damit werden die Daten zustzlich vermittelt und in ber-
schaubare und hierarchisch geordnete Grenzzonen, Zielbereiche oder Mittelwerte
eingebettet. (2) Das Dashboard fungiert auch als eine automediale Datenbank, ar-
chiviert die personalisierten Krperdaten und ermglicht die statistische Evaluation
von durchschnittlichen Leistungswerten in Korrelation mit dem Benchmarking von
Orientierungs- oder Zielgren, die individuell oder auch in Gruppenbeziehungen
dargestellt werden knnen. Mit den Datenbankfunktionen des Dashboard knnen
Fitness- und Gesundheitsdaten operativ verwaltet und miteinander vernetzt werden:
Gewicht, Krperfettanteil, Herzfrequenz, Kalorienverbrauch, Blutdruck oder Blut-
zuckerwerte und die Aufnahme von Nahrungsmitteln und Wasser knnen in die
Bio-Datenbank integriert werden. (3) Das Dashboard fungiert auerdem als offenes
Kontrollmedium und verweist damit auf den Aspekt der subjekttransformativen
Selbstpraktiken, wenn es etwa darum geht, die berbietung oder das Verfehlen von
vereinbarten Leistungszielen aufzuzeigen, um Verhaltensnderungen zu monieren.
Die Annahme, dass man mit sogenannten Badges (Abzeichen) seine Errun-
genschaften erspielen kann, verweist aber weniger auf eine freiheitliche und
selbstbestimmte Art und Weise des Spielens, sondern vielmehr auf die Vorstellun-
gen von Marketingmanagern, das Gameplay mit bestimmten Unternehmenszielen
zur Deckung zu bringen. So knnen die Badges nur dann erworben werden, wenn
ein bestimmter Wert als Zielvorgabe erreicht wird. Diese in Szene gesetzten Leit-
werte werden nicht nur genutzt, um Verhalten als vernderbar zu plausibilisieren,
25 Deterding u. a., From Game Design Elements to Gamefulness.
26 Das Dashboard bezeichnet die Visualisierung von Informationen in verdichteter, meist grascher
Form.
Die Vermessung des Selbst 99
3. Sharing is caring!
Abschlieend mchte ich der Frage nachgehen, mit welchen Methoden die digitale
Groforschung die Daten der digitalen Selbstvermessung erhebt, fr die Sekun-
drdatenanalyse ber ihren vorrangigen Verwendungszweck hinaus auswertet und
fr soziotechnische und konomische Verwertungskontexte modelliert. Bevor auf
das Verhltnis zwischen einer Generierung von Daten und einer Gewinnung von
Wissen aus den Daten nher eingegangen werden kann, muss eine relevante Unter-
scheidung zwischen nutzergenerierten Inhalten und transaktionalen Daten getroffen
sein. Die digitale Selbstvermessung besteht nicht nur aus den unstrukturierten Da-
tenmengen, welche die Techniknutzer als Inhalte eigenstndig herstellen, wenn
sie diese etwa mittels mobiler Endgerte oder sozialer Medien kommunizieren.
Beim Self-Tracking werden auch groe Mengen transaktionaler Daten erzeugt,
wenn sich die Nutzer mit GPS verorten, Cookies herunterladen, Logdateien nut-
30 Das auf einem Server installierte Programm wird bei Client-Server-Anwendungen mit dem Begriff
Back-End umschrieben. Das im Bereich der Client-Anwendung laufende Programm wird als
Front-End bezeichnet.
Die Vermessung des Selbst 101
zen oder sich in Netzwerke einloggen. Alleine mit den GPS-Daten von Handys
knnen Lokationsdaten und Aktivittsmuster fr die Erhebung von Hufungen im
Datenraum berechnet werden. Die digitale Selbstvermessung kann also gleichzeitig
unterschiedliche Datenvolumina und Datenformate produzieren, die in weiterer
Folge von Sekundrnutzern unabhngig vom primren Erhebungszweck aufbereitet
und ausgewertet werden.
In diesem Zusammenhang schlgt die Soziologin Deborah Lupton eine erwei-
terte Perspektive auf die Modi des Self-Monitoring vor, indem sie den Stellenwert
persuasiver Medien im Prozess der Subjektkonstitution herausstreicht. Sie unter-
sucht die Einbettung der Fitness-Devices in spezische Dispositive der Macht und
differenziert zwischen pushed, imposed und exploited Self-Tracking:
4. Fazit
Allgemein gehen Medien- und Kommunikationsanalysen der digitalen Selbstver-
messung von der Grundannahme einer wechselseitigen Durchdringung medizini-
scher, medialer und sozialer Praktiken aus und erffnen einen vielversprechenden
Ansatz, der (1) die medizinal-therapeutische Durchdringung der Lebenswelt, (2)
die Formen der numerischen Reprsentation des Krpers und (3) die Herausbildung
von neuen Formen der reexiven Verwissenschaftlichung des Krpers umfasst.
Eine Subjekt- und Kollektivittsforschung, die den Einuss des Mediums auf die
Prozesse biomedialer Selbstdokumentation als eigenstndige Forschungsfrage auf-
nimmt und als wissenschaftliches Arbeitsfeld ansieht, vermag den Blick auf die
medialen Vorgnge, mit denen die bermittlung und die Vermittlung von Handlun-
gen ermglicht, angewiesen und vollzogen werden sollen, zu schrfen. Die damit
in Aussicht gestellte Durchdringung aller Lebensbereiche ist aber nicht gleichbe-
deutend mit einem immediaten und direkten Zugriff auf eine medial hypostasierte
Lebenswelt der Subjekte, denn die Medien knnen die Bedingungen der Mg-
lichkeit, ein bestimmtes Leben zu fhren, weder urschlich determinieren noch
letztlich rechtfertigen. In weiterfhrenden berlegungen knnte es darum gehen,
zu bercksichtigen, dass die Gadgets, Apps und Social-Media-Plattformen selbst
Gegenstand von Reexivitt sind. Wenn in Betracht gezogen wird, dass die Medien
der digitalen Selbstvermessung immer auch Reexivitt erzeugen, dann knnen die
sthetischen, narrativen und ktionalisierenden Mittel der Dateninszenierung, mit
Literatur
Ackerman, Linda. Mobile Health and Fitness Applications and Information Privacy.
Report to California Consumer Protection Foundation. San Diego: Privacy Rights
Clearinghouse, 5. Juli 2013. URL: https://www.privacyrights.org/mobile-medical-
apps-privacy-consumer-report.pdf (besucht am 06. 09. 2016).
Ajana, Btihaj. Governing through Biometrics: The Biopolitics of Identity. Basing-
stoke: Palgrave Macmillan, 2013.
Albrechtslund, Anders. Self-surveillance: How Quantication Practices and Moni-
toring Technologies Produce Subjectivity. In: Annual Meeting of the Society for
Social Studies of Science (4S), San Diego, 9-12 Oktober 2013. 2013.
Andrejevic, Mark und Mark Burdon. Dening the Sensor Society. In: Television
& New Media 16.1 (2015), S. 1936.
Beer, David. Popular Culture and New Media: The Politics of Circulation. Hound-
mills: Palgrave Macmillan, 2013.
Bossewitch, Jonah und Aram Sinnreich. The end of forgetting: Strategic agency
beyond the panopticon. In: New Media & Society 15.2 (2013), S. 224242. DOI:
10.1177/1461444812451565.
Bublitz, Hannelore. Im Beichtstuhl der Medien: Die Produktion des Selbst im
ffentlichen Bekenntnis. Bielefeld: Transcript, 2010.
Buschauer, Regine. Mobile Rume: Medien- und diskursgeschichtliche Studien zur
Tele-Kommunikation. Bielefeld: Transcript, 2010.
Campbell, Nancy D. Technologies of Suspicion: Coercion and Compassion in
Post-disciplinary Surveillance Regimes. In: Surveillance & Society 2.1 (2004),
S. 7892.
Cheney-Lippold, John. A new Algorithmic Identity: Soft Biopolitics and the
Modulation of Control. In: Theory, Culture & Society 28.6 (2011), S. 164181.
DOI : 10.1177/0263276411424420.
Clough, Patricia. The Affective Turn: Political Economy, Biomedia and Bodies.
In: Theory, Culture and Society 25.1 (2008), S. 122.
Couldry, Nick. Media, society, world: Social theory and digital media practice.
Cambridge, Mass.: Polity Press, 2012.
106 Ramn Reichert
Sheth, Amit. Citizen Sensing, Social Signals, and Enriching Human Experience.
In: IEEE Internet Computing 13.4 (2009), S. 8792.
Shove, Elizabeth, Mika Pantzar und Matt Watson. The Dynamics of Social Practice:
Everyday Life and How it Changes. London: SAGE, 2012.
Swan, Melanie. Emerging Patient-Driven Health Care Models: An Examination
of Health Social Networks, Consumer Personalized Medicine and Quantied
Self-Tracking. In: International Journal of Environmental Research and Public
Health 6.2 (2009), S. 492525.
Tholen, Georg Christoph. Die Zsur der Medien: Kulturphilosophische Konturen.
Frankfurt am Main: Suhrkamp, 2002.
Till, Chris. Exercise as Labour: Quantied Self and the Transformation of Exercise
into Labour. In: Societies 4.3 (2014), S. 446462.
Whitson, Jennifer R. Gaming the Quantied Self. In: Surveillance and Society
11.1/2 (2013), S. 163176.
Wolf, Gary. The Data-Driven Life. In: The New York Times Magazine (2. Mai
2010), S. 3845. URL: http://www.nytimes.com/2010/05/02/magazine/02self-
measurement-t.html (besucht am 03. 09. 2016).
Zillien, Nicole, Gerrit Frhlich und Mareike Dtsch. Zahlenkrper: Digitale Selbst-
vermessung als Verdinglichung des Krpers. In: Prsenzen 2.0. Hrsg. von
Kornelia Hahn und Martin Stempfhuber. Medienkulturen im digitalen Zeitalter.
Wiesbaden: Springer VS, 2014, S. 7794.
Anonymitt als soziokulturelle Inszenierung
1. Fragestellung
Anonymizer zhlen aus technischer Sicht zu den probaten Mitteln informatio-
neller Selbstbestimmung im Internet.1 Sie genieen in stark Internet-afnen und
zugleich politisch bewusst agierenden Teilen der Gesellschaft eine hohe Akzeptanz,
stehen bei einem groen Teil der Bevlkerung aber unter dem permanenten Ver-
dacht, vor allem Verbrecher zu schtzen: Wer sich maskiert, will Bses verbergen.
Dass Menschen, die sich einer Maske bedienen, zu unsozialem Verhalten tendieren,
scheint als unbezweifelbar zu gelten und ist unter dem Begriff der Deindividua-
tion mit enthemmenden Folgen auch als wissenschaftlicher Ansatz weitgehend
akzeptiert.2 Die unterschiedlichen Auffassungen haben sich auerdem einen Platz
unter den permanenten Sujets der politischen Auseinandersetzung um das Fr und
Wider von staatlicher berwachung erobert.
Die gesamte Diskussion gilt als neu man geht davon aus, dass sie erst mit
der Verbreitung des Internets gesellschaftlich relevant geworden ist. Genau dies
stimmt allerdings nicht: Das historische Europa hatte in der Republik Venedig
(bis 1797) schon einmal eine funktionierende Anonymittskultur entwickelt.3 Das
Bei aller positiver Grundstimmung zur Freiheit der anonymen Interaktion ist aber
auch frs alte Venedig eine lebhafte gesellschaftspolitische Diskussion der Gefahr
des kriminellen Verhaltens Maskierter ebenso belegt wie eine damit verbundene,
immer wieder verschrfte und dann wieder gelockerte Maskengesetzgebung.8
Ein echter, auf die Lizenz zur Maskierung rckfhrbarer Anstieg der Kriminali-
ttsrate wurde aber offenbar nie registriert, so dass die Praxis des Maskentragens
bis zur Eroberung Venedigs durch fremde Mchte anhielt. Konkret reichte die
Zeitspanne, in der die Venezianer Masken als Anonymisierungsmittel einsetzten,
Toscani zufolge von Anfngen im 16. Jahrhundert bis zum Verbot der Praxis nach
dem Verlust der politischen Selbststndigkeit im Jahre 1797.9
Dieser Beitrag mchte nach Antworten auf die Frage suchen, warum der Umgang
mit Anonymizern im alten Venedig offenbar so viel besser funktionierte und
warum er so viel strker akzeptiert wurde als in der heutigen Internetwelt. Knnte
man daraus etwas fr den Gebrauch von Anonymizern im modernen, globalen, auf
technische Netze gesttzten Kommunikationskosmos lernen? Zur Beantwortung
dieser Frage soll in diesem Beitrag ein kleiner Kulturvergleich angestellt werden.
11 Siehe hierzu auch Karaboga u. a., Selbstdatenschutz, S. 26; Greenwald, Die globale berwachung.
12 Vgl. die Sponsorenliste auf der ofziellen Tor-Website unter https://www.torproject.org/about/
sponsors.html.en (besucht am 1.8.2016).
Anonymitt als soziokulturelle Inszenierung 113
sie sich zum gesellschaftlichen Paradigma aufschwingt, auch die Kunst, da sie sowohl jene privaten
Rckzeugsrume zu eliminieren sucht, in denen individuelle Kreativitt ohne eine frh einsetzende
und begleitende Kritik gedeiht, als auch Formen rtselhafter und geheimnisvoller Kommunikation
an sich zurckzudrngen versucht. Der Wunsch, alles durchschauen zu wollen, zerstrt berdies
das Prinzip Vertrauen siehe dazu das Interview mit Han, Wie steuern auf eine Katastrophe zu.
18 Schulzki-Haddouti, Vom Ende der Anonymitt.
19 Brodnig, Der unsichtbare Mensch.
Anonymitt als soziokulturelle Inszenierung 115
3. Zur Methodik
Die Recherchen fr diesen Beitrag haben sich ber einen langen Zeitraum hin-
gezogen und fanden ihre erste Gestalt in Form eines wissenschaftlichen Blogs:
Licence to Mask20 . Die Form des Blogs ist bewusst gewhlt, sie ermglicht ein
Vorantreiben der wissenschaftlichen Arbeit nach Art einer offenen Werkstatt, die
auch die Prsentation von Fragen und unfertigen Antworten erlaubt und die Leser
zum Mitdiskutieren einldt. Frhere Zwischenstnde haben bereits ihren Weg auf
wissenschaftliche Konferenzen gefunden21 oder waren Grundlage fr Lehrauftrge
an Hochschulen. Fr diesen Beitrag und den ihm zugrunde liegenden Vortrag22
haben die beiden Autoren Fragen und Thesen des Blogs aus verschiedenen Stadien
aufgegriffen und auf dem aktuellen Stand der fortgeschrittenen Auseinandersetzung
neu beantwortet.
Abbildung 1.: Bauta, Tabarro und Dreispitz: Der ofzielle Anonymizer im alten Vene-
dig, nachgestellt auf einem modernen Foto (Quelle: Fotolia, rodjulian)
dass sein Gegenber ein unbewaffneter, legitimer Brger der Stadt Venedig war,
der zu nanziellen und anderen Verantwortungen stehen konnte.
Bereits die Beschreibung nennt ein paar der wichtigsten Grundlagen fr die hohe
Akzeptanz des venezianischen Anonymizers im Vergleich zu Internet-Werkzeugen
wie Tor. Bauta und Tabarro waren Kleidungsstcke, die ber der Alltagsklei-
dung getragen wurden. Niemand musste ihren praktischen Gebrauch erst erlernen.
Darber hinaus war die Maske normiert und problemlos erhltlich, ein langer und
bewusster Auswahlprozess des Verschleierungsmittels entel also. Die Grnde
schlielich, die Maske anzulegen, waren entweder unmittelbar einsichtig der
hin und wieder gefhrliche Erstkontakt mit fremden Hndlern23 und ein gewisser
Machtausgleich zur venezianischen Staatsinquisition gehrten vielleicht auch dazu
oder standen in Gesetzen und Regularien. Die Erwartungen der Mitbrger waren
den Maskentrgern ebenfalls bekannt. Die Entscheidung, das Haus mit Maske zu
verlassen, drfte Venezianern also genau so leicht gefallen sein wie die zu einem
unmaskierten Gang in den ffentlichen Raum.
Wer Verschlsselungssysteme oder das Tor-Netzwerk benutzen will, muss dem-
gegenber ein nicht geringes Ma an Fertigkeiten im Umgang mit wenig benut-
zerfreundlicher Software aufbringen, Geduld haben, ber einen eigenen Computer
verfgen und vielleicht das Wichtigste erst einmal eine hinreichend plastische
Vorstellung von den Bedrohungen im Internet entwickeln. Diese Voraussetzungen
bringen nur die Digital Natives und Digital Immigrants mit sich, und auch un-
ter ihnen nur eine besonders medienkompetente und interessierte Gruppe. Darber
hinaus muss sich ein Internet-Anwender fr das Verschleierungsmittel seiner Wahl
entscheiden, denn neben Tor und dem von Edward Snowden favorisierten Betriebs-
system TAILS stehen auch kommerzielle Angebote zur Verfgung. Wollte man
hnlich gute praktische Voraussetzungen fr Internet-Anonymizer in unserer Kultur
erreichen, wie sie seinerzeit Bauta und Tabarro boten, msste man die Gefahren
des Webs zum allgemeinen Bildungsthema machen und die Nutzerfreundlichkeit
drastisch erhhen.
Solange Menschen noch an ihrem Image feilen, mit Masken spielen, sich ndern
oder dann und wann neu verwirklichen wollen, so lange werden sie auch versuchen,
die Informationen zu kontrollieren, die sie an ihre Umgebung senden. Dabei sollten
sie fairerweise Untersttzung genieen, denn sonst nden sie sich eingesperrt in
einem Kokon an zugewiesenen Eigenschaften, den sie nicht beeinussen knnen.
Mit der aktiven Seite der informationellen Selbstbestimmung setzen sich sowohl
Datenschutzaktivisten als auch ihre Gegner kurioserweise eher selten auseinander.34
Dies wirkt umso seltsamer, als das entsprechende Modell in der modernen Kunst
und Pop-Kunst seit langer Zeit effektvoll Furore macht: David Bowie und Madonna
etwa haben sich teils als Kunstguren, teils als knstlerisches Ich immer wieder
neu erfunden und dabei mit den unterschiedlichsten Identittsaspekten kreativ
gespielt. Blogger betrachten ihr Tun zuweilen unter hnlichen Aspekten.35
Auch in den sozialen Netzwerken modellieren die Nutzer ihr Prol stets nach
Bedarf neu36 so auf den Business-Netzwerken LinkedIn und Xing, um durch
geschicktes Selbst-Marketing den nchsten Job oder neue Geschftsgelegenheiten
zu ergattern, oder auf Facebook, um in der Familie oder im Freundeskreis ein gutes
Bild abzugeben oder einfach dazuzugehren. Aus ethischer Sicht stellt sich dabei
die Frage, wie dieses Vorgehen zu werten ist. Positiv liee sich die Optimierung
des eigenen Bildes in der ffentlichkeit als Facette der Selbstvervollkommung
sehen, wie sie in unterschiedlichen ethischen Anstzen als Zielvorgabe enthalten
ist, negativ als eine Form der Lge und damit als Betrug an den Mitmenschen.
Dabei ist das Phnomen der gezielt perfektionierten Selbstdarstellung nicht etwa
neu oder allein der Internetkultur zuzurechnen mittels Kleidung, Frisur, Sprache,
gezielter Wahl von Freunden und Partnern, geschickt formulierten traditionellen
Lebenslufen und gezielt choreograerten Auftritten in der ffentlichkeit haben
Menschen frherer Generationen ganz hnlich daran gearbeitet, gegenber be-
stimmten Zielgruppen oder in der ffentlichkeit positiv zu erscheinen. Die Grenze
zwischen oberchlicher Image-Pege und echter, ehrlicher Arbeit am Selbst war
bei Bestrebungen dieser Art immer ieend, und beide Bestrebungen beeinussten
sich berdies grundstzlich gegenseitig.
Einen guten Ansatz, sich der Problematik zu nhern, bietet Hans-Georg Gada-
mers Aufsatz Die Kultur und das Wort.37 Fr Gadamer ist es eine Wurzel der
Kultur und ein besonderes Merkmal des Menschen, dass er seine Anschauung der
Welt zur Sprache bringen, in Worte fassen kann. Dieser Akt impliziert, dass der
einzelne Mensch seine Anschauung der Dinge auch als seine individuelle preisgibt
und damit zur Diskussion stellt. Zwischen den unterschiedlichen Anschauungen
und den daraus folgenden Handlungsanweisungen dann einen allgemeinvertrgli-
chen Ausgleich hnlich den Forderungen des Kategorischen Imperativs nach Kant
auszuhandeln, ist das Feld der kulturellen Interaktion und der Ethik.
Sich selbst darzustellen, wre nach Gadamer dann ein Wort ber sich selbst,
das die Selbst-Interpretation zugleich fremder Kritik aussetzt: So sehe ich mich,
was sagt Ihr dazu?
Wer heute als medienkompetentes Individuum sein Image via Blog, eigener Web-
site, Facebook, LinkedIn oder Xing gestaltet, kann nicht davon ausgehen, dass diese
Selbstdarstellung unkritisiert und unkommentiert bliebt. Kommunikation im Inter-
net bedeutet immer Dialog manchmal eben in erschreckend direkter, ungebremster
und heftiger Form. Vor diesem Hintergrund lsst sich die heute geluge Praxis der
informationellen Selbstgestaltung aus ethischen Gesichtspunkten als ein ethisch
positiver, dialogischer Prozess verstehen, der zur ungehinderten Selbstentfaltung
des Einzelnen beitrgt.
Die weiter oben beschriebenen Akte informationeller Selbstgestaltung sind al-
lerdings dadurch charakterisiert, dass Menschen eine zweite individuelle Identi-
tt ernden, um sich neu darzustellen und auszudrcken so Bowie als Ziggy
Stardust. Hinter der venezianischen Bauta- und Tabarro-Maske aber steckt eine
generische Rolle, nmlich die des idealen venezianischen Staatsbgers. Man knnte
sich fragen, ob die bernahme einer derart vorreglementierten und von Erwar-
tungshaltungen begrenzten Rolle tatschlich als ein Akt aktiver Selbstgestaltung
verstanden werden kann oder eher als einer der Einordnung gelten muss.
37 Es handelt sich um einen Vortrag, den der Philosoph zur Erffnung der Salzbuger Hochschulwo-
chen 1980 gehalten hat. Vgl. Gadamer, Die Kultur und das Wort.
Anonymitt als soziokulturelle Inszenierung 123
Bereits Toscani deutet an,38 dass in diesem Zusammenhang des Aspekt des spie-
lerischen Umgangs mit der vorgegebenen Rolle bedeutsam sein knnte, weil das
Spiel Freirume in der Ausgestaltung schafft. Hier lsst sich Johan Huizingas Ho-
mo Ludens39 gut auf den venezianischen Kontext beziehen: Fr Huizinga haben
viele kulturelle Errungenschaften Wurzeln in spielerischer Interaktion, die diesen
Phnomenen dann eine groe Stabilitt verleiht. Als Beispiel fhrt er Gerichtsver-
handlungen mit den generischen Rollen des Richters, des Anklgers und des Vertei-
digers an, die ebenfalls zum Zwecke der Koniktentschrfung und -formalisierung
jeweils einen Verhaltensrahmen vorgeben, die Freiheit der Handelnden ansonsten
aber nicht einschrnken. Das Spiel-Element des juristischen Verhandelns von Kon-
ikten tritt dabei in Form von Verfahrensweisen und uerlichen Elementen wie
den Roben und Percken der Rollentrger je nach Kulturkreis mehr oder weniger
deutlich hervor.
Signora Maschera mit ihrer gesetzlich zugewiesenen Funktion in Gesellschaft
und Politik hat etwas von derselben Art und Rolle. Die Venezianer waren allerdings
auch gut darin gebt, generische Verhaltensrahmen mit individueller Kommunikati-
on und Aktion immer wieder neu zu variieren und mit Leben zu fllen, denn sie
kannten dies aus einer jahrhundertelangen Tradition von Commedia dellArte und
Karneval. Die Rolle der Signora Maschera war also nicht verordnet, sondern aus
soziokultureller Praxis hervorgegangen und fr moderne Formen der Politik adap-
tiert. Konkrete Spiel-Elemente wie das besonders elegante, galante Benehmen der
Spieler blieben vermutlich nicht zuletzt deshalb erhalten, weil es Spa machte,
sich darin zu erproben, und weil es die Mitbrger honorierten, wenn jemand die
Rolle gut ausfllte. So lieferte der Spielkontext ein positiv wirksames Anreizsystem
fr ein gesellschaftlich akzeptables Verhalten in der Maske, das vielleicht sogar
wirksamer war als die latente Drohung, bei Missbrauch demaskiert und sanktioniert
zu werden.
Bauta und Tabarro zu nutzen, bedeutete fr den einzelnen, sich einem alternativen
Erwartungshorizont stellen zu knnen und sich in einen alternativen Konventions-
zusammenhang einzuordnen. Die bernahme der generischen Rolle entband den
Maskentrger davon, Rollenerwartungen zu entsprechen, die in der venezianischen
Gesellschaft an ihn als Individuum gerichtet waren.40 Dafr akzeptierte er einen
anderen, ebenfalls bindenden Kanon an Werten und Verhaltensmastben, der seine
eigenen Freiheiten mit sich brachte.
Wieder fehlt der modernen Internetwelt ein quivalent. Viele politisch bewusste
Internet-Anwender bertragen von ihnen akzeptierten Regeln der politischen und
gesellschaftlichen Koniktbewltigung auf die Sphre Internet und verhalten
38 Toscani, Die venezianische Gesellschaftsmaske, S. 171 und 181.
39 Huizinga, Homo Ludens.
40 Vgl. dazu Toscani, Die venezianische Gesellschaftsmaske, S. 182.
124 Johannes Wiele und Bettina Weelmann
sich deshalb auch im anonymisierten Zustand kooperativ und hich, aber sie
tun dies aus freier Entscheidung. Der Akzeptanzrahmen und die normative Kraft
der Erwartungshaltung beschrnkt sich hier auf einen relativ kleinen Kreis von
Peers, die sich im weitesten Sinne am Konzept der Netiquette41 orientieren.
Ein wirksamer, verhaltensregulierender Rahmen aus Sanktionsdrohungen, einem
Anreizsystem oder beidem fehlt in der Netzwelt weitgehend.
Gewisse Zge des venezianischen Ansatzes nden sich bei Anonymous: Hier
bietet die Guy-Fawkes-Maske den ueren Rollenrahmen, und die sozialen Hand-
lungsziele sind relativ homogen. In der Mitte der Gesellschaft steht Anony-
mous allerdings noch weniger als die Gruppe der politisch bewussten Internet-
Intensivnutzer, und die mittels Maske hergestellte Referenz zum Comic V wie
Vendetta stattet die Gruppe mit einer ethisch zutiefst ambivalenten Bezugsgur
aus.
Ob sich frs Internet das neue Entstehen einer positv normativ wirkenden Rolle
des anonymen Internet-Nutzers neu frdern liee, ist fraglich. Ntig dazu wren
aber auf jeden Fall eine sprbare politische und gesellschaftliche Akzeptanz dieser
Rolle, wozu eine eindeutige gesetzliche Rckenstrkung fr das Recht auf An-
onymitt die beste Basis wre. Diesen Part knnte die Gesellschaft im Rahmen
demokratischer Machtausbung durchsetzen. Auch dann aber fehlte noch immer
das Element spielerischer bung. Hier ein quivalent fr jene Faktoren zu nden,
die die Signora-Maschera-Rolle fest in den Alltag der venezianischen Kultur inte-
grierten, erscheint schwierig bis unmglich. Wie es funktionieren knnte, zeigen
erfolgreiche Beispiele streng redigierter Foren,42 die der stetigen Gefahr ungezgel-
ter Pbelei trotzen und nach wie vor Anonymitt gewhren, in der die Moderatoren
beleidigende Beitrge aber sofort entfernen sie bewerten sie dabei unter formalen
Gesichtspunkten, nicht etwa unter inhaltlichen. In solchen kosystemen lsst sich
eine gepegte anonyme Diskussion ben und erproben, der Lohn fr eine verhal-
tenskonforme uerung und damit ein wirksames Anreizsystem ist die Chance auf
echten Zu- oder Widerspruch und Gedankenaustausch.
introvertierten, eher schchternen Menschen recht leicht, die Rolle einer extrover-
tierten, forschen Person zu spielen und entsprechend zu agieren, wenn man sie erst
einmal auf die Idee gebracht hat und ein wenig bei diesem Vorhaben untersttzt.
Das Rollenspiel bietet eine faszinierende Mglichkeit, die Grenzen der eigenen
Persnlichkeit einfach zu sprengen. Die Beitrge berichten von Personen, denen
dies im Berufsleben fortwhrend gut gelingt, whrend sie im Privatleben eher ihrem
Naturell treu bleiben. Extrovertierte, dominante Personen, die zum Beispiel zur
Frderung der Leistung eines Teams auch einmal die Rolle des zurckhaltenden
Zuhrers und Sprechers schlpfen sollen oder wollen, bekommen dies erstaunli-
cherweise weniger gut hin.
Kannten die Venezianer diese Phnomene schon? Bauta und Tabarro boten Perso-
nen, die Streit und Auseinandersetzungen eher abgeneigt waren oder die aufgrund
ihrer sozialen Stellung oder nanziellen Situation im richtigen Leben entweder
zu verstummen oder in Konikten zu unterliegen drohten, eine echte Chance, ihre
Sache auf eine fr sie angenehme Weise zu vertreten. Die generische und damit
leicht zu adaptierende Rolle, die den Spieler berdies automatisch in einen Kon-
text von besonderer Hichkeit gekennzeichneter Kommunikation versetzte und
ihn von der Sorge entlastete, in Auseinandersetzungen persnlich zurechenbar zu
versagen, muss die positiven Nebenwirkungen der Maskerade zustzlich verstrkt
haben. Ob die Venezianer mit ihren Maskengesetzen und -konventionen, die ein
anonymisiertes Auftreten auf der gesellschaftlichen und politischen Bhne gezielt
frderten, auch diesen Effekt bewusst hervorrufen oder zumindest untersttzen woll-
ten, ist wohl nicht mehr herauszunden. Allerdings konnte sich die enthemmende
Nebenwirkung der Chance zum anonymen Auftritt im Kontext der venezianischen
Anonymittskultur fr durchsetzungsschwache Personen integrativ auswirken, wh-
rend sie in unserer kulturellen Umgebung eher entgegengesetzte Auswirkungen
zeigt.
8. Fazit
Anonymizer als Mittel des Selbstdatenschutzes konnten im alten Venedig deshalb so
groe Bedeutung erlangen, weil sie in ein soziokulturelles Umfeld eingebunden wa-
ren, welches anonym auftretenden Menschen eine positive oder zumindest neutrale
Erwartungshaltung entgegenbrachte und Maskentrger ins gesellschaftliche Leben
integrierte. Diese Voraussetzung war durch gleich mehrere Faktoren gewhrleistet:
Maskiertes Erscheinen in der ffentlichkeit, in der Sphre der Politik und in be-
stimmten privaten Kontexten war weithin akzeptiert und wurde allen Mitgliedern
der Brgerschaft zugestanden,
126 Johannes Wiele und Bettina Weelmann
Der Groteil dieser Vorbedingungen lsst sich im groen Mastab nicht innerhalb
eines berschaubaren Zeitraums willentlich herstellen. In Venedig waren Bauta
und Tabarro in einem historisch gewachsenen, kulturellen Rahmen hoher Kom-
plexitt und Strke verankert. Erfolgreich kann hchstens der Versuch sein, einen
entsprechenden Rahmen in Form von Spielregeln fr geschlossene Plattformen
oder Foren im Internet zu errichten. Im gesamtgesellschaftlichen Kontext einer nur
auf den ersten Blick kulturell leidlich homogenen, im Internet in Wirklichkeit aber
von starken interkulturellen Differenzen gekennzeichneten Umgebung ist es bes-
tenfalls denkbar, einzelne der aufgelisteten Aspekte lokal gezielt zu frdern etwa
in Form einer Gesetzgebung, die ein Recht auf anonymes Auftreten in bestimm-
ten Handlungszusammenhngen ausdrcklich formuliert, durch Bereitstellung von
Internet-Anonymizern, die ohne spezielle Vorkenntnisse nutzbar sind, und durch
strkere Bercksichtigung von Strategien des Selbstdatenschutzes in der Bildung.
Man knnte nun fragen, warum dies denn berhaupt geschehen sollte. Wer
nichts zu verbergen hat, vermag doch in modernen westlichen Gesellschaften
in einem weiten Rahmen jederzeit seine Meinung zu uern und seine Interessen
zu verfolgen, ohne Sanktionen befrchten zu mssen. Hieraus liee sich ableiten,
man knne angesichts des erreichten Grades an Handlungs- und Meinungsfreiheit
auf die Hilfe von Anonymizern durchaus verzichten. Zur Forderung nach der
Transparenzgesellschaft ist es dann nur noch ein weiterer Schritt, der die Option
kurzerhand zum Paradigma erhebt.
Diese Argumentationskette fut allerdings auf einem pessimistischen Menschen-
bild, das jede verborgene geistige und kommunikative Aktivitt eines Individuums
Anonymitt als soziokulturelle Inszenierung 127
Social Engineering
"...the art of manipulating people into performing actions
or divulging condential information".
Literatur
Braun, Carolyn. Die Maske der Ehrbaren. In: Brand Eins (Juli 2012), S. 108.
Brin, David. The Transparent Society: Will Technology Force Us to Choose Between
Privacy and Freedom? New York: Basic Books, 1998.
Brodnig, Ingrid. Der unsichtbare Mensch Wie die Anonymitt im Internet unsere
Gesellschaft verndert. Wien: Czernin Verlag, 2014.
Endres, Johannes. Dienste und Software zum Verbergen der IP-Adresse. In: ct
Security (29. Juli 2013), S. 120122.
Gadamer, Hans-Georg. Die Kultur und das Wort. In: Lob der Theorie: Reden
und Aufstze. Frankfurt am Main: Suhrkamp, 1991, S. 925.
Greenwald, Glenn. Die globale berwachung: Der Fall Snowden, die amerikani-
schen Geheimdienste und die Folgen. Mnchen: Droemer Knaur, 2014.
Hambridge, Sally. Netiquette Guidelines. Request For Comments 1855. Network
Working Group, Okt. 1995. URL: https://tools.ietf.org/html/rfc1855 (besucht am
09. 09. 2016).
Han, Byung-Chul. Transparenzgesellschaft. Berlin: Matthes und Seitz, 2012.
Wie steuern auf eine Katastrophe zu. In: Sddeutsche Zeitung Magazin 2012.50
(2012). URL: http://sz- magazin.sueddeutsche.de/texte/anzeigen/39059/Wir-
steuern-auf-eine-Katastrophe-zu (besucht am 09. 09. 2016).
Heller, Christian. Post-Privacy: Prima leben ohne Privatsphre. Mnchen:
C.H.Beck, 2011.
Huizinga, Johan. Homo Ludens. Vom Ursprung der Kultur im Spiel. Reinbek bei
Hamburg: Rowohlt, 1987.
Kabay, Michel E. Anonymity and Pseudonymity in Cyberspace: Deindividuation,
Incivility and Lawlessness Versus Freedom and Privacy. Paper presented at the
Annual Conference of the European Institute for Computer Anti-virus Research
(EICAR), Munich, Germany 16-8 March 1998. 1998. URL: http://www.mekabay.
com/overviews/anonpseudo.pdf (besucht am 17. 05. 2016).
Karaboga, Murat u. a. Selbstdatenschutz. White Paper. Karlsruhe: Fraunhofer ISI
und Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt, 2014.
URL : http://www.forum-privatheit.de/ (besucht am 09. 09. 2016).
Karbe, Lars Cassio. Venedig oder Die Macht der Phantasie. Die Serenissima ein
Modell fr Europa. Mnchen: Diederichs, 1995.
Koskela, Hille. Webcams, TV Shows and Mobile phones: Empowering Exhibi-
tionism. In: Surveillance & Society 2.2/3 (2004), S. 199215. URL: http://ojs.
library.queensu.ca/index.php/surveillance-and-society/article/view/3374/3337
(besucht am 09. 09. 2016).
Levy, Steven. Hackers: Heroes of the Computer Revolution. New York: Dell, 1984.
130 Johannes Wiele und Bettina Weelmann
* Niels Brggen, Dr. Ulrike Wagner | JFF Institut fr Medienpdagogik in Forschung und Praxis,
Mnchen | {niels.brueggen; ulrike.wagner}@jff.de
1 Siehe u.a. JIM-Studie 2014; Schmidt, Paus-Hasebrink und Hasebrink, Heranwachsen mit dem So-
cial Web.
2 Diese Optionen werden von den Diensten oft missverstndlich als privacy control oder Einstel-
lungen zur Privatsphre bezeichnet.
3 Blank, Bolsover und Dubois, A New Privacy Paradox.
4 Vgl. Wagner und Brggen, Teilen, vernetzen, liken; Wagner, Brggen und Gebel, Persnliche Infor-
mationen in aller ffentlichkeit?; Brggen u. a., Jugendliche und Online-Werbung im Social Web.
5 Einen komplementren empirischen Weg whlen bspw. Dienlin und Trepte, die eine Differenzie-
rung zwischen Bedenken, Einstellungen und Intentionen bezglich Privatsphre entwickeln und
damit ebenfalls das Privacy Paradoxon verstehend ausen. Siehe Dienlin und Trepte, Is the
privacy paradox a relic of the past?
6 Vgl Geulen, Das vergesellschaftete Subjekt; Wagner, Medienhandeln, Medienkonvergenz und So-
zialisation.
Recht oder Verhandlungssache? 133
Zum anderen mssen die individuellen Lebensbereiche der Subjekte, und da-
mit verbunden personenbezogene Informationen im weiteren Sinne, geschtzt
werden knnen, um Diskriminierung, bergriffe und Benachteiligungen zu ver-
hindern.
Gesellschaftliche Handlungsfhigkeit ist also eng verknpft mit der Frage, wie
Zugriff und Schutz persnlicher Informationen organisiert und verantwortet wird.
Dabei geht es auf der Ebene der Subjekte nicht allein darum, inwiefern sie Zu-
griffskontrolleinstellungen bei verschiedenen Plattformen so anpassen knnen, dass
sie mglichst gut dem subjektiven Schutzbedrfnis entsprechen. Ungelst bleibt
dabei nicht zuletzt die Frage, inwiefern Diensteanbieter oder staatliche Stellen
Daten sammeln und auswerten, die durch digitale Kommunikation entstehen. So
geht es auch um das Abschtzen von Handlungsoptionen, das Nachdenken ber
alternative Handlungsmglichkeiten und ggf. die bewusste Ablehnung bestimm-
ter Anwendungen sprich die kritische Auseinandersetzung mit verfgbaren und
wnschenswerten Kommunikations- und Interaktionsstrukturen.7
Umgekehrt knnte also in den Raum gestellt werden, dass gesellschaftliche
Handlungsfhigkeit ohne informationelle Selbstbestimmung unterminiert wird, wie
dies ja auch im Volkszhlungsurteil begrndet wurde. Anders als 1983 erleben
aber Jugendliche heute, dass das skizzierte Spannungsfeld sich durch alle Bereiche
ihres Lebens hindurchzieht. Insofern ist von Interesse, welche Herausforderungen
fr die informationelle Selbstbestimmung auf der Grundlage der Perspektive von
Jugendlichen herausgearbeitet werden knnen.
Plattformen, die sie leitenden sozialen Regeln, Normen und Werthaltungen sowie
ihre Reexionen zu entsprechenden Spannungsfeldern im Mittelpunkt.12
In der Studie Jugendliche und Online-Werbung im Social Web13 (abgekrzt
JOW) wurde informationelle Selbstbestimmung im Kontext der Datenauswertung
fr personalisierte Werbung und entsprechende Geschftsmodelle thematisiert.
Neben dem Wissen von Jugendlichen um Auswertungsmglichkeiten von Online-
Daten fr werbliche Zwecke, beleuchtete die Studie insbesondere auch die Kenntnis
der befragten Jugendlichen zu ihren Rechten als Verbraucherinnen und Verbrau-
cher von digitalen Diensten (insbesondere einschlgige Entscheidungsrechte und
Schutzbestimmungen). Die dabei vorgebrachten Vorstellungen geben Einblicke in
die Realisierungsbedingungen informationeller Selbstbestimmung im alltglichen
Medienhandeln von Jugendlichen. Empirisch wurde die Studie in Form von For-
schungswerksttten realisiert. In diesen sind qualitative Erhebungsverfahren mit
Anstzen pdagogischer Arbeit verbunden. Durchgefhrt wurden diese Forschungs-
werksttten mit insgesamt 67 Jugendlichen an einer Mittelschule, einer Realschule
und einem Gymnasium im Mnchner Raum. Das Einverstndnis zur Auswertung
der Daten lag von 49 Jugendlichen vor, davon 32 Jungen und 17 Mdchen.
Beide Studien verstehen sich als explorative Arbeiten, deren Ziel es ist, Sinnzu-
weisungen bezglich aktueller Problemfelder aus Sicht der (jugendlichen) Akteure
zu rekonstruieren. Mit der Zusammenstellung der Stichprobe wird damit nicht der
Anspruch an Reprsentativitt verbunden. Gtekriterium ist vielmehr, dass relevante
Gruppen, die mit den beforschten Problemen konfrontiert sind, eingebunden wer-
den und ihre Perspektive mglichst kontextreich beforscht wird. Dies erlaubt (im
Falle der Provenienz der Arbeiten), die Entwicklung zielgruppenbezogener Anstze
medienpdagogischer Arbeit bzw. hier die Extraktion von Rahmenbedingungen,
die informationelle Selbstbestimmung zur Voraussetzung hat.
12 Detaillierte Informationen zu den Erhebungswerkzeugen, zum Ablauf der Erhebungen, zu den rea-
lisierten Stichproben und zum Auswertungsverfahren nden sich im Forschungsbericht. ebd., S. 11-
19.
13 Brggen u. a., Jugendliche und Online-Werbung im Social Web.
14 Zitat aus einer Gruppenerhebung. Wagner, Brggen und Gebel, Persnliche Informationen in aller
ffentlichkeit?, S. 62.
136 Niels Brggen und Ulrike Wagner
Es sind ber 5.000 Leute, man knnte ja nicht jetzt jeden angu-
cken und ob die jetzt alle so ein Bild haben oder so. (Mdchen,
Gruppenerhebung)18
15 Dies zieht sich als Befund durch alle Teilstudien des Forschungsschwerpunktes von Wagner und
Brggen, Teilen, vernetzen, liken.
16 Wagner, Brggen und Gebel, Persnliche Informationen in aller ffentlichkeit?, S. 21.
17 Neuere empirische Arbeiten weisen dabei durchaus darauf hin, dass sich diese Situation gewandelt
habe. So erscheinen App-Anbieter bzw. Anbieter von Online-Angeboten im ACT ON!-Monitoring
als relevante Akteure fr das von den befragten Jugendlichen am hugsten benannten Risiko des
getrackt werdens. Gebel, Schubert und Wagner, . . . dann sollte man gar nicht erst ins Internet,
S. 8.
18 Zitat aus einer Gruppenerhebung. Wagner, Brggen und Gebel, Persnliche Informationen in aller
ffentlichkeit?, S. 61.
19 Dies war der Slogan fr den Safer Internet Day 2012.
Recht oder Verhandlungssache? 137
Abbildung 1.: berblick ber die von Jugendlichen realisierten Strategien im Umgang
mit persnlichen Daten in Sozialen Netzwerkdiensten im Hinblick auf die
Identizierbarkeit durch andere (auf Grundlage von Wagner, Brggen und
Gebel, Persnliche Informationen in aller ffentlichkeit?, S.27ff.)
20 Vgl. Wagner, Brggen und Gebel, Persnliche Informationen in aller ffentlichkeit?, S. 27ff.
138 Niels Brggen und Ulrike Wagner
Auf die drei dargestellten Strategien soll an dieser Stelle nur kurz eingegan-
gen werden. Sie werden unter anderem auch im White Paper Selbstdatenschutz
des Forums Privatheit angesprochen.21 So geht es bei der Strategie 1 darum, den
Kontakt mit Freundinnen und Freunden, zu denen auch ofine Kontakt besteht,
weiterzupegen. Um von diesen online gefunden zu werden, nutzen diese Jugendli-
chen den Klarnamen, schrnken jedoch den Zugriff auf die verffentlichten Inhalte
ein. Bei der Strategie 2 geht es den Jugendlichen um einen inhaltlichen Austausch
zu einem Interessensgebiet. Hierfr sind sie fr die Erweiterung des Kontaktkrei-
ses um online-Bekanntschaften interessiert bzw. zumindest offen hierfr. Da sie
davon ausgehen, dass dies den inhaltlichen Austausch befrdert, bewegen sie sich
erkennbar auf der Plattform und schrnken den Zugriff auf ihre verffentlichten In-
formationen nicht ein. Dies impliziert allerdings nicht, dass die Jugendlichen nicht
auch bestimmte persnliche Informationen zurckhalten. Am restriktivsten agieren
Jugendliche nach der Strategie 3. Sie wollen nicht durch Fremde identizierbar
sein, um unbehelligt mit ihren Kontakten interagieren zu knnen. Entsprechend
nutzen sie die Plattform pseudonym und schrnken den Zugriff auf die eigenen
Inhalte ein. Unterschiede zeigen sich innerhalb dieser Strategie, inwiefern die Kon-
takte auf Bekannte, mit denen sie bereits ofine befreundet sind, beschrnkt oder
auch neue online-Kontakte in diesen Interaktionskreis aufgenommen werden. Mit
Blick auf die Begrndungen der Strategien durch die befragten Jugendlichen ist zu
betonen, dass diese Strategien nicht als Manahmen des Selbstdatenschutzes von
den Motiven isoliert werden knnen. Vielmehr entfalten sie ihren Sinn nur dann,
wenn sie auf die Motive der Nutzung des jeweiligen Sozialen Netzwerkdienstes
rckgebunden werden knnen.
Um es an einem Beispiel konkret zu machen: Der damals 17-jhrige Nutzer
myspace_3 nutzte die Plattform Myspace, um sich mit anderen Musikinteressierten
und Musikschaffenden zu vernetzen. Eine Pseudonymisierung oder eine Beschrn-
kung des Zugriffs auf die eingestellten Informationen ist mit diesem Motiv nur
bedingt sinnvoll. Diese enge Verbindung von Handlungsstrategien und Motiven
muss bei der Diskussion von empfohlenen Strategien des Selbstdatenschutzes
unbedingt reektiert werden.
Das Vermgen individuell eine Passung von Handlungsstrategien und Motiven
herzustellen, bezeichnet allerdings nur eine Realisierungsbedingung von informa-
tioneller Selbstbestimmung. Darber hinaus wurden in den Studien auch weitere
Bedingungen deutlich, die falls nicht gegeben der Realisierung informationeller
Selbstbestimmung Grenzen setzen.
2.3. Das Handeln der Anderen wandelt das Recht zur Verhandlungssache
Ja, man kann jetzt gar nicht bei jedem Foto, bei jedem Video nach-
fragen, ob man das hochladen darf . . . aber ich denke, das kann jeder
schon selber entscheiden, was den anderen vielleicht rgert . . . welche
Bilder. (myspace_3)22
. . . dass man einfach keine eigene Privatsphre hat und man immer
darauf achten muss, dass keine Fotos von einem gemacht werden, die
vielleicht im Internet landen. (myspace_3)23
Das Individuum verfgt nicht allein darber, welche Informationen ber die eige-
ne Person verfgbar sind. Vielmehr verdeutlicht auch das angefhrte Zitat, dass das
Selbst der informationellen Selbstbestimmung in der Erfahrungswelt von Jugend-
lichen um soziale Interaktionspartner/-innen erweitert ist. Bei der Interaktion mit
diesen hat die technologische Gestaltung einen mageblichen Einuss darauf, wel-
che Praxis sich damit etabliert. Die uerungen der Jugendlichen aufgreifend, kann
22 Zitat aus Einzelfallstudie. Wagner, Brggen und Gebel, Persnliche Informationen in aller ffent-
lichkeit?, S. 77.
23 Zitat aus Einzelfallstudie. ebd., S. 38.
140 Niels Brggen und Ulrike Wagner
Die im Zitat geuerte Annahme, dass Unternehmen ihre AGB vllig frei fest-
legen knnen und Nutzende den Bedingungen der Unternehmen quasi ausgesetzt
sind, weist auf das Krfteverhltnis zwischen Diensteanbietern und Nutzenden als
relevante Realisierungsbedingung fr informationelle Selbstbestimmung. In der Stu-
die JOW werden teils fatalistische Haltungen von Jugendlichen geuert, die sich
im Verhltnis zu mchtigeren Unternehmen als ohnmchtig und handlungsunfhig
sehen, ihre Interessen zu wahren:
(auch von den Nutzenden) allein bei sich selbst verortet wird. Das oben stehende
Zitat verdeutlicht, dass dann in der Vorstellung von den betreffenden Jugendlichen
jegliche Einuss- und Partizipationsmglichkeiten obsolet erscheinen, sobald etwas
bereits gespeichert wurde. Dies verweist ebenfalls auf Realisierungsbedingungen
informationeller Selbstbestimmung, die auf eine kollektive Verantwortungsebe-
ne reichen. Zur Diskussion steht entsprechend, auf welchem Wege Schutzrechte
ausgehandelt werden und wie glaubhaft sie durchgesetzt werden knnen.
In den Forschungswerksttten wurde deutlich, dass die mitwirkenden Jugendli-
chen kaum Wissen darber haben, dass es Rechte gibt, die sie schtzen sollen.26
Diese Haltung spiegelt sich beispielsweise in der oben angefhrten uerung zu den
AGB wider, in welchen auch datenschutzrechtliche Gesichtspunkte verankert sind
und die Unternehmen nach geltendem Recht nicht beliebig frei festlegen knnen.
Entscheidend ist an dieser Stelle, dass die befragten Jugendlichen die individuelle
Selbstverantwortung akzentuierten. Die Selbstverantwortung wird in der Sichtweise
dieser Jugendlichen nicht durch einen Rechtsrahmen entlastet, der schtzt, wo die
Jugendlichen selbst kaum mehr handlungsfhig sind, und dessen Normen Anbieter
einhalten mssen. Vergleichbare Befunde nden sich bei Hallinan et al., wonach
in der Metaanalyse von Eurobarometer-Daten die Befragten sich selbst an erster
Stelle verantwortlich fr den Schutz personenbezogener Daten sehen und staatlicher
Regulierung nur eine nachgeordnete Verantwortung zugewiesen wird.27
Allerdings besteht ein grundstzlicher Unterschied, ob man sich selbst als an
erster Stelle fr den Schutz personenbezogener Daten ansieht und das Gefhl hat,
dies auch bewerkstelligen zu knnen, oder ob man diese Verantwortungszuwei-
sung im Bewusstsein macht, dass diese Verantwortung berfordert. In diesem Fall
legen die Studienergebnisse nahe, dass damit fatalistische Grundhaltungen entwi-
ckelt werden knnen. Diese knnen den Anspruch und auch die Bereitschaft zur
Selbstverantwortung unterminieren und zu Resignation fhren. Ein als wirksam
wahrgenommener Rechtsrahmen erscheint damit als eine weitere Realisierungsbe-
dingung informationeller Selbstbestimmung.
Das Phnomen der Resignation ndet sich nicht nur bei Jugendlichen: Im Herbst
2015 hat das DIVSI eine Befragung verffentlicht, mit welchen Annahmen Nut-
zende sich mit AGB und Datenschutzbestimmungen auseinandersetzen. Demnach
akzeptiert die grte Gruppe von 37,5 % der Nutzenden AGB mit der Annahme,
dass sie keine Alternative dazu htten. Das DIVSI bndelt die Items wahrgenom-
mene Alternativlosigkeit und Zustimmung mit einem unguten Gefhl unter dem
Schlagwort der Resignation.28
26 Ebd., S. 44ff.
27 Hallinan, Friedewald und McCarthy, Citizens Perceptions of Data Protection and Privacy.
28 DIVSI, Allgemeinemeine Geschftsbedingungen (AGB) von Kommunikationsdienstleistern. S. 23.
142 Niels Brggen und Ulrike Wagner
Dies beschrnkt sich dann nicht mehr auf den in den diskutierten Studien fokus-
sierten Bereich der Sozialen Netzwerkdienste. Die Leitidee der informationellen
Selbstbestimmung ist aber nur dann aufrechtzuerhalten, wenn die Einzelnen auch
echte Entscheidungsoptionen haben. Und auch hier ist es wichtig, diese Optionen
weiter zu fassen als z. B. Einstellungsoptionen des Zugriffs anderer Nutzenden
auf verffentlichte Informationen oder die schlichte Unterscheidung zwischen
Nicht-Nutzung oder Resignation angesichts der gegebenen Bedingungen. Entschei-
dungsoptionen im Sinne von Einuss- und Partizipationsrechten knnte vielmehr
auch implizieren, dass die Nutzenden nicht nur entscheiden knnen, ob ihnen be-
stimmte Formen personalisierter Werbung angezeigt werden, sondern auch, ob ihre
Daten berhaupt fr eine derartige Personalisierung ausgewertet werden drfen.
Derartige Rechte knnen Individuen aber in der Regel alleine nicht durchsetzen
und auch nicht sicherstellen. Womit auf die kollektive Ebene der Ermglichung
informationeller Selbstbestimmung verwiesen ist.
Wenn informationelle Selbstbestimmung bedeutet, dass die Einzelnen wissen
knnen, wer was ber sie wei (Kenntnisrechte) und dass sie darauf Einuss
nehmen knnen (Einuss- und Partizipationsrechte), dann sind die Einzelnen darauf
angewiesen, dass es einen fr sie nachvollziehbaren Rahmen gibt, wie diese Rechte
eingefordert und durchgesetzt werden knnen. Dies bezieht sich sowohl auf die
Gestaltung von Angeboten als auch auf rechtliche Regelungen und die Aufsicht des
Datenschutzes.
Einussrechte sind dabei nicht allein mit Blick auf Diensteanbieter zu bedenken,
sondern auch mit Blick auf andere Nutzende, die ggf. Daten und Informationen
ber Dritte online verffentlichen. Konkrete Anregungen, wie durch die Angebots-
gestaltung Prinzipien des Privacy-by-design auch jenseits von Voreinstellungen
direkt in der Dialoggestaltung realisiert werden kann, knnen aus den uerungen
der Jugendlichen abgeleitet werden. Dass die Nutzenden ein Einverstndnis nicht
vor einer Verffentlichung einholen knnen, ist eine Entscheidung, die durch den
Programmcode festgelegt ist. Technisch realisierbar wren auch andere Verfahren,
die hier Einussrechte auch in der Interaktion der Nutzenden strker gewichten
und nicht erst nach einer Verffentlichung ansetzen. Kombiniert werden knnten
derartige Verfahren auch mit personenbezogenen Rechtezuweisungen, ber die
z. B. bei engen Freunden die Freigabe durch eine Information ersetzt wrde. Die
aus den uerungen von Jugendlichen extrahierten Vorschlge verdeutlichen, dass
die Gestaltung von Technologien eine wichtige Stellgre ist, mit der ein Ermg-
lichungsrahmen fr informationelle Selbstbestimmung und (Selbst-)Datenschutz
auch als soziale Praxis gestrkt werden kann. Soziale Praxis meint dabei eben
nicht mehr nur einzelne intentionale Handlungen verschiedener Akteure, sondern
vielmehr einen Handlungskontext, der durch das wechselseitig sozial aufeinander
bezogene Handeln entsteht und gesellschaftliche Praktiken und damit auch ein
144 Niels Brggen und Ulrike Wagner
Literatur
Blank, Grant, Gilian Bolsover und Elisabeth Dubois. A New Privacy Paradox:
Young People and Privacy on Social Network Sites. Draft Working Paper. Global
Cyber Security Capacity Centre, 2014. URL: http://www.oxfordmartin.ox.ac.uk/
downloads/A%20New%20Privacy%20Paradox%20April%202014.pdf (besucht
am 09. 09. 2016).
Brggen, Niels u. a. Jugendliche und Online-Werbung im Social Web. Mnchen:
Bayerisches Staatsministerium fr Umwelt und Verbraucherschutz, 11. Feb.
2014. URL: http://www.jff.de/jff/leadmin/user_upload/Projekte_Material/
verbraucherbildung . socialweb / JFF - Studie _ Jugendliche _ Online - Werbung _
SocialWeb.pdf (besucht am 09. 09. 2016).
Dienlin, Tobias und Sabine Trepte. Is the privacy paradox a relic of the past?
An in-depth analysis of privacy attitudes and privacy behaviors. In: European
Journal of Social Psychology 45 (2015), S. 285297. DOI: 10.1002/ejsp.2049.
Allgemeinemeine Geschftsbedingungen (AGB) von Kommunikationsdienstleistern.
Hamburg: Deutsches Institut fr Vertrauen und Sicherheit im Internet (DIVSI),
Recht oder Verhandlungssache? 145
trag der Bayerischen Landeszentrale fr neue Medien (BLM). Bd. 101. BLM-
Schriftenreihe. Baden-Baden: Nomos, 2013.
Wagner, Ulrike, Niels Brggen und Christa Gebel. Persnliche Informationen
in aller ffentlichkeit? Jugendliche und ihre Perspektive auf Datenschutz und
Persnlichkeitsrechte in Sozialen Netzwerkdiensten. Teilstudie im Rahmen der
Untersuchung Das Internet als Rezeptions- und Prsentationsplattform fr
Jugendliche im Auftrag der Bayerischen Landeszentrale fr neue Medien (BLM).
Mnchen: JFF Institut fr Medienpdagogik in Forschung und Praxis, 2010.
URL: http://www.jff.de/dateien/JFF-Bericht_Datenschutz_Persoenlichkeitsrechte.
pdf (besucht am 09. 09. 2016).
Kritische Theorie des Privaten
methodischer Ebene, den Blick auf eine spezische Form der Sozialkritik freizu-
legen, die das Private zu kritisieren vermag, ohne den Einzelnen dabei in seiner
Privatheit zu beschdigen. Eine solche Form der Kritik wird dabei letztlich nicht
nur zur Herausforderung fr liberale Privatheitskonzeptionen und der theoretischen
Grundannahmen, auf denen sie fuen. Sie erscheint vielmehr auch deshalb von
enormer Relevanz, weil gerade im Kontext digitaler Kommunikation das Private
zunehmend auch von den Akteuren selbst gefhrdet wird.
Im ersten Schritt soll dafr eine sozialtheoretische Perspektive in den Kon-
text der wissenschaftlichen Auseinandersetzungen mit Privatheit verortet werden
(Abs.1). Ein besonderes Augenmerk liegt dabei auf der spezischen Kritikform,
die normative sozialtheoretische Anstze im Gegensatz zu anderen Disziplinen
der Privatheitsdebatte auszeichnet. Der zweite Abschnitt spielt eine solche Kritik
exemplarisch an zwei Grundpfeilern der Privatheitsdebatte durch. Sowohl die Tren-
nung privat/politisch als auch ein spezisch liberales Autonomieverstndnis geraten
hierbei ins Brennglas einer sozialtheoretischen Kritik (Abs. 2). Der dritte Abschnitt
soll die sozialtheoretische Kritik privater Praktiken als Kritik von Lebensformen
verstndlich machen, in der private Handlungen (als spezische Lebenswege) zu
gemeinschaftlichen Gefgen (einer Lebensform) systematisiert und als solche kriti-
sierbar werden (Abs. 3). Im vierten Schritt soll gleichwohl deutlich werden, dass
auch die vorgestellten kritischen Sozialtheorien auf einen Begriff der Privatheit
nicht verzichten (Abs. 4). Dies soll im letzten Abschnitt auf die heutigen Diskus-
sionen um den rechtlichen, politischen und sozialen (konventionellen) Schutz der
Privatheit bezogen werden (Abs. 5). Dabei werde ich zuletzt fr eine Art Aufgaben-
teilung der Privatheitskritik pldieren, die erst als mehrdimensionales Projekt auf
soziale Wandlungsprozesse angemessen reagieren kann.
etwa konstituiert sich handlungspraktisch ein privater Raum, den wir mit einem
Begriff der lokalen Privatheit schtzen? Was zeichnet ihn aus und wie werden
seine rechtlich-konventionell eingespielten Grenzen in Sozialbeziehungen tatsch-
lich in einem bestimmten kulturellen Kontext geregelt? Die Sozialtheorie nimmt
dafr im Besonderen die konventionellen, kulturell eingelebten und in je einzel-
nen Handlungsvollzgen strukturell reproduzierten Praktiken in den Blick, die
Privatheit als soziale Tatsache beschreibbar machen.2 Dabei lassen sich grob drei
miteinander verschrnkte Strmungen der sozialtheoretischen Beschftigung mit
Privatheit unterscheiden. Erstens wertneutrale Analysen gemeinhin als privat klassi-
zierter Handlungsvollzge; zweitens Sozialtheorien, die die Genese und Struktur
des Privaten als eigenstndige soziale Sphre oder Interaktionsverhltnis untersu-
chen; drittens eine sozialtheoretisch inspirierte Kritik des Privaten.3 Letztere soll
hier im Fokus stehen, wobei sich zeigen wird, dass die hier vorgestellten Anstze
gewissermaen quer zu dieser Einteilung liegen.
Nun muss sich die Soziologie als Wissenschaft jedoch selbst mit dem Verdacht
auseinandersetzen, die Privatheit der von ihr untersuchten Akteure auf ungerecht-
fertigte Weise zu verletzen und mit der Produktion von Wissen aus dem Material
privater Handlungen auch normierende Wirkungen zu entfalten. Wir haben uns
als Kinder der Moderne lngst daran gewhnt, da die Aufklrungswissenschaften,
deren Spitze die Soziologie einnimmt, mit Tabus brechen [. . .]. Was aber ist davon
zu halten, wenn die Wissenschaft von der Gesellschaft, vollends haltlos geworden,
in die Schlafzimmer unserer Privatwohnungen eindringt und sich zwischen Bett,
Nachttisch und Kleiderschrank voyeuristisch zu schaffen macht?4 Schon immer
war der Quellenschutz eine Kernfrage sozialwissenschaftlicher Forschung, doch mit
der zunehmenden ffentlichen Verfgbarkeit vermeintlich privater Informationen
im digitalen Strukturwandel stellt sich diese Frage nochmals neu. Wie umgehen
mit eigentlich privaten Informationen, die ffentlich fr jeden zugnglich sind?5
Diese Hrden werden freilich ungleich grer, wenn es zudem um eine normative
Sozialkritik der Privatheit geht, die darberhinaus im Verdacht steht, paternalistisch
in die je individuellen Lebensplne hineinzuregieren und dort schlimmstenfalls
normierende Wirkungen zu entfalten. Wie also kritisieren kritische Sozialtheorien
das Private?
2 Vgl. hierzu klassisch: Simmel, Soziologie: Untersuchungen ber die Formen der Vergesellschaf-
tung [1908], S. 383ff. Goffman, Wir alle spielen Theater; dazu auch: Bailey, Some Meanings
of the Private in Sociological Thought, S. 381ff.; Nissenbaum, Privacy in Context: Technology,
Policy, and the Integrity of Social Life, S. 69ff. Solove, Understanding Privacy.
3 Vgl. zur bersicht und einer etwas anderen Einteilung der sozialwissenschaftlichen Forschung
auch: Ochs und Lw, Un/Faire Informationspraktiken, S. 15ff.
4 Mller-Doohm, Die kulturelle Kodierung des Schlafens, S. 110.
5 Alber, Wie ffentlich ist das Private?, S. 73ff.
150 Carlos Becker
Auch hier scheint eine Bestimmung vor allem ber die Abgrenzung zu anderen
Disziplinen mglich. Eine Kritik des Privaten oder des Privatheitsschutzes kapri-
ziert sich etwa in der Rechtswissenschaft auf Adaptionsprobleme zwischen dem
rechtlichen Schutz und den sozialen Praktiken der Privatheit oder Ungleichheiten
im Privatheitsschutz. Wie etwa muss der rechtliche Schutz der Privatheit durch den
digitalen Strukturwandel neu konturiert werden? Wer ist durch Privatheitsverletzun-
gen oder auch den Schutz von Privatheit von bestimmten Formen der Ungleichheit
betroffen oder wo kollidiert der Schutz der Privatheit mit anderen Rechten?6 Wie
lsst sich Privatheit berhaupt rechtlich fassen, ist Privatheit der richtige Begriff
und welche sozialen Praktiken knnen wir mit einem individualisierten Privatrecht
berhaupt fassen?7
Die Debatten in der Politischen Theorie und Philosophie gehen in eine hnliche
Richtung. Auch hier verbindet sich mit dem Versuch der Bestimmung, was Privat-
heit berhaupt ist, zugleich eine kritische Reexion darber, warum wenn ber-
haupt Privatheit geschtzt werden sollte.8 Gerade fr einen gesamtgesellschaftlich
argumentierenden Theoriezusammenhang war das Private als vorpolitischer Raum
natrlich stets verdchtig, sich auf ungerechtfertigte Weise den Pichten und Bin-
dungskrften der Gesellschaft und Demokratie zu entziehen.9 Vor allem mit dem
Aufkommen des Internets verstrkt sich nun abermals das Bemhen, den Wert des
Privaten zu vermessen, um auch die Kritik des Privaten neu auszurichten. Innerhalb
der Politischen Theorie lassen sich dabei zwei zentrale Wege herausarbeiten, die
den Wert des Privaten entweder von der Idee privater Autonomie ableiten10 oder
auf eine Idee der Demokratie bzw. ffentlicher Autonomie verweisen.11 Hierbei
lsst sich wiederum unterscheiden, ob das Private entweder als lebensweltliche
Vorbedingung politischer Urteilsbildung und einer gelingenden demokratischen
Lebensform oder als notwendiger Bestandteil einer egalitren, kommunikativ freien
6 Vgl. dazu exemplarisch: Gusy, Eichenhofer und Schulte, e-privacy; Lever, Privacy, Democracy
and Freedom of Expression, S. 162-180; Allen, Privacy in American Law.
7 Vgl. etwa: Albers, Privatheitsschutz als Grundrechtsproblem, S. 15ff.
8 Vgl. hierzu auch die Unterteilung unterschiedlicher Phasen der Auseinandersetzung mit Privatheit
bei Rssler, Wie wir uns regieren.
9 Vgl. etwa die kommunitaristisch inspirierte Kritik von Etzioni, The Limits of Privacy; zur Kritik am
privatrechtlichen Staat: Der Staat hebt den Unterschied der Geburt, des Standes, der Bildung, der
Beschftigung in seiner Weise auf, wenn er Geburt, Stand, Bildung, Beschftigung fr unpolitische
Unterschiede erklrt und damit als private Unterschiede einer politischen Bearbeitung entzieht;
nur so ber den besonderen Elementen konstituiert sich der Staat als Allgemeinheit. Marx, Zur
Judenfrage [1844], S. 354.
10 Vgl. paradigmatisch Rssler, Der Wert des Privaten.
11 Vgl. fr einen demokratischen Pluralismus: Solove, Understanding Privacy, S. 98ff. fr eine Idee
kommunikativer/demokratischer Freiheit berblickshaft: Becker und Seubert, Privatheit, kommu-
nikative Freiheit und Demokratie.
Kritische Theorie des Privaten 151
tration gegen die Arbeitsteilung.21 Die Schildkrte als privates Accessoire wird
zum Ausdruck einer aufreizenden Entschleunigung, die sich gegen den rationalisie-
renden Zeitdruck des aufkommenden Kapitalismus richtet. Neben der Darstellung
des kritischen Impulses einer privaten Praxis ist die Methode entscheidend, die
Benjamin whlt: Er nimmt alltgliche Praktiken und Objekte in den Blick das
Gehen, den Brgerssteig und macht diese zum Gegenstand einer normativen
Gesellschaftsanalyse. Die Schnelligkeit, die Zielgerichtetheit des grostdtischen
Gehens lsst sich mit Benjamin als Ausdruck einer lebensweltlichen Rationali-
sierung begreifen, die dem Takt des Taylorismus gem keine Langsamkeit mehr
duldet und das Flanieren an sich zur Zeitverschwendung degradiert. Man mag
das Gehen fr eine zu vernachlssigende soziologische Kategorie halten, doch
offenbart sich in der soziologischen Analyse dieses letztlich hchst privaten Aktes
bereits die Ambivalenz eines politisch gereinigten Privatheitsbegriffs.22 Denn das
Gehen wie etwa die berhmte soziographische Studie von Jahoda und Lazardsfeld
ber die Arbeitslosen in Marienthal gezeigt hat ist nie blo privates Vergngen,
sondern es bildet in seiner Geschwindigkeit, im habituellen Auftritt23 gesellschaft-
liche Strukturen ab und zeigt soziale Spaltungen an, die durch das bloe Gehen
reproduziert werden. Wer zu langsam geht, wer gar stehen bleibt, dem wird schon
durch die Gehgeschwindigkeit der anderen deutlich, dass innerhalb der skizzierten
Gesellschaftsordnung keine Verwendung mehr fr ihn besteht.24 Er fllt aus der
zeitlichen Ordnung der Gesellschaft, die sich machtvoll in die Rhythmik des Gehens
einschreibt.
Was hier nur illustrativen Zwecken dient, lsst sich gleichwohl systematisch zum
Problem fr die Diskussion um den Schutz und Wert des Privaten erweitern. Die
gesellschaftliche Durchdringung des Privaten ist strukturell mit der Durchdringung
des Privaten durch soziale Machtverhltnisse verschlungen und lsst die Antwort
auf die Frage schwammig werden, was politisch und was privat, d. h. was aus guten
Grnden politischen Rechtfertigungsprozessen enthoben ist. Das gilt vor allem
dann, wenn sich sozialtheoretisch nachweisen lsst, dass sich im Privaten und ganz
besonders dadurch, dass etwas als privat gilt, soziale Machtstrukturen reproduzie-
ren und sich mglicherweise auch durch die Art fortsetzen, in der Menschen ihre
subjektive Freiheit konzipieren. Was hier in der alltglichsten Praxis des Gehens
nur illustriert werden sollte, entfaltet seine ganze Problematik freilich dann, wenn
das Private nicht nur zum zentralen Motor des Fortbestehens sozialer Ungleichheit,
sondern gleichsam zur entscheidenden Ressource einer diese Ungleichheiten bedin-
21 Ebd., S. 538.
22 Vgl. dazu auch Vergunst und Ingold, Ways of walking; Blomley, Rights of Passage.
23 Vgl. zu den Unterschieden krperlicher Platzierung: Bourdieu, Die feinen Unterschiede, S. 309ff.,
325ff.
24 Jahoda und Lazarsfeld, Die Arbeitslosen von Marienthal, S. 83ff.
154 Carlos Becker
29 Vgl. auch in Bezug zu den obigen Ausfhrungen zum Gehen: Die krperliche Hexis [. . .] stellt
eine praktische Weise der Erfahrung und uerung des eigenen gesellschaftlichen Stellenwerts dar:
Das eigene Verhltnis zur sozialen Welt und der Stellenwert, den man sich in ihr zuschreibt, kommt
niemals klarer zur Darstellung als darber, in welchem Ausma man sich berechtigt fhlt, Raum
und Zeit des anderen zu okkupieren genauer den Raum, den man durch den eigenen Krper in
Beschlag nimmt, vermittels einer bestimmten Haltung, vermittels selbstsicher-ausgreifender oder
zurckhaltend-knapper Gesten [. . .], wie auch die Zeit, die man sprechend und interagierend auf
selbstsichere oder aggressive, ungenierte oder unbewute Weise in Anspruch nimmt. Bourdieu,
Die feinen Unterschiede, S. 739.
30 Vgl. hierzu Foucault, Der Wille zum Wissen, S. 28ff.
156 Carlos Becker
gesunden Sexualitt zum einen vor sexuellen Verletzungen, zum anderen gehen
mit ihnen zugleich Vorstellungen ungesunder, anormaler Sexualitt einher, die
bestimmte private Vorlieben, Konstellationen und Rume per se pathologisieren.
Seelische Verletzungen, die hier auftreten knnen, mssen sich dabei nicht nur in
direkten bergriffen, sondern knnen sich auch in normierenden Bildern gesun-
der oder geschlechtlich xierter Sexualitt uern.31 So schreiben sich auch im
intimsten Bereich der Sexualbeziehungen gesellschaftliche Machtprozesse ein und
fort, die zugleich die Schwierigkeit eines politischen Liberalismus offenbaren, sich
gegenber privaten Handlungsakten in diesem Sinne neutral zu verhalten.32 Gerade
Letzteres scheint nun insbesondere jene Argumente nochmals zu wiederholen, die
bereits eine feministische Kritik am Begriff der Privatheit gebt hat; und tatschlich
erweist sich die Diskussion in Teilen als deckungsgleich, denn auch hier wird
zunchst die These verteidigt, dass das Private politisch ist. Doch unterscheidet sich
die hier vorgeschlagene Rekonstruktion einer normativen Sozialkritik der Privat-
heit (oder der Trennung von Privatheit und ffentlichkeit) in zwei Punkten: Zum
einen hlt sie weiterhin an der Idee der Privatheit fest; kritikwrdig ist nicht das
Private an sich. Es wird dann problematisiert, wenn sich private Handlungsakte
als rechtfertigungsbedrftig erweisen, weil sie soziale Machtverhltnisse erzeugen
oder fortschreiben und als solche aus dem Blick einer liberalen Idee des Privat-
heitsschutzes fallen; zum anderen bezieht sich die Kritik nicht auf die konkrete
einzelne Handlung, sondern als sozialtheoretische Kritik auf ein Ensemble privater
Praktiken.
b) Autonomie. Foucault hat auf der anderen Seite mit der Idee der Gouverne-
mentalitt die Unterscheidung privat/ffentlich gar in direkter Auseinandersetzung
mit den politischen Ausformungen des (Neo)Liberalismus problematisiert, dabei
jedoch bereits einen anderen hier relevanten Aspekt im Auge gehabt. Gouvernemen-
talitt bezeichnet fr ihn eine gesellschaftliche Regierungsform, in der Regierung
dezentral verstanden wird und sich zwischen einem Netz gesellschaftspolitisch-
institutioneller Vorgaben und subjektiver Handlungsziele aufspannt, die sich kon-
gruent zueinander verhalten.33 Am Beispiel einer neoliberalen Ethik der Selbst-
verantwortung kann Foucault etwa deutlich machen, wie sich gesellschaftliche
Machtordnungen gar in die subjektiven Vorstellungen freiheitlicher Selbstverwirk-
31 Vgl. Foucault, Sex, Macht und die Politik der Identitt, hier insb. S. 305ff.
32 Freilich knnte genau diese Ambiguitt der Privatheit als zugleich schtzenswertes wie kritikwr-
diges Gut auf jene Aufgabenteilung hinauslaufen, deren Verteidigung sich dieser Text zur Aufgabe
gemacht hat.
33 Vgl. Foucault, Geschichte der Gouvernementalitt; ebenfalls: Brckling, Krasmann und Lemke,
Gouvernementalitt der Gegenwart.
Kritische Theorie des Privaten 157
34 Vgl. zum besonderen Verhltnis der neuen Regierungs- und Machtformen, die Foucault hier im
Blick hat: Lemke, Gouvermentalitt und Biomacht.
35 Vgl. hierzu auch Laufenberg, Sexualitt und Biomacht, S. 177ff.
36 Vgl. fr den folgenden Abschnitt: Butler, Das Unbehagen der Geschlechter, S. 22ff.; Noch ein-
mal, S. 52ff.; Die Macht der Geschlechternormen und die Grenzen des Menschlichen, S. 35ff.
37 Butler, Psyche der Macht, S. 101ff.
158 Carlos Becker
Nicht zuletzt die ltere Kritische Theorie hat genau dieser antinomischen Figur
der Autonomie groe Aufmerksamkeit gewidmet. Auch hier sind es vor allem
methodische berlegungen, die mich interessieren, so dass ich etwaige und bereits
breit diskutierte sozialtheoretische Einsprche auen vor lasse. Horkheimer und
Adorno versuchen etwa im berhmten Kapitel zur Kulturindustrie in der Dialektik
der Aufklrung zu zeigen, wie sich konomische Imperative ber massenmediale
Kanle in die Bedrfnisstrukturen von Individuen einschreiben. Dabei zeichnen
die Autoren ein Zirkel von gesellschaftlich unerfllten Bedrfnissen nach einem
gelingenden und ffentlich anerkannten Leben und dem stets scheiternden Versuch
nach, diese Bedrfnisse durch massenmediale Produktionen zu befriedigen. Die
These ist, dass die massenmedial verbreitete Standardisierung dessen, was als
ntzliches Leben oder gelingende Subjektivitt gilt, oder die simple Exklusivitt
dessen, was medial berhaupt zur Sprache kommt, zu einem umfassenden Bedrfnis
fhrt, sich diesen ausgefahrenen Assoziationsgleisen38 standardisierter Subjekt-
und Handlungskonzeptionen gem zu verhalten vielleicht gar im Namen der
eigenen Freiheit, die zunehmend nach Gesetzen [operiert], die man als ichfremd
erfhrt.39
Was Horkheimer und Adorno in berspitzer Darstellung zeigen wollen, ist,
dass die kulturindustrielle Produktion sich durch eine bestimmte Form der Gleich-
frmigkeit der Darstellung gesellschaftlicher Wirklichkeit auszeichnet, die auf
hintergrndige Weise zugleich performativ festlegt, was anerkennungswrdiger
Teil dieser gesellschaftlichen Wirklichkeit ist und bei den Individuen dazu fhrt,
diesen kulturellen Anforderungen entsprechen zu wollen. In der Kulturindustrie
ist das Individuum illusionr nicht blo wegen der Standardisierung ihrer Produkti-
onsweise. Es wird nur so weit geduldet, wie seine rckhaltlose Identitt mit dem
Allgemeinen auer Frage steht.40 Das stetige Scheitern, der medial verbreite-
ten biographischen Perfektion zu entsprechen, fhrt fr Horkheimer und Adorno
alsbald zur inneren Aushhlung und Entleerung individueller Selbstbestimmung,
die sich nicht mehr an sich selbst, sondern an den medial verbreiteten Bildern
und Hllen gelingender Subjektivitt orientiert und von innen her austrocknet.41
Das gilt fr die Autoren vor allem deshalb, als gelingende Subjektivitt immer
auch mit bestimmten Vorgaben des Verfgens ber bestimmte materielle Gter
einhergeht, der die Bilder eines gelingenden Lebens mit bestimmten Formen des
konomischen Konsums kurzschliet.42 ber die medial und gesellschaftlich ver-
einen unrechtmigen Eingriff in die Freiheit des/der Anderen, sondern auch eine
formale Verletzung des Gleichheitsprinzips wechselseitig zuerkannter Freiheiten.46
Auf der anderen Seite knnten wir das Verhalten auch inhaltlich kritisieren und
hypothetisch aufzeigen, dass es gar nicht im Interesse des Einzelnen sein knnte, in
dieser Form zu handeln. Eine solche therapeutische Kritik47 wrde nun tatschlich
den konkreten Lebensentwurf oder die Lebensfhrung des Einzelnen kritisieren und
etwa auf innere Widersprche von Wnschen und Interessen hin befragen. Es wird
schnell deutlich, dass letztlich beiden Optionen fr eine sozialtheoretische Kritik
der Privatheit ausscheiden. Der eine Weg formuliert keine inhaltliche Kritik an
privaten Handlungen, der andere Weg nimmt private Handlungen nur als je einzelne
private Handlungen in den Blick. Genau zwischen diesen beiden Optionen der
ethischen Enthaltsamkeit eines (politischen) Liberalismus und der (mglicherweise
paternalistischen) therapeutischen Kritik individueller Lebensfhrung verortet sich
nun eine sozialtheoretische Kritik der Privatheit. In allen vorgestellten Positionen
ging es ja gerade nicht darum, dem Einzelnen konkret vorzuschreiben wie er sein
Leben zu fhren hat, sondern das jeweils einzelne private Handeln als sympto-
matisch fr eine soziale Praxis, als Teil eines kollektiven Gefges zu deuten, das
gesellschaftliche Machtordnungen stabilisiert, reproduziert oder konstituiert. Es
geht darin um eine Kritik von Lebensformen und kollektiven Handlungsmustern,
die sich in jeweils privaten Handlungsakten reproduzieren.48
In Anschluss an Rahel Jaeggi lassen sich Lebensformen nun als Gefge sozia-
ler Praktiken verstehen, die sich soziologisch beschreiben lassen. hnlich wie in
Milieu- oder Feldtheorien zeichnen sich Lebensformen hier durch eine Materiali-
sierung und Institutionalisierung sozialer Handlungen und durch die Gewohnheit
und kulturelle Eingelebtheit von sozialen Praktiken aus. Soziale Praktiken sind
dabei als verstetigte Handlungsabfolgen zu verstehen, die im Zusammenspiel mit
normativen Leitbildern eine Lebensform konstituieren.49 Lebensformen lassen sich
nach Jaeggi dabei als Komplexe verstehen, die pragmatistisch gewendet auf
gesellschaftliche Problemlsungen ausgerichtet sind. Sie sind teilgesellschaftliche
Entwrfe dessen, wie ein gutes Leben im Angesicht gesellschaftlicher Herausfor-
derungen zu fhren ist und rahmen sowohl soziale Problemlsungsstrategien als
auch gesellschaftliche Lernprozesse, die sich im Verlauf und Nachgang von Krisen
einstellen. Jaeggi macht nun auch in Auseinandersetzung und Abgrenzung mit
46 Das knnte etwa in radikaler Form auf das genannte harm principle hinauslaufen, mit dem wir
sowohl die schdigende Wirkung des Verhaltens auf die Freiheitsausbung anderer wie auch die
Ungleichheit kritisieren knnen, die mit der Aufkndigung der Reziprozitt einhergeht. Vgl. Mill,
ber Freiheit, S. 21ff.
47 Vgl. zum Begriff der therapeutischen Kritik: Habermas, Theorie des kommunikativen Handelns,
Bd. 1, S. 42f.
48 Vgl. zu einem solchen Verstndnis: Jaeggi, No Individual can resist, S. 65ff.
49 Vgl. Jaeggi, Kritik von Lebensformen, S. 67ff.
Kritische Theorie des Privaten 161
private Distanznahme (wie auch immer diese mglich sein mag) wird zur Grundlage
einer reexiven Teilnahme an sozialer Praxis und damit auf einer zweiten Ebene zur
Vorbedingung individueller Autonomie.
Zum einen ist das Private demnach als Rckzugsort zu verstehen, der eine
reexive Teilnahme an sozialen Praktiken mglich macht, weil sich der Einzelne
erst in der (immer auch prekren) Distanznahme ber seine eigene Verwobenheit
in soziale Praktiken gewahr werden kann, die sein Leben prgen und in die er
eingebettet ist. Autonomie bedeutet hier die Reexion ber und die etwaige reexive
Neubestimmung der Teilnahme an sozialer Praxis. Zum anderen skizzieren die
Autoren das Private als tatschlich vorsozialen Ort, in dem es vor allem um die
Befreiung vom Zugriff dieser sozialen Praktiken geht, ohne die wir als Subjekte nicht
handeln knnen, die aber stets die Gefahr beinhalten, uns als Individuen praktisch
zu vereinnahmen. Damit sind letztlich zwei sich im stetigen, dialektischen Konikt
zueinander bendliche Freiheitsmomente benannt, die sich mit den Begriffen von
Autonomie und Befreiung fassen lassen und zumindest kursorisch auf den Wert der
Privatheit innerhalb der skizzierten Sozialtheorien verweisen.55
von bestimmten Zugriffen der Gesellschaft zu schtzen und sich diesen ohne Recht-
fertigung entziehen zu knnen. Ein Recht auf informationelle Selbstbestimmung
etwa stattet den Einzelnen idealerweise nicht nur mit der Mglichkeit aus, sich
ber das freie Verfgen-knnen ber die eigenen Daten als Subjekt autonom nach
auen hin entwerfen zu knnen. Vielmehr scheint ein Recht auf informationelle
Selbstbestimmung auch Formen permanenter gesellschaftlicher Sichtbarkeit zu
verhindern, die an sich zu jenen Normierungsprozessen fhren knnen, die oben
skizziert worden sind. Das Bewusstsein etwa darber, jederzeit einer potentiellen
Verhaltenskontrolle im privaten Bereich ausgesetzt sein zu knnen oder berhaupt
im privaten Bereich nur noch marginale Rckzugsmglichkeiten vor den Anspr-
chen der Gesellschaft zu haben, fhrt fast zwanglug zu Normierungsprozessen
sei es durch soziale Medien, mobile Kommunikationsapparate, durch die berwa-
chung von Kommunikationspraktiken oder durch neue Formen von Versicherungen,
die privates Wohlverhalten nanziell entlohnen.
Zum anderen impliziert Letzteres aber auch einen Schutz der Privatheit, der
ber diese rechtliche Ebene hinaus geht und auf soziale Konventionen der Priva-
theit und des in sozialen Praktiken eingelebten Privatheitsschutzes verweist. Das
umfasst sowohl bestimmte Interaktions- und Beziehungsformen wie Intim- und
Freundschaftsbeziehungen, denen wir gemeinhin ein wechselseitiges Interesse an
der Wahrung der Privatheit unterstellen, als auch die tatschliche Akzeptanz gesell-
schaftlicher Distanznahme, also die tatschlich zugestandene Mglichkeit, sich den
sozialen Anforderungen gelingender Subjektivitt etc. wirksam zu entziehen. Dabei
geht es letztlich auch um die soziale Anerkennung und Akzeptanz individueller
Andersartigkeit, die von sozialer Sanktionierung befreit werden muss. In diesem
Sinne liee sich letztlich auch Adornos schwache Utopie einer Gesellschaft, in der
man ohne Angst verschieden sein kann, als Credo einer sozialkritischen Reexion
ber das Private verstehen. Erst durch einen auch sozial verwirklichten und indi-
viduell erfahrbaren Schutz des Privaten lsst sich tatschlich eine Verwirklichung
individueller Freiheit erwarten, die nicht jene pathologischen Zge trgt, wie sie
oben skizziert wurden.
Kritische Theorie des Privaten heit damit aber nicht nur sozialtheoretisch die
Freiheitsmglichkeit der Privatheit zu verteidigen und zugleich auf die innere
Gefhrdung des Privaten und die Bedrohung durch die Privatheit hinzuweisen. Kri-
tische Theorie des Privaten kann im Wortsinn des Kritikbegriffs auch unterscheiden
heien und zwar die Unterscheidung zwischen einer rechtlich-formalen Ermgli-
chung der Privatheit und ihrer sozialtheoretischen Rechtfertigung und Kritik. So
lsst sich aus den eben rekonstruierten Positionen kritischer Sozialtheorie entneh-
men, dass wir Privatheit zugleich schtzen und kritisieren sollten. Es bedarf auch
aus der Perspektive dieser Theorien (zumindest lassen sie sich derartig deuten) eines
rechtlich-politischen Schutzes privater Freirume als Ermglichungsbedingungen
Kritische Theorie des Privaten 165
individueller Freiheit. Zugleich aber sollten wir das Private mit den Mitteln der
Soziologie als symptomatischen Ausdruck einer Lebensform kritisieren knnen.
Folgt man diesen Ausfhrungen, dann luft dies letztlich auf eine Aufgabentei-
lung der Disziplinen hinaus. Whrend Rechtswissenschaft und politische Theorie
weiterhin die Aufgabe zukommt, Privatheit als formalen Freiraum individueller
Selbstverwirklichung nach Auen hin zu verteidigen und in Bezug zu anderen
gesellschaftlichen Institutionen und Werten zu setzen, kommt einer sozialtheoreti-
schen Perspektive auf Privatheit die Aufgabe zu, das Private auch von innen her zu
kritisieren und auf ihre Wirkungen auf das gesellschaftliche Zusammenleben hin zu
befragen. Vielleicht lsst sich erst so etwa bestimmten Formen einer sozialtheore-
tisch problematischen, aber rechtlich nicht recht greifbaren Praxis der freiwilligen
Selbstoffenbarung in digitalen Medien kritisch auf den Zahn fhlen und im Ganzen
sozialen Wandlungsprozessen besser begegnen, die den Privatheitsschutz immer
wieder vor neue Herausforderungen stellen.
Literatur
Adorno, Theodor W. sthetische Theorie. Frankfurt am Main: Suhrkamp, 1973.
Minima Moralia. Reexionen aus dem beschdigten Leben. Berlin und Frankfurt
am Main: Suhrkamp, 1951.
Negative Dialektik. Frankfurt am Main: Suhrkamp, 1975.
Alber, Ina. Wie ffentlich ist das Private? Sozialforschung in digitalen Welten zwi-
schen Sichtbarkeit und Anonymitt. In: Forschungsjournal Soziale Bewegungen
28.3 (2016), S. 7382. DOI: 10.1515/fjsb-2015-0310.
Albers, Marion. Privatheitsschutz als Grundrechtsproblem. In: Privatheit. Stra-
tegien und Transformationen. Hrsg. von Stefan Halft und Hans Krah. Passau:
Stutz, 2013, S. 1544.
Allen, Anita L. Privacy in American Law. In: Privacies: Philosophical Evaluati-
ons. Hrsg. von Beate Rssler. Stanford, 2004, S. 1939.
Bailey, Joe. Some Meanings of the Private in Sociological Thought. In: Socio-
logy 34.3 (Aug. 2000), S. 381401. DOI: 10.1177/S0038038500000250.
Becker, Carlos und Sandra Seubert. Privatheit, kommunikative Freiheit und De-
mokratie. In: Datenschutz und Datensicherheit (DuD) 40.2 (2016), S. 7378.
Benjamin, Walter. Das Passagen-Werk. Bd. V-1. Gesammelte Schriften. Frankfurt
am Main: Suhrkamp, 1982.
Berlin, Isaiah. Zwei Freiheitsbegriffe. In: Freiheit. Vier Versuche. Frankfurt am
Main: Fischer, 2006.
Blomley, Nicholas. Rights of Passage: Sidewalks and the Regulation of Public Flow.
New York: Routledge, 2011.
166 Carlos Becker
Horkheimer, Max und Theodor W. Adorno. Dialektik der Aufklrung. Bd. 5. Max
Horkheimer. Gesammelte Schriften. Frankfurt am Main, 1987.
Jaeggi, Rahel. Kritik von Lebensformen. Frankfurt am Main: Suhrkamp, 2013.
No Individual can resist: Minima Moralia as Critique of Forms of Life. In:
Constellations 12.1 (Mrz 2005), S. 6582.
Was ist Ideologiekritik? In: Jaeggi, Rahel und Tilo Wesche. Was ist Kritik?
Frankfurt am Main: Suhrkamp, 2009, S. 266295.
Jahoda, Marie und Paul Felix Lazarsfeld. Die Arbeitslosen von Marienthal. Ein
soziographischer Versuch ber die Wirkungen langandauernder Arbeitslosigkeit
[1933]. Frankfurt am Main: Suhrkamp, 1975.
Kaiser, Susan B. Fashion and Cultural Studies. London: Berg Publishers, 2012.
Laufenberg, Mike. Sexualitt und Biomacht: Vom Sicherheitsdispositiv zur Politik
der Sorge. Bielefeld: Transcript, 2014.
Lemke, Thomas. Gouvermentalitt und Biomacht. Wiesbaden: VS Verlag fr Sozi-
alwissenschaften, 2008.
Lever, Annabelle. Privacy, Democracy and Freedom of Expression. In: The Social
Dimensions of Privacy. Hrsg. von Beate Roessler und Dorota Mokrosinska.
Cambridge: Cambridge University Press, 2015, S. 162180.
Privacy Rights and Democracy. In: Comtemporary Political Theory 5.2 (2006),
S. 142162.
Marx, Karl. Zur Judenfrage [1844]. In: MEW, Bd. 1. Berlin: Dietz Verlag, 1981,
S. 347377.
Menke, Christoph. Autonomie und Befreiung. In: Deutsche Zeitschrift fr Philo-
sophie 58.5 (2010), S. 675694.
Mill, John Stuart. ber Freiheit [1859]. Stuttgart: Reclam, 2010.
Mller-Doohm, Stefan. Die kulturelle Kodierung des Schlafens oder: Wovon das
Schlafzimmer ein Zeichen ist. In: Soziale Welt 47.1 (1996), S. 110122.
Nissenbaum, Helen. Privacy in Context: Technology, Policy, and the Integrity of
Social Life. Stanford: Stanford University Press, 2009.
Ochs, Carsten und Martina Lw. Un/Faire Informationspraktiken: Internet Privacy
aus sozialwissenschaftlicher Perspektive. In: Internet Privacy: Eine multidis-
ziplinre Bestandsaufnahme. Hrsg. von Johannes Buchmann. acatech Studie.
Heidelberg und Berlin: Springer, 2012.
Rssler, Beate. Der Wert des Privaten. Frankfurt am Main: Suhrkamp, 2001.
Gender and Privacy. A Critique of the Liberal Tradition. In: Privacies: Philo-
sophical Evaluations. Stanford: Stanford University Press, 2004.
Should Personal Data be a Tradable Good? On the Moral Limits of Markets in
Privacy. In: The Social Dimensions of Privacy. Hrsg. von Beate Roessler und
Dorota Mokrosinska. Cambridge: Cambridge University Press, 2015, S. 141
161.
168 Carlos Becker
Rssler, Beate. Wie wir uns regieren. Soziale Dimensionen des Privaten in der
Post-Snowden ra. In: WestEnd 13.1 (2016), S. 103118.
Seubert, Sandra. Der gesellschaftliche Wert des Privaten. In: Datenschutz und
Datensicherheit (DuD) 36.2 (2012), S. 100104.
Emanzipation und Beherrschung. Zur Kritik des Privaten im digitalen Zeitalter.
In: WestEnd 13.1 (2016), S. 89102.
Sevignani, Sebastian. The Commodication of Privacy on the Internet. In: Science
and Public Policy 40.6 (2013), S. 733739.
Simmel, Georg. Soziologie: Untersuchungen ber die Formen der Vergesellschaf-
tung [1908]. Bd. 11. Simmel Gesamtausgabe. Frankfurt am Main, 1992. Kap. Das
Geheimnis und die geheime Gesellschaft, S. 256303.
Solove, Daniel J. Understanding Privacy. Cambridge, Mass.: Harvard University
Press, 2008.
Vergunst, Jo Lee und Tim Ingold, Hrsg. Ways of Walking: Ethnography and Practice
on Foot. Aldershot: Routledge, 2008.
Privatheit als Freiheit
Dies verwundert insofern, als es schon frh Stimmen gab, die einen engen
Zusammenhang zwischen den Werten der Privatheit und Freiheit hervorheben. So
betrachtet Hirshleifer Privatheit als autonomy within society5 und Schoeman fasst
Privatheit als ein auf sich selbst bezogenes Verhalten eines Individuums, welches
frei von sozialer Kontrolle ist.6 Dieser wichtige Gedanke ndet sich bereits bei
John Stuart Mill, wenn er schreibt:
Privatsphre und Freiheit sind also eng verknpft. Freiheit bildet gerade in markt-
wirtschaftlichen, privatwirtschaftlich organisierten Wirtschaftssystemen einen zen-
tralen Eckpfeiler, weil sich die Idee der berlegenheit dezentraler Entscheidungen
nur auf Basis von Freiheiten im jeweiligen institutionellen Rahmen verwirklichen
und entfalten lsst: Souvernitt und Freiheit des Konsumenten bei der Verwendung
seiner Lebenszeit und seiner verfgbaren Mittel, Freiheit des handelnden Unter-
nehmers bei der Wahl seiner Geschftsmodelle und Geschftspartner, Freiheit des
Investors bei der Auswahl der Projekte, in denen er seine Mittel bindet, Freiheit
von Wissenschaft, Forschung und Entwicklung bei der Verfolgung von neuen Ideen.
Begrenzt werden diese Wahlfreiheiten nur durch demokratische Rechtssetzung,
welche allerdings selbst als die Verwirklichung von Wahlfreiheiten jedes einzelnen
Brgers interpretiert werden kann.8
Wird nun die Wahlfreiheit jedes Einzelnen beschnitten oder gar beseitigt, muss
die Legitimitt des marktwirtschaftlichen und auch demokratischen Systems grund-
legenden Schaden nehmen. Insofern ist es von zentraler Bedeutung, den Freiheits-
aspekt von Privatheit zu bestimmen und zu diskutieren.
5 Hirshleifer, Privacy.
6 Schoeman, Privacy and Social Freedom.
7 Mill, On Liberty and Other Writings, S. 13.
8 Vgl. dazu beispielsweise Brennan und Buchanan, The Reason of Rules; Buchanan, Equality, Hier-
archy, and Global Justice.
Privatheit als Freiheit 171
Eingriff in die
Privatsphre
Ja
Nein
Abbildung 1.: Das Verhltnis zwischen Privatsphre und Freiheit
Sofern Beschneidungen der Freiheit nicht die Privatsphre betreffen (Feld un-
ten links) ergibt sich kein Privatheitsproblem: So begrenzen zwar beispielsweise
Verkehrsregeln gewissermaen die Freiheit, sich im Straenverkehr zu verhalten,
wie man mchte; es ist aber sicherlich nicht nur vom privaten Interesse, wie sich
jemand auf ffentlichen Straen verhlt. Insofern beschrnken Verkehrsregeln die
Freiheit, allerdings nicht die Privatsphre.
Wenn es keine Freiheitsbeschrnkung gibt, knnen auch keine Eingriffe in die
Privatsphre und damit in die persnliche Freiheit erfolgen (rechte Spalte). Damit
9 Hirshleifer, Privacy.
10 Schoeman, Privacy and Social Freedom.
11 Aaken, Ostermaier und Picot, Privacy and Freedom.
172 Arnold Picot, Dominik van Aaken und Andreas Ostermaier
gehen wir davon aus, dass all die Eingriffe, die wir intuitiv unter einer Beschrn-
kung von Privatsphre fassen, automatisch Eingriffe in die Freiheit bedeuten. Ein
typisches Beispiel wre das Rauchverbot in der eigenen Wohnung: Es greift in
meine Privatsphre ein und beschneidet zugleich meine Freiheit. Dies trifft auch
fr das Tracking von Suchverhalten im Internet ohne vorherige Zustimmung zu;
denn aus letzterem kann sich abgesehen von der unerwnschten Beobachtung
privaten Verhaltens eine knftige Freiheitsbeschrnkung ergeben. So kann die
Weitergabe von meinen Suchprolen an Dritte in Verhaltensnderungen mir ge-
genber resultieren. Man denke beispielsweise an Personen, die im Internet nach
chronischen Krankheitsbildern suchen: Versicherungsgesellschaften werden auf
dieses Suchverhalten mit erhhten Prmienzahlungen reagieren bzw. keine oder
aber nur begrenzte Versicherungspolicen anbieten, was unmittelbare Wirkung auf
die Wahlfreiheit der Betroffenen nach sich zieht.12
[A]n exception to the doctrine that individuals are the best judges of
their own interest is when an individual attempts to decide irrevocably
now, what will be best for his interest at some future and distant
time. [. . . ] When persons have bound themselves by a contract, not
simply to do some one thing, but to continue doing something for
15 Vgl. Schreiner und Hess, konomie der Privatsphre.
16 Die vor kurzem in Kraft getretene Datenschutz-Grundverordnung der Europischen Union kodi-
ziert diesen Gedanken mit dem Recht auf Datenportabilitt. Vgl. Jlicher, Rttgen und Schnfeld,
Das Recht auf Datenbertragbarkeit.
17 Mill, On Liberty and Other Writings, S. 95.
174 Arnold Picot, Dominik van Aaken und Andreas Ostermaier
Unser heutiger Liberalismus baut auf der Grundvoraussetzung auf, dass Men-
schen ihre Freiheit nicht irreversibel einschrnken drfen. Menschen haben nicht
die Freiheit, aus eigenen Stcken dauerhaft unfrei zu sein. Dies gilt auch fr die Pri-
vatheit als ein Teil der Freiheit. Da Privatsphre eine besondere Form von Freiheit
ist, mssen Eingriffe in die Privatsphre ebenso reversibel sein. Diese Folgerungen
besitzen fr die Beurteilung und Gestaltung der Privatheitsproblematik in einer
Welt der Digitalisierung, die u. a. durch die Erfassung, Analyse und Speicherung
groer, potenziell personenbezogener, also auf die Privatheit bezogene Datenmen-
gen gekennzeichnet ist, besonderes Gewicht.
Aus den vorangegangenen Errterungen ergeben sich wichtige Minimalprinzipi-
en fr den Schutz von Privatheit und personenbezogenen Daten.
Hinsicht die ja gesetzlich geforderte Zustimmung erfllt ist.20 Inwieweit das auch
fr die beiden anderen Prinzipien, nmlich Reversibilitt und Vererbung, gilt, ist
im Folgenden exemplarisch zu betrachten. Dazu werden die Nutzungsbedingungen
von vier sehr weit verbreiteten Internetdiensten (Amazon.com, eBay, Facebook,
Google) unter dem Aspekt von Reversibilitt und Vererbung nher untersucht.
20 Ob eine ausdrckliche Zustimmung erforderlich ist oder Zustimmung schon vorausgesetzt werden
kann, wenn der Nutzer nicht widerspricht (opt in versus opt out), ist Gegenstand einer eigenen
Diskussion.
21 Vgl. die Conditions of use und die Privacy notice auf http://www.amazon.com (besucht am 20.
Juni 2015). Dies trifft auch auf den deutschen Ableger von Amazon.com zu, vgl. die Allgemeinen
Geschftsbedingungen und die Datenschutzerklrung auf http://www.amazon.de (besucht am
22. Juli 2016).
22 Vgl. eBay (15. Juni 2015), User Privacy Policy Notice auf http://pages.eBay.com/
help/policies/privacy-policy.html (besucht am 20. Oktober 2015).
176 Arnold Picot, Dominik van Aaken und Andreas Ostermaier
Aus Sicht von Nutzern aus Deutschland positiv zu werten ist, dass nationales
Datenschutzrecht des Kunden in jedem Fall umgesetzt wrde, so dass das relativ
restriktive deutsche Datenschutzrecht hier zur Geltung kme.
Facebook uert sich zu dem Problemkreis wie folgt: Information associated
with your account will be kept until your account is deleted, unless we no longer
need the data to provide products and services. [. . . ] When you delete your account,
we delete things you have posted, such as your photos and status updates.23 Rever-
sibilitt wird hier demnach nicht umgesetzt. Mit dem Nebensatz unless . . . bleibt
vllig offen, wofr und wie lange die Daten von Facebook genutzt werden. Ledig-
lich gepostete Fotos und Meldungen, die andere Nutzer einsehen knnten, werden
gelscht. Allerdings ist der kundenbezogene Datenbestand, der sich aufgrund der
Nutzungshistorie bei dem Dienstleister aufbaut, weitaus umfangreicher und kann
erhalten bleiben.
Bei Google ist Folgendes zu nden: Whenever you use our services, we aim
to provide you with access to your personal information. If that information is
wrong, we strive to give you ways to update it quickly or to delete itunless
we have to keep that information for legitimate business or legal purposes. [. . . ]
We may reject requests that are unreasonably repetitive, require disproportionate
technical effort [. . . ], risk the privacy of others, or would be extremely impractical
[. . . ].24 Hier steht ganz offensichtlich business purpose ber dem Datenschutz
und der Privatheit (unless . . . ). Lschungen werden auch nur angeboten, wenn
sie einfach zu erledigen sind. Ferner wird das Problem in gewisser Weise auf den
Nutzer zurckgewlzt, indem ihm die Verwaltung seiner persnlichen (hier nicht
weiter spezizierten) Daten in Aussicht gestellt wird.
Hinsichtlich der aus dem Grundprinzip der Freiheit abgeleiteten Forderung der
Reversibilitt ist demnach bei diesen vier Dienstleistern einiges nachzuholen. Da
diese zu den grten der Branche gehren und dementsprechend unter starker
Beobachtung der Presse, Politik und anderer Institutionen stehen, ist zu vermuten,
dass andere Unternehmen das Reversibilittserfordernis nur in Ausnahmefllen
realisieren.
Zudem mssen gem des Erfordernisses der Vererbung die Internetdienstleister
sicherstellen, dass die Weitergabe von Daten den Anforderungen des mit dem Kun-
den abgeschlossenen Vertrages entspricht. Dies impliziert auch, dass alle Parteien
die Kndigung des Vertrages respektieren und den ursprnglichen Zustand der
Privatsphre wieder herstellen. Vererbung bezieht sich auf das Erfordernis, dass
Reversibilitt auch diejenigen zusichern mssen, die Besitz oder Verfgungsmacht
23 Vgl. Facebook (30. Januar 2015), Data Policy auf http://www.facebook.com/about/privacy (be-
sucht am 20. Oktober 2015).
24 Vgl. Google (19. August 2015), Privacy Policy auf http://www.google.com/policies/privacy (be-
sucht am 20. Oktober 2015).
Privatheit als Freiheit 177
ber persnliche Daten von Kunden erlangen, die der Dienstleister gespeichert
hat. Das knnen insbesondere Kooperations- oder Geschftspartner oder auch neue
Eigentmer sein. Eine Durchsicht der Nutzungsbedingungen von Amazon.com,
eBay, Facebook und Google kommt zu den folgenden Resultaten:
Amazon.com garantiert die Vererbung im laufenden Geschft, nicht aber fr den
Fall, dass Amazon.com verkauft wird: We share customer information only as
described below and with subsidiaries [. . . ] that either are subject to this Privacy
Notice or follow practices at least as protective as those described in this Privacy
Notice. Und weiter: Also, in the unlikely event that Amazon.com [. . . ] or
substantially all of its assets are acquired, customer information will of course be
one of the transferred assets.25
Die Praxis der Weitergabe von Daten an Dritte ist bei eBay ziemlich detailliert
geregelt: If we were to merge with or be acquired by another company, [. . .], we
will require that the new combined entity follow this Privacy Notice with respect
to your personal information. Und weiter: In addition, we may retain personal
information from closed accounts to comply with national laws, prevent fraud,
collect any fees owed, resolve disputes, troubleshoot problems, assist with any
investigation, enforce our User Agreement and take other actions permitted or
required by applicable national laws.26 Im Falle von Fusion oder bernahme wird
die Fortfhrung der bislang praktizierten Schutzregelungen zugesichert. Sofern
nationale Gesetze dies vorsehen, behlt eBay Daten auch nach Kontoschlieung.
Bei Facebook scheint Vererbung im laufenden Geschft transparent geregelt. Fr
den Fall des Unternehmensverkaufs gibt es jedoch keine Schutzmechanismen: We
transfer information to vendors, service providers, and other partners [. . . ] These
partners must adhere to strict condentiality obligations in a way that is consistent
with this Data Policy and the agreements we enter into with them. Und weiter: If
the ownership or control of all or part of our [Facebook] Services or their assets
changes, we may transfer your information to the new owner.27
Bei Google lassen die Formulierungen based on our instructions and in compli-
ance with our Privacy Policy recht viel Spielraum. Im Falle eines Unternehmens-
verkaufs wird der Kunde nur benachrichtigt, wenn schwchere Schutzregeln zur
Geltung kommen ndern kann der Kunde daran nichts: We provide personal
information to our afliates or other trusted businesses or persons to process it for
us, based on our instructions and in compliance with our Privacy Policy and any
other appropriate condentiality and security measures. Und weiter: If Google is
involved in a merger, acquisition or asset sale, we will continue to ensure the con-
25 Vgl. Amazon.com (3. Mrz 2014), Amazon.com Privacy Notice auf http://www.amazon.com/
privacy (besucht am 20. Oktober 2015).
26 Vgl. eBay, User Privacy Policy Notice.
27 Vgl. Facebook, Data Policy.
178 Arnold Picot, Dominik van Aaken und Andreas Ostermaier
dentiality of any personal information and give affected users notice before personal
information is transferred or becomes subject to a different privacy policy.28
Versucht man eine Synopse der gewonnenen Einblicke, so ergibt sich das in
Abbildung 2 dargestellte Bild.
Reversibilitt Vererbung
Amazon.com
Ebay
Facebook
Google
Abbildung 2.: Erfllung der Kriterien Reversibilitt und Vererbung (=erfllt;
= teil-
weise erfllt; = nicht erfllt)
Demnach kann derzeit allein eBay mit einer gewissen Erfllung der beiden
Prinzipien der Reversibilitt und der Vererbung aufwarten, whrend die anderen drei
Unternehmen den hier entwickelten Anforderungen nicht gerecht werden. Es steht
zu vermuten, dass es bei sehr vielen anderen Internetdiensten und -applikationen
nicht anders aussieht. Zudem ist selbst bei Datenschutzerklrungen, die explizit
die Reversibilitt und Vererbung formal bercksichtigen, keineswegs sichergestellt,
dass diese in der Praxis auch eingehalten werden. Dazu ist ebenso eine effektive
berwachung der Regelungen wie auch eine Sanktionierung von Regelversten
erforderlich.
5. Zusammenfassung
Reversibilitt als freiheitssicherndes Prinzip bei der (teilweisen) Aufgabe von Priva-
theit ist eine sehr schwache Voraussetzung fr eine Politik, welche Privatsphre und
Freiheit angemessen sichern will. Einem solchen Prinzip sollten auch Menschen,
die auf den Schutz der Privatsphre keinen Wert legen, zustimmen stellt die Wahl-
freiheit doch ein grundlegendes Prinzip unserer marktwirtschaftlichen Ordnung dar.
Literatur
Aaken, Dominik van, Andreas Ostermaier und Arnold Picot. Privacy and Freedom:
An Economic (Re-)Evaluation of Privacy. In: Kyklos International Review for
Social Sciences 67.2 (2014), S. 133155.
Bowie, Norman E. und Karim Jamal. Privacy Rights on the Internet: Self-
Regulation or Government Regulation? In: Business Ethics Quarterly 16.3
(2006), S. 323342.
Brennan, Geoffrey und James M. Buchanan. The Reason of Rules. Constitutional
Political Economy. Cambridge: Cambridge University Press, 1985.
Brown, Ian. The Economics of Privacy, Data Protection and Surveillance. In:
Handbook on the Economics of the Internet. Hrsg. von Johannes M. Bauer und
Michael Latzer. Edward Elgar, 2016, S. 247261.
Buchanan, James M. Equality, Hierarchy, and Global Justice. In: Social Philoso-
phy & Policy 23.1 (2006), S. 255265.
Fraunhofer-Gesellschaft und Industrial Data Space e.V. Industrial Data Space
Digitale Souvernitt ber Daten. White Paper. 2016. URL: https : / / www.
fraunhofer.de/de/forschung/fraunhofer-initiativen/industrial-data-space.html
(besucht am 09. 09. 2016).
1. Einleitung
Digitale Daten gelten als das neue l des 21. Jahrhunderts.1 Doch whrend die
lmrkte etablierten, wenn auch nicht perfekten Regeln folgen, sind die Regeln auf
den Informationsmrkten noch im Entstehen. Weder national noch international ist
durch legislative Manahmen oder die Rechtsprechung ausreichend geklrt, wie
die Eigentums- und Verfgungsrechte an personenbezogenen Daten zuzuordnen
sind, d. h. wie und von wem private Informationen nutzbar gemacht werden drfen
und wem die Ertrge aus der Nutzung der Informationen zustehen.2
Aus konomischer Sicht ist ein Zustand ungeklrter Verfgungsrechte nahezu
immer inefzient, d. h., dass die Allokation auf den Mrkten nicht zu einem Wohl-
fahrtsmaximum fr die Gesellschaft fhrt.3 Das vorliegende Kapitel widmet sich aus
einer ordnungskonomischen Perspektive der Frage, warum Informationsmrkte
fr private Daten unter den aktuell bestehenden Rahmenbedingungen nicht efzient
funktionieren und welcher Regelsetzungen es bedarf, um diesen suboptimalen Zu-
stand zu berwinden. Dabei soll der Fokus auf personenbezogenen Informationen
liegen, die in Form von Daten bei der privaten Nutzung von (Online-)Mrkten gene-
riert werden, so dass ein Bezug zum Recht auf informationelle Selbstbestimmung
im Internet hergestellt werden kann.4
Dritten habhaft geworden ist, diese nach eigenem Gutdnken zur Steigerung des
persnlichen Nutzens oder Gewinns verwenden kann.7
Die Suche nach geeigneten Rahmensetzungen fr Informationsmrkte wird durch
verschiedene weitere Faktoren behindert. Zunchst verfgt das Gut Information
ber sehr spezische Eigenschaften, die gem der traditionellen Wohlfahrtskono-
mik Marktversagen verursachen. So lsen Informationen, die in Umlauf gebracht
werden, in der Regel positive Externalitten auf andere Nutzer aus, denen keine
(monetren) Gegenleistungen entgegenstehen. Darber hinaus haben Informationen
den Charakter ffentlicher Gter, da Dritte nur sehr schwer von der Verwendung
einmal publik gewordener Daten ausgeschlossen werden knnen. Beides verhindert
eine efziente Marktallokation, lsst sich aber durch die Schaffung klar denierter
und durchsetzbarer Eigentumsrechte zumindest verringern.
Zugleich ist zu beachten, dass personenbezogene Informationen kaum aus der
ffentlichkeit in das Private zurckgefhrt werden knnen. Weil sich private In-
formationen kaum vom Individuum als Trger der Informationsmerkmale trennen
lassen, hilft die Verffentlichung privater Informationen, ein Individuum durch
Rckschluss zu identizieren. Die verhaltenskonomische Literatur beurteilt die
Fhigkeit der Verbraucher, bei der Internet- und Smartphone-Nutzung rational zu
agieren und die Langzeitwirkung einer Informationsentuerung vollstndig zu an-
tizipieren, kritisch.8 Menschliche Fehleinschtzungen scheinen hier eher die Regel
als die Ausnahme zu sein, was zu weiteren Verzerrungen des Marktergebnisses und
zu substantiellen Wohlfahrtsverlusten aufseiten der Verbraucher fhrt.9
Die Debatte ber die informationelle Selbstbestimmung muss auch und gera-
de vor dem Hintergrund der zuvor geuerten berlegungen zu wirtschaftlichen
Anreizen, unvollkommenen Mrkten und nicht perfekt rationalem Individualverhal-
ten gefhrt werden. Der ordnungspolitische Ansatz fragt dabei, wie man in einer
Marktwirtschaft in einer im Aggregat wohlfahrtssteigernden Weise mit personen-
bezogenen Daten umgehen kann und sollte, die einen inhrenten monetren Wert
haben, selbst wenn dieser von vielen Verbrauchern bei der Internetnutzung offen-
bar nicht erkannt wird.10 Damit knnen Informationen zum gegenseitigen Nutzen
aller Beteiligten gehandelt werden,11 was impliziert, dass die von Datenschtzern
angemahnte Datensparsamkeit12 als eigenstndiges und erstrebenswertes Ziel von
Verbraucherhandeln aus einer gesamtgesellschaftlichen Sicht zu begrenzt ist. Ein
Appell zur Datensparsamkeit kommt - konomisch gesprochen der Aufforde-
rung gleich, nutzenstiftende Tauschmglichkeiten auszuschlagen, und ignoriert den
Trade-off zwischen Datenschutznotwendigkeiten einerseits und den marktlichen
Anforderungen an Informationsverfgbarkeit andererseits.
Es wird im Folgenden zu klren sein, warum eine rechtlich abgesicherte Sou-
vernitt der Informationsemittenten im Hinblick auf ihre privaten Informationen
derzeit nicht gewhrleistet ist und ob und wie dies durch eine Klarstellung der
Verfgungsrechte gendert werden kann. Weiterfhrend wird nach den Mglichkei-
ten, Chancen und Herausforderungen mglicher Regelsetzungen gefragt, die die
Marktkrfte nutzen, um das gesellschaftliche Wohlfahrtsmaximum zu erreichen,
ohne dabei die bestehenden Restriktionen und Limitationen durch individuelle
Charakteristika der Akteure, die Eigenschaften des Gutes Information sowie die
marktlichen Gegebenheiten auer Acht zu lassen. Hierbei wird an traditionelle
ordnungspolitische Konzeptionen angeknpft und insbesondere an der Problematik
der Verfgungsrechte an privaten Informationen angesetzt.
33 Die Nichtausschliebarkeit ist im Vergleich zur Nichtrivalitt das in diesem Kontext relevantere
Charakteristikum. Ein ffentliches Gut, das berwiegend die Eigenschaft der Nichtausschliebar-
keit aufweist, aber rival in der Konsumnutzung ist, wird als Allmendegut bezeichnet.
34 Ein typisches Beispiel sind Testergebnisse aus Verbraucherzeitschriften, die nicht kuich erwor-
ben, sondern gegoogelt werden.
35 Der Streit zwischen Apple und dem FBI ber die Entschlsselung des Mobiltelefons des Terror-
attentters von San Bernadino ist in diesem Zusammenhang aufschlussreich. Apple hat sich auf
den Standpunkt gestellt, dass die Sicherheit von privaten Daten auf ihren Mobilgerten zum Mar-
kenkern ihres Unternehmens gehrt, weshalb eine Kooperation mit dem FBI nicht mglich wre.
Das FBI musste die Daten deshalb selber entschlsseln, was auch gelang, zugleich aber auch das
Privatheitsversprechen von Apple entwertet hat.
190 Malte Dold und Tim Krieger
fach vermutet zu rein marktlichen Lsungen, bei denen der Staat lediglich die
Lsungsmglichkeiten durch entsprechende Rahmenbedingungen absichert. Der
Ordnungsrahmen hilft in diesem Fall, die Marktinstitutionen in Richtung allokativer
Efzienz zu leiten. Ein solcher Ansatz besteht u. a. im Fall von asymmetrischer In-
formation zwischen Anbietern und Nachfragern. So kommt es durch die Unkenntnis
der Qualitt oder Zuverlssigkeit der jeweils anderen Marktseite regelmig zur Ent-
stehung vorvertraglicher Transaktionskosten. Diese knnen jedoch durch rationales
Verhalten der Marktakteure selbst reduziert werden. Werden bspw. glaubwrdige
Vertrauenssignale ex ante ausgesendet (Signalling), so werden die Kontrollkosten
der anderen Marktseite reduziert (verringerte Notwendigkeit des Screenings). Es
kommt ex post zu weniger Vertragsstreitigkeiten und das moralische Risiko nach
Vertragsabschluss wird abgeschwcht.45 Es lohnt sich fr keine Seite, vom Ver-
tragsinhalt abzuweichen, da Reputationsverluste drohen und zuknftige Geschfte
verhindert werden. Der Staat untersttzt dies mit der Absicherung der Glaubwrdig-
keit von Marktsignalen und Kontrollprozessen durch Regeln. Umgekehrt gilt, dass
je geringer die Bereitschaft ist, wegen des Fehlens solcher Regeln Informationen zu
offenbaren, desto hher sind die Transaktionskosten und desto weniger Wohlfahrt
wird auf dem Markt erzielt.
Des Weiteren wird durch eine verbesserte Bereitstellung von Informationen
(bspw. in Vergleichsportalen) der Wettbewerb innerhalb der beiden Marktseiten
intensiviert, weil sich die Beweglichkeit der Akteure auf dem Markt erhht. Diese
werden dadurch angereizt, wahre Informationen ber sich preiszugeben. Hier-
durch wird eine positive Korrelation zwischen Marktsignal und Produkt- bzw. Ak-
teursqualitt gewhrleistet, sodass Informationen glaubwrdiger werden. Falsche
Marktsignale (d. h. Informationen, die von der tatschlichen Produktqualitt abwei-
chen) werden bestraft, indem die Akteure zu anderen Vertragspartnern abwandern.
Die hohe Beweglichkeit der Akteure auf den Mrkten fhrt folglich dazu, dass
die Vorteile durch eine erhhte Reputation im Vergleich zu den Anreizen, sich
opportunistisch zu verhalten, gestrkt werden. Die Akteure werden seltener den
kurzfristigen Gewinn durch Vertragsbruch und Missbrauch von Qualittssignalen
whlen, weil sie langfristige Reputationsverluste befrchten, die zu geringeren
Gewinnen durch eine geringere Anzahl von Wiederholungskufen fhren. Der
Markt fr personenbezogene Daten kann sich unter diesen Umstnden vergrern,
was erneut positive Wohlfahrtswirkungen zur Folge htte. Eine solche Entwicklung
kann aus einem privaten Gewinninteresse entstehen, jedoch ist eine untersttzende
45 Multiseller/Multibuyer-Plattformen wie Amazon oder Ebay haben sich vor allem deshalb durch-
setzen knnen, weil hier beide Marktseiten zentrale Informationen ber sich als Vertrauenssignale
preisgeben. Ebay nutzt hierfr ein einsehbares Bewertungsschema, das zum Reputationsaufbau ge-
nutzt werden kann. Bei Amazon sind es die Produktbewertung auf der Angebotsseite und die eigene
Kaufhistorie auf der Seite der Nachfrager, die zu passgenauen Produktempfehlungen fhren.
Informationelle Selbstbestimmung aus ordnungskonomischer Sicht 195
Rahmensetzung vonseiten des Staates dabei hilfreich etwa durch die rechtliche
Zulassung von vergleichenden Verbrauchertests46 oder Datenschutz-Zertikaten
mit funktionierendem Monitoring.47
4. Abschlieende Bemerkungen
In Zeiten zunehmender Digitalisierung werden wichtige volkswirtschaftliche Res-
sourcen verschwendet, wenn man an einem zu eng verstandenen Privatheits- bzw.
Freiheitsbegriff festhlt und immer hhere Abwehrmauern um das private Indi-
viduum baut.48 Absolute Abwehrrechte - sowohl gegen staatliche Willkr bei
der Datenerhebung als auch gegen unternehmerische Zweckentfremdung bei der
Datenverwendung sollten zwar weiterhin der normative Anspruch sein. Jedoch
sollte man den Verbrauchern auch nicht verheimlichen, dass sie ber enorme Assets
in Form ihrer persnlichen Daten verfgen, welche sie auf abgesicherten Infor-
mationsmrkten selbstbewusst, offensiv und vor allem gewinnbringend veruern
knnen.
In einem liberalen Sinne ist das Recht auf informationelle Selbstbestimmung
nicht nur das (Schutz-)Recht auf Privatheit der eigenen Daten, sondern auch das
durchaus konomisch zu verstehende Recht, mit eben diesen Daten tun und
lassen zu knnen, was man will. Die Handelbarkeit der Daten wird aus ordnungs-
konomischer Sicht wiederum durch garantierte, unverdnnte und sanktionierbare
Verfgungsrechte gewhrleistet. Dem Eigentmer des Verfgungsrechts muss durch
entsprechende institutionelle Rahmensetzung die Mglichkeit gegeben werden, sei-
ne Rechte wahrzunehmen und deren Weitergabe zu kontrollieren bzw. dafr ange-
messen entlohnt zu werden. Die Grundstze des Schutzes des geistigen Eigentums
knnen hierbei als Grundlage dienen.
Vor dem Hintergrund der berlegungen dieses Kapitels kann es daher nicht dar-
um gehen, blind in den Reigen nach immer mehr Datensparsamkeit einzustimmen,
sondern dafr zu sorgen, dass sich die Marktteilnehmer darauf verlassen knnen,
dass Vertrauliches nicht ohne Zustimmung und Wissen zu kommerziellen oder
kriminellen Zwecken weiterverwendet wird. Eine konomie, in der man Angst
haben muss, dass die freiwillige Weitergabe privater Informationen zu einem sp-
teren Zeitpunkt einen nanziellen oder anderen Schaden mit sich bringt, schafft
46 Bspw. wurden vergleichende Warentests in Deutschland im Jahr 1960 in einem Musterprozess vor
dem OLG Stuttgart fr zulssig erklrt und fhrten wenige Jahre danach zur Einrichtung der Stif-
tung Warentest. Die Wirkung dieser Entwicklung fr den Wettbewerb auf den Mrkten fr Ver-
brauchsgter kann nicht hoch genug eingeschtzt werden.
47 Jentzsch, Was knnen Datenschutz-Gtesiegel leisten?
48 Fr eine vertiefte Auseinandersetzung ber den konomischen Zusammenhang von Freiheit und
Privatheit bzw. siehe das Kapitel von Picot et als. in diesem Band.
196 Malte Dold und Tim Krieger
Literatur
Acquisti, Alessandro. The Economics of Personal Data and Privacy. Background
Paper 3. Paris: Organisation for Economic Co-operation und Development
(OECD), 1. Dez. 2010. URL: https://www.oecd.org/sti/ieconomy/46968784.pdf
(besucht am 09. 09. 2016).
Acquisti, Alessandro und Jens Grossklags. Privacy and rationality in individual
decision making. In: IEEE Security and Privacy 3.1 (2005), S. 2633.
Acquisti, Alessandro, Curtis R. Taylor und Liad Wagman. The Economics of
Privacy. In: Journal of Economic Literature 52.2 (2016), S. 442492.
Benndorf, Volker und Hans-Theo Normann. The Willingness to Sell Personal
Data. Discussion Paper 143. Dsseldorf: Dsseldorf Institute for Competition
Economics, Apr. 2014.
Beresford, Alastair R., Dorothea Kbler und Sren Preibusch. Unwillingness
to Pay for Privacy: A Field Experiment. In: Economics Letters 117.1 (2012),
S. 2527.
Brandimatre, Laura und Alessandro Acquisti. The Economics of Privacy. In:
The Oxford Handbook of the Digital Economy. Hrsg. von Martin Peitz und Joel
Waldfogel. Oxford: Oxford University Press, 2012, S. 547571.
Calzolari, Giorgio und Alessandro Pavan. On the optimality of privacy in sequen-
tial contracting. In: Journal of Economic Theory 130.1 (Sep. 2006), S. 168
204.
Coase, Ronald Harry. The Problem of Social Cost. In: The Journal of Law and
Economics 1.3 (Okt. 1960), S. 144.
Dienlin, Tobias und Sabine Trepte. Is the privacy paradox a relic of the past?
An in-depth analysis of privacy attitudes and privacy behaviors. In: European
Journal of Social Psychology 45 (2015), S. 285297. DOI: 10.1002/ejsp.2049.
Eucken, Walter. Grundstze der Wirtschaftspolitik. Tbingen: Francke, Bern und
Mohr, 1952.
Europischer Gerichtshof. Urteil in der Rechtssache C-131/12, Google Spain SL,
Google Inc./Agencia Espaola de Proteccin de Datos, Gonzlez, Mario Costeja.
Pressemitteilung Nr. 70/14. Luxemburg, 14. Apr. 2013.
Informationelle Selbstbestimmung aus ordnungskonomischer Sicht 197
Steinfeld, Nili. I Agree to the Terms and Conditions. In: Computers in Human
Behavior 55 PB (2016), S. 9921000. DOI: 10.1016/j.chb.2015.09.038.
Stigler, George J. An Introduction to Privacy in Economics and Politics. In: The
Journal of Legal Studies 9.4 (1980), S. 623644.
Sugden, Robert. The Opportunity Criterion: Consumer Sovereignty without the
Assumption of Coherent Preferences. In: American Economic Review 94 (Sep.
2014), S. 10141033.
Taylor, Curtis R. Consumer Privacy and the Market for Customer Information.
In: The RAND Journal of Economics 35.4 (2004), S. 631650.
Thaler, Richard H. und Cass R. Sunstein. Nudge: Improving Decisions about Health,
Wealth, and Happiness. New Haven: Yale University Press, 2008.
Varian, Hal R. Economic Aspects of Personal Privacy. Technical Report. Berkeley,
Cal.: University of California Berkeley, 1996.
Verordnung (EU) 2016/679 des Europischen Parlaments und des Rates vom
27. April 2016 zum Schutz natrlicher Personen bei der Verarbeitung personen-
bezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie
95/46/EG (Datenschutz-Grundverordnung). In: Amtsblatt der Europischen
Union L 119 (4. Mai 2016), S. 188. URL: http : / / eur- lex . europa . eu / legal -
content/DE/TXT/?uri=OJ:L:2016:119:TOC.
Westin, Alan F. Privacy and freedom. New York: Atheneum, 1967.
World Economic Forum. Personal Data: The Emergence of a New Asset Class.
Cologny und Geneva, 2011. URL: http://www3.weforum.org/docs/WEF%5C_
ITTC%5C_PersonalDataNewAsset%5C_Report%5C_2011.pdf (besucht am
09. 09. 2016).
Teil III.
1. Einleitung
Diesem Aufsatz liegt die Frage zugrunde, ob es mglich sei, in einer digitalisierten
Mediengesellschaft die informationelle Selbstbestimmung (iSB) von Akteuren zu
erhalten. Zum gegenwrtigen Zeitpunkt fllt die Antwort negativ aus, da die Idee
einer allumfassenden informationellen Selbstbestimmung schon aus Sicht der Sub-
jekttheorie nicht funktioniert. Stattdessen sind graduale und relationale Formen als
Balanceakt zwischen Autonomie und Heteronomie des einzelnen Subjekts mg-
lich. Das Problem der iSB wird als Problem kontextueller Integritt in komplexen
und dezentrierten Kommunikationssystemen fassbar. Ein Modell, wie mit diesen
Problemen umgegangen werden kann, bieten autoktionale Poetiken. Auf solchen
Beispielen aufbauend wird ein Vorschlag zur Lsung des Dilemmas prsentiert, der
darin besteht, die Sphre des Digitalen in zwei voneinander strikt abgetrennte und
funktional unterschiedlich wirksame Bereiche zu teilen.
Begrndung des Werts der iSB relevant, bei der sich immer wieder folgende Set-
zung ndet: Nur wenn informationelle Selbstbestimmung zumindest bis zu einem
bestimmten Grad vorliegt, kann individuelle Autonomie existieren.2
Dieser Aspekt des Graduellen dient als Ansatzpunkt, um das Paradigma individu-
eller Autonomie durch dasjenige der relationalen Autonomie zu ersetzen, denn die
Gradualitt der iSB, so kann man schlussfolgern, sorgt auch fr graduelle Auspr-
gungen von Autonomie. Die Annahme dieses wechselhaften Verhltnisses bedingt,
dass es kein einfaches Schwellenmodell gibt. (Man ist autonom, oder man ist es
eben nicht.) Stattdessen muss immer von Aushandlungsprozessen zwischen Auto-
nomie und Heteronomie ausgegangen werden, mit denen ein Individuum bestndig
konfrontiert ist. Dieses Modell der relationalen Autonomie3 ist am besten geeignet,
um die komplexen Machtverhltnisse einer digitalisierten Mediengesellschaft und
ihre Wirkungen auf das Subjekt zu beschreiben.
2 Rssler, Der Wert des Privaten, S. 203; Oshana, Autonomy and the Question of Authenticity,
S. 411.
3 Oshana, Personal Autonomy and Society; sowie etwas differenzierter Christman, Relational
Autonomy, Liberal Individualism, and the Social Construction of Selves.
4 Vgl. zur Kritik der trivialen und reduzierenden Verwendungen in den Surveillance-Studies vor al-
lem Caluya, The post-panoptic society?
Rettung der informationellen Selbstbestimmung 203
fr diese sichtbar zu sein. Die Insassen waren isoliert in Zellen untergebracht, ohne
die Mglichkeit des Kontakts untereinander, sie waren Objekt einer Information,
niemals Subjekt in einer Kommunikation.5 Durch die Unsichtbarkeit der Beobach-
tungsinstanz fr die Insassen war es nicht notwendig, dass sie jeweils tatschlich zu
jedem Zeitpunkt berwacht wurden. Dieser Aspekt ist fr Foucault der springende
Punkt, von dem aus er seine Gedanken entwickelt. Fr den vorliegenden Aufsatz
sind zwei davon besonders relevant:
1. Das architektonische Panopticon ist fr Foucault die Metapher fr ein all-
gemeineres Prinzip, den Panoptismus. Dessen Pointe besteht darin, dass es das
ideale Sinnbild einer Disziplinargesellschaft darstellt, deren Agency sich in die
Objekte der potentiellen berwachung einschreibt. Die fehlende informationelle
Selbstbestimmung fhrt dazu, dass die Subjekte des Panopticons zu reinen Be-
obachtungsobjekten degradiert werden und ber diesen Zustand wissen, sich
ihm entsprechend verhalten. Welchen Zweck die Anlage auch immer verfolgt
ihre Ordnung wird zu einer Subjekttechnologie, die die Ordnung des Systems
aufrechterhalten soll:
Die Efzienz des Panoptismus wird also nicht durch aktive Einussnahme der
Macht gewhrleistet, sondern dadurch, dass es die fehlende informationelle Selbst-
bestimmung veranschaulicht und dadurch disziplinierend wirkt.
2. Der Panoptismus ist seiner Idee nach mit demokratischen Prinzipien kompati-
bel. Bereits bei Foucault ist auch der Aufseher in der Mitte, der als Verkrperung
der Agency den Ort der Macht besetzt, durch andere Instanzen und Akteure kon-
trollierbar:
So betrachtet kann man sich Szenarien vorstellen, in denen die Insassen das
Panopticon temporr verlassen, um zu berprfen, ob die Aufseherinstanz eine
Agency in ihrem Sinne durchsetzt, um anschlieend dann wieder sich dem Prinzip
der Beobachtbarkeit zu unterwerfen.8
Die Quintessenz des panoptischen Modells in Hinblick auf den Wert und die
Gestaltung der iSB besteht somit darin, dass die Einschrnkung und Manipulation
der iSB als eine Machtwirkung beschrieben werden kann, die von den Subjekten
selbst soweit internalisiert wird, dass sie selbst zu den aktiven Wirkungsmecha-
nismen dieser Macht werden, wenn sie sich der verkrperten Agency konform
verhalten. Whrend eine vollstndige berwachung, verbunden mit der Drohung
von Sanktionen bei nonkonformem Verhalten, die Subjekte in der Tat komplett
in ihrer Handlungsfreiheit einschrnkt und sie zu reinen Objekten der Macht de-
gradiert, sind jedoch auch Abstufungen mglich, die das demokratische Gefge
auch im Zustand des Panoptismus intakt belassen. Diese Erkenntnis ist alles an-
dere als trivial; ihr Grundprinzip kommt jedoch am strksten da zum Tragen, wo
informationelle Selbstbestimmung auf der Ebene von Subjektbeziehungen wirksam
wird.
1. Ebene des psychischen Systems (Bewusstsein). Dies ist der Ort des Des-
cratesschen Cogito ergo sum, er umfasst die Prozesse, in denen Menschen sich
ihrer selbst bewusst werden, sich bestimmte Attribute zuweisen und damit ihre
eigene Identitt in einer tglichen Identittsarbeit herstellen.12 Wenn man der u. a.
bei Niklas Luhmann vertretenen These folgt, dass psychische Systeme im Modus
kognitiver Geschlossenheit operieren,13 dann ist diese Ebene ein geschlossenes
System, dessen sinngenerierende Prozesse fr niemanden sonst einsehbar sind.
Gleichwohl ist es darauf angewiesen, permanent Input aus der zweiten Ebene zu
verarbeiten, wobei es sich dafr der Codes aus der dritten Ebene bedienen muss. In
vielen Autonomie-Theorien wird hier die Nagelprobe angesetzt, ob Autonomie vor-
handen ist oder nicht.14 Aufgrund der Abgeschlossenheit der psychischen Prozesse
ergibt es jedoch mehr Sinn, diese Fragestellung auf die Ebene der Interaktion bzw.
der Kommunikation zu verschieben.
2. Ebene der Kommunikation und Interaktion (soziales Band). Dies ist die
eigentliche Arena, auf der die Frage nach informationeller Selbstbestimmung rele-
vant wird, denn hier spielt sich das antagonistische Verhltnis von Selbstdenition
und Anrufung15 ab, in denen das Subjekt als sozial relevante Gre erschaffen
wird. Jede Selbstbestimmung als Subjekt, die auf der ersten Ebene gettigt wurde,
muss kommunikativ oder zumindest zeichenhaft umgesetzt werden. Ist man von
anderen als Subjekt, also als jemand, der ber die Prozesse der ersten Ebene ver-
fgt, erkannt worden, so knnen auf der Basis des subjekttechnischen Inventars
der dritten Ebene Eigenschaften zugewiesen werden, die einen als Individuum
ausweisen.16 Erst nach dem Ablauf dieser Prozesse ist es fr ein Subjekt mglich,
die sozial anschlussfhige Form einer Person anzunehmen und damit auch aktiv
in das Gefge des sozialen Bandes einzugreifen, eine feste Koordinate darin zu
bilden.17 Von dieser Anlage aus lassen sich auch die Begriffe Figur, Subjekt
und Person differenzieren: Einer Figur wird lediglich ein virtueller Subjektstatus
12 Vgl. zum Begriff der Identittsarbeit aus narrationspsychologischer Perspektive Keupp, Diskursa-
rena Identitt, S. 34f. Der Begriff wird auch als daily identity practice in den aktuellen Life-
Writing-Studies angewendet, vgl. Eakin, Autobiography as Cosmogram.
13 Luhmann, Soziale Systeme, S. 92ff., S. 142f.
14 Dies ist oft mit der Frage verbunden, ob das Subjekt authentisch sei, was in meinem Modell keine
Rolle spielt, da die ethische Grundierung des Authentizittsbegriffs nicht mit einer medienbasierten
Heuristik der Subjektanalyse vereinbar ist.
15 Reckwitz, Subjekt, S. 14: Der Einzelne wird zum Subjekt, indem er sich innerhalb einer kulturellen
Ordnung als solches anrufen lsst.
16 Vgl. dazu Butler, Psyche der Macht, S. 15.
17 Das hier vorausgesetzte Verstndnis von der Form Person basiert auf Luhmanns Konzeptionen,
die von Sabine Kampmann folgend zusammengefasst werden: Die jeweils kontextspezisch aus-
wahlbaren Beschreibungen eines Menschen bilden das Medium, vor dessen Hintergrund die Form
Person je aktuell entsteht. Der Begriff Person eignet sich demzufolge, die verschiedenen einem
206 Innokentij Kreknin
zuerkannt, einer Person hingegen wird ein realer, also alltagswirklich relevanter
Subjektstatus zugewiesen und sie im sozialen Band verortet. Figur und Objekt
haben keinen informationellen Handlungsraum, den sie selbst aktiv beeinussen
knnen. Autonome Subjekte hingegen mssen aus ihrer inneren Perspektive her-
aus einen informationellen Handlungsraum auf der Ebene der Kommunikation so
fr sich beanspruchen, dass dieser Anspruch auch fr alle anderen (autonomen)
Personen prinzipiell gleichwertig gelten sollte.
Norbert Ricken spricht in Hinblick auf diese Prozesse von einer doppelten[n]
Differenz zwischen Mensch bzw. Akteur und Subjekt einerseits und in Inter-
Subjektivitt [. . . ] andererseits, in welcher die Gleichzeitigkeit des Ungleichzeiti-
gen also die Prsenz von Heteronomie und Autonomie zugleich, gedacht werden
muss.18 Mit anderen Worten: Man muss im Zusammenspiel der Ebenen eins und
zwei von einer doppelte[n] Relationalitt19 ausgehen, die Selbstwahrnehmung,
Fremdwahrnehmung und Selbstwahrnehmung als potentielle Fremdwahrnehmung
umfasst. Wenn nun Subjektivationsprozesse in den Rahmen eines Kommunikations-
paradigmas gesetzt werden, bedeutet dies, dass die Idee einer absoluten informa-
tionellen Selbstbestimmung schon an der Grenze der kognitiven Geschlossenheit
scheitert. Zwar mag, wie Helen Nissenbaum anmerkt, ein Eremit vollstndige in-
formationelle Selbstbestimmung genieen, solange er von niemandem beobachtet
wird.20 Fr die vorliegenden berlegungen ist aber ein solcher spekulativer Fall
uninteressant, da er an der tglichen Subjektivationspraxis vorbei zielt. Es ist er-
giebiger, sich vor Augen zu fhren, dass die doppelte Relationalitt des Subjekts
immer nur durch Kommunikation, d. h. zwischen Subjekt und Subjekt/Dispositiv
funktional gemachte Information, aktualisiert werden kann. Auf das Subjekt refe-
rierende (und es erschaffende) Information muss, mchte sie als der Kategorie der
iSB zugehrig angesehen werden, stets das Potential haben, auf beiden Seiten der
Unterscheidung von Ebene eins und zwei funktional sein zu knnen. Dies bedeutet
jedoch auch, dass alle Daten, die in ihrer Gesamtheit als operativ fr informationelle
Selbstbestimmung anzusehen sind, zwischen den Polen Autonomie (Selbstbezug,
Intention, Kontrolle) und Heteronomie (Fremdbezug, Selbstbezug als Fremdbezug,
Kontingenz) changieren also niemals komplett von dem Subjekt determiniert
werden knnen, auf das sie verweisen.
Die Mechanismen dieser zweiten Ebene der Subjektivation formieren sich nicht
ausschlielich im Austausch zwischen Subjekten, sondern auch im Verhltnis von
Subjekten zu Dispositiven, wie z. B. dem Bildungs-, Gesundheits- oder Mediensys-
tem, die uns ebenfalls als Subjekte identizieren und als Funktion ihres Dispositivs
anschlieen.
Hier ndet sich eine Analogie zum demokratischen vs. totalitren Panopti-
con: In unserem Verhltnis zu peers knnen wir darauf bauen, dass wir den gleichen
Prinzipien doppelter Relationalitt unterliegen (sollten) und demzufolge unsere
Modelle des Selbstbezugs mit den Modellen des Fremdbezugs anderer Subjekte
(und vice versa) harmonieren knnen, mssten wir also Prinzipien des Mitsprache-
rechts bei der Attribution und Auslegung bestimmter Subjektnormen und -formen
installieren. Wenn wir hingegen von greren Institutionen und Strukturen sub-
jektiviert werden, ist uns eine derartige Intervention zumeist nicht mglich, bzw.
nur um den Preis zu haben, diese Institution zu verlassen. Social Networking Sites
(SNS) wie Facebook sind Beispiele: Sie bilden soziomediale Dispositive, in denen
dem einzelnen Akteur eine spezische Position zugewiesen wird, in der man dazu
angehalten ist, bestimmte Subjektivationstechniken zu bedienen.21 Die Regeln der
Beobachtbarkeit knnen zwar gegenber den peers innerhalb des Netzwerks mit-
hilfe der Privatsphre-Einstellungen angepasst werden, nicht aber gegenber dem
Netzwerk selbst. Die Konsequenz daraus ist, dass man als Subjekt geformt wird
und zugleich das Objekt der Agency der SNS ist, die meist irgendeiner Form der
Monetarisierung dient.
3. Ebene der Machtdispositive. Diese Ebene ist eigentlich abstrakt und steht
quer zu den beiden anderen, durchzieht sie jedoch und wird erst in ihnen wirksam:
Sie besteht aus den sinnhaften Mustern und Zeichen, die einem Subjekt zugewiesen
werden knnen; die es uns erlauben, eine bestimmte Form des Subjekts als solche
anzuerkennen, oder aber zu sanktionieren, fr deviant zu erklren etc. Die Ebene
wird von der tatschlichen Praxis der beiden anderen Ebenen und u. a. von den
medialen Bedingungen dieser Praxis beeinusst und ist hochdynamisch. In ihr erst
wird entschieden, was berhaupt als persnliche Information angesehen werden
kann; sie ist jedoch fr die weitere Argumentation nicht zentral.22
26 Vgl. zum Konzept der kontextuellen Integritt einschlgig Nissenbaum, Privacy in Context,
S. 129157.
27 Vgl. zu kulturellen Modellen derartiger Anonymitt den Aufsatz von Wiele und Weelmann in
diesem Band.
28 Dieser Modus dominiert in vielen digitalen Kontexten wie Chatrooms, Datingplattformen oder
MMORPGs, aber auch bei 12-Step-Gruppen wie den Anonymen Alkoholikern. Vgl. zu letzteren
Helm, Die utopischen Sicherheitszwnge Schtiger und das Wagnis der Anonymitt, vor allem
S. 6368.
210 Innokentij Kreknin
In die Anlage der drei Modi muss der Prozess der Referentialitt bercksichtigt
werden. Sie ist in allen dreien aktiv und sie wirkt als die Identikation spezi-
zierter Attribute und Handlungen mit einem distinkten Akteur. Die Reichweite
einzelner Referentialittsprozesse wird zur Nagelprobe kontextueller Integritt:
Werden die Normen29 des Datenaustauschs zwischen Kontexten so verletzt, dass
ein Akteur in mehreren Kontexten identiziert werden kann, dann ist die iSB von
Subjekten gefhrdet. Es ist dabei unerheblich, ob die Kontextverletzung zwischen
den einzelnen Modi oder innerhalb eines Modus stattndet. Referentialitt ist aus
dieser Perspektive eine notwendige Bedingung der Herstellung von Identitt und
Bestandteil von Subjektivationsprozessen. Problematisch wird dies erst, wenn eine
zustzliche Dimension bercksichtigt wird, die sich quer zum Modell der Modi
positioniert.
Diese Dimension uert sich in einer Differenzierung von Funktionsbereichen,
bei denen man heuristisch zwei Pole unterscheiden kann: Auf der einen Seite den
Pol eigentlicher Denotation;30 in dieser ist fr Individuen zumeist das Auftreten
im Modus Nr. 3 normativ vorgesehen. Dieser Pol ist dadurch gekennzeichnet, dass
die darin zu ndenden Referentialitten normalerweise durchgngig untereinander
funktional anschlussfhig sind, die hergestellte Identitt eines Akteurs also stabil
verbleibt und ihn als Person mit Rechten und Pichten entwirft. Der gegenstzliche
Pol kann als Fiktionalitt bezeichnet werden und prsentiert sich als Domne
uneigentlicher Denotation.31 Die in derartig kongurierten Kontexten ablaufen-
den Referentialittsprozesse sind blicherweise nicht funktional an anderweitige
Kontexte anschlussfhig. Subjekte, die sich in ktionalen Kontexten formieren,
haben darum meist den Status einer Figur.32 Der reale Wirkungsgrad der beiden
Pole ist jedoch problematisch zu systematisieren und auch die binre Heuristik von
Fakt und Fiktion vermag das Problem nicht zu lsen, da auch uneigentlich
kongurierte Kontexte durchaus Bestandteil der subjektiven Lebenswirklichkeit
und damit real und eigentlich sein knnen. Produktiver scheint eine begrifiche
Anleihe aus dem erkenntnistheoretischen Konstruktivismus von Bjrn Kraus, der
zwischen Lebenswelt und Lebenslage unterscheidet:
29 Vgl. zum Begriff der Norm hier Nissenbaum, Privacy in Context, S. 138f.
30 Vgl. dazu Zipfel, Fiktion, Fiktivitt, Fiktionalitt, S. 75f. Ich danke Regina Ammicht Quinn dafr,
mich auf die Schwierigkeiten des vormals daraus abgeleiteten Begriffs der Sphre der Eigentlich-
keit hingewiesen zu haben. Der hier verwendete Eigentlichkeitsbegriff ist explizit nicht mit dem
bei Martin Heidegger vereinbar.
31 Ebd., S. 73.
32 Luhmann betonte, dass der Unterschied zwischen Alltagswirklichkeit und Fiktion ein funktio-
naler und kein absoluter ist. Massenmedien stellen die fr alle verbindliche operative Fiktion her,
die dann zur Realitt wird. Vgl. Luhmann, Soziologische Aufklrung 3, S. 367.
Rettung der informationellen Selbstbestimmung 211
1. Schaffung digitaler Kontexte. Der Computer als Metamedium ist in der Lage,
vielfltige, potentiell in sich abgeschlossene Kontexte zu kreieren, in denen
Akteure sich als Subjekte prolieren knnen, seien dies Chatrooms, SNS, die
virtuellen Welten von MMORPGs oder Sandboxes wie Second Life. Das
emanzipatorische Potential36 dieser Kontexte, die sich auf die gesamte Funkti-
onsskala zwischen subjektiver Lebenswelt und personaler Lebenslage verteilen,
muss hier ebenso wenig argumentiert werden wie die Dominanz dieser Prakti-
ken.37 Aus Sicht der Subjekttheorie ist es wichtig zu betonen, dass auch digitale
Kontexte, die eher ktional konguriert sind und in denen Subjekte als avat-
aristische Figuren im Modus der Anonymitt oder Pseudonymitt auftreten,
durchaus als Rume realer Subjektpraktiken angesehen werden mssen, die
auch die Lebenswelt wenn auch nicht unbedingt die personale Lebenslage
von Individuen beeinussen.38
2. Herstellung transkontextualer Referentialitt. Die digitale Verarbeitung von
Daten bedeutet auch eine neue Stufe der Produktion von Hypertexten, die es
erlaubt, Datenstze, die in verschiedenen semiotischen Codes vorliegen, inein-
ander zu bersetzen, zu verbinden, zu berarbeiten und zu transformieren, ohne
Wechsel der technischen Apparatur.39 Diese neue Stufe der Hypertextualitt
erlaubt es durch die Vernetzung von Daten unterschiedlicher Kontexte auch,
einzelne Akteure eindeutig zu identizieren, was neben zahllosen auch po-
sitiven Effekten zur Verletzung kontextueller Integritt und einem Verlust
informationeller Selbstbestimmung fhren kann.
37 Es mag als quantitatives Argument gengen, dass allein Facebook im Mrz 2015 weltweit 1,4
Milliarden aktive NutzerInnen dieses spezischen digitalen Kontextes aufgewiesen hat, vgl. Wold
Bank, World Development Report 2016, S. 150.
38 Boellstorff, Coming of Age in Second Life, S. 5.
39 Tardini und Cantoni, Hypermedia, internet and the web.
40 Vgl. hier zu ethischen Fragen Rssler, Should Personal Data be a Tradable Good?
41 Vgl. Citron und Franks, Criminalizing Revenge Porn.
Rettung der informationellen Selbstbestimmung 213
Dies ist letztlich als ethisches Argument dafr zu werten, die distinkten Kon-
texte, in denen die Figur bzw. die mit ihr identizierbare Person eingebettet sind,
42 BVerfGE 30, 173 Mephisto, S. 195.
43 Die Argumentation ist tatschlich deutlich komplexer, vgl. Eichner und Mix, Ein Fehlurteil als
Mastab?, S. 199204.
44 Vgl. ebd., S. 210.
45 BVerfGE 30, 173 Mephisto, S. 204.
214 Innokentij Kreknin
nicht funktional miteinander zu verbinden. Mit anderen Worten: Die Normen der
einzelnen Kontexte sollen soweit respektiert werden, dass Figuren als Figuren zu
verbleiben haben. Die mgliche Referentialitt auf Personen drfe nicht funktional
im Bereich der personalen Lebenslage werden.
4.1. Probleme der Grenze von Fakt und Fiktion: Der Fall Esra
Im Jahr 2007 entschied das Bundesverfassungsgericht einen Rechtsstreit um den
Roman Esra des Autors Maxim Biller mit der Besttigung des Verbots der Ver-
breitung des Buches.46 Die ehemalige Lebensgefhrtin Billers und ihre Mutter
hatten geklagt, da sie sich in zwei der Figuren erkannten und damit in ihrem Per-
snlichkeitsrecht verletzt sahen. Die Urteilsbegrndung ist einigermaen paradox.
Einerseits folgt das Gericht dem Mephisto-Sondervotum von Stein und betrachtet
das Abbild-Paradigma kritisch.47 Auch wird der Kunstcharakter des Werks erkannt
und besttigt48 und die Freiheit der Kunst soweit gestrkt, dass es fr Personen
kein Recht am eigenen Lebensbild49 geben knne, egal ob es sich um Personen
des ffentlichen Lebens handele oder solche, die nicht im medialen Rampenlicht
stnden.50 Zugleich aber wurde die Gltigkeit des Buchverbots als angemessen
beurteilt:
Die eindeutig als Esra erkennbar gemachte Klgerin zu 1) muss
aufgrund des berragend bedeutenden Schutzes der Intimsphre nicht
hinnehmen, dass sich Leser die durch den Roman nahegelegte Frage
stellen, ob sich die dort berichteten Geschehnisse auch in der Realitt
zugetragen haben. Daher fllt die Abwgung zwischen der Kunstfrei-
heit [. . . ] und des Persnlichkeitsrechts der Klgerin zu 1) zu deren
Gunsten aus [. . . ].51
In dem Urteil wird durchgngig mit dem Allgemeinen Persnlichkeitsrecht
nach Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG und der Verletzung der Intimsphre
argumentiert, und nicht mit dem Recht auf informationelle Selbstbestimmung, da
hier aus juristischer Perspektive eine Zweiteilung der dogmatischen Bewertung von
Datenverarbeitung einerseits und Konikten mit Presse, Literatur usw. andererseits
vorliegt.52 Und auch wenn es juristisch nicht funktionieren mag, so kann doch mit
46 Vgl. ausfhrlich Eichner und Mix, Ein Fehlurteil als Mastab?; Bunia, Fingierte Kunst.
47 Vgl. BVerfG, 1 BvR 1783/05, Abs. 83.
48 Vgl. ebd. Abs. 96. Auch wird Esra eindeutig abgesprochen, ein faktentreuer Bericht zu sein, vgl.
ebd., Abs. 94.
49 Ebd. Abs. 84.
50 Ebd., Abs. 51.
51 Ebd., Abs. 102.
52 Ich danke Herrn Alexander Ronagel fr den entsprechenden Hinweis.
Rettung der informationellen Selbstbestimmung 215
dem Bogen ber die Subjekt-Perspektive die Interferenz zwischen dem Urteil und
den Prinzipien der informationellen Selbstbestimmung beleuchtet werden.
Der Roman gab dem Gericht zufolge intime Details ber die Klgerin zu 1)
preis, die von LeserInnen als faktual gelesen werden knnten. Zugleich sei es ein
hybrides Werk, das poetologisch mit der Verschrnkung der Grenzen von Wahrheit
und Fiktion arbeite.53 Die Lesart des Textes ist damit weder eindeutig ktional noch
eindeutig faktual die den LeserInnen zukommende Entscheidung darber, ob es
sich bei Esra um Kunst oder einen flschlicherweise als Roman etikettierte[n]
bloe[n] Sachbericht54 handle, wird vom Gericht als unzumutbar fr die Klgerin
angesehen. Die Konsequenz dieser Unzumutbarkeit ist die Besttigung des Verbots
des Romans.
Subjekttechnisch war das Esra-Urteil ein Fehler, denn es bewirkte indirekt das,
was es zu verhindern vorgab. Auch wenn das Gericht die Entscheidung, ob Fakt oder
Fiktion, nicht selbst fllte, entzog es die in dem Text enthaltenen Informationen
allen potentiellen zuknftigen Zuordnungen. Damit aber kongurierte es einen
vormals im ktionalen Kontext angesiedelten Datensatz so, dass eine Funktionalitt
dieser Informationen im Bereich der personalen Lebenslage der Klgerin zumindest
nicht ausgeschlossen werden knnte. Eine unmittelbare Referentialitt zwischen der
Romangur und der Person der Klgerin wird nicht aus der Welt gerumt, sondern
mit dem Verbot scheinbar eher noch besttigt auch wenn die Begrndung des
Urteils selbst dies differenzierter handhabt. Und mehr noch: In dem Urteilstext
selbst wird ein ganzer Katalog an Eigenschaften und Attributen gelistet, die auf die
reale Identitt der Klgerinnen verweisen und als faktuale Brcken zwischen Roman
und Realitt ausgestellt werden. Der Urteilstext ist frei einsehbar und es reicht ein
einziger Suchbefehl mit einem Stichwort daraus, um die Klarnamen der Klgerinnen
zu recherchieren. Auch das Buch ist mit dem Verbot nicht aus der Welt immerhin
4 000 Exemplare wurden verkauft55 und werden noch immer antiquarisch gehandelt.
Die Klgerinnen mssen demnach auch nach dem Urteil damit rechnen, dass ihnen
begegnende Menschen sowohl die Informationen aus dem Urteil als auch die
dort teilweise zitierten ktiven Attribute aus dem Buch als potentiell real ansehen
und sie als Personen entsprechend anders subjektivieren. Vormals verborgene
Kammern des Panopticons wurden damit im Laufe und im Nachgang des Prozesses
einer breiten ffentlichkeit einsehbar gemacht und Subjektformen, die nicht fr
die ffentlichkeit bestimmt waren und teils auch nur ktiven Figuren angehren
mgen, wurden potentiell auf die Entitt einer einzigen Person bertragen, deren
Autonomie damit zumindest eingeschrnkt wurde. Das Selbstverhltnis wird durch
solche Prozesse gestrt, das Subjekt determiniert, und die Mglichkeit einer direkten
Brcke zwischen Figur und Person durch das Urteil eher besttigt als verunmglicht.
knnen als eine Matrize dienen, um dem Problem der Aushandlung informationel-
ler Selbstbestimmung, Autonomie und Heteronomie in einer Mediengesellschaft
beizukommen. Die folgenden drei Aspekte sind besonders hervorzuheben:
2. Unzuverlssigkeit. Sie durchzieht wie ein roter Faden alle Prosatexte von Goetz:
Leicht berprfbare Details stimmen nicht, oder stimmen nicht ganz. Was auf
den ersten Blick die getreue Wiedergabe realer Ereignisse zu sein scheint, wird
so unzweideutig der Domne der Fiktion zugeschlagen damit erfllen seine
Texte genau die Vorgaben, die das Bundesverfassungsgericht beim Mephisto-
Roman noch vermisst hatte.62
3. Selbstktionalisierung. Goetz behandelt sich selbst und seine eigene Autorschaft
als eine Figur des literarischen Textes. Obwohl nahezu alle Texte um den gleich-
namigen Autor kreisen, erfhrt man nahezu nichts ber dessen Privatleben, es
gibt keine Intimitt, keine Sexualitt und alle sozialen Beziehungen stehen
im Verdacht, rein ktional zu sein. Diese Verfahrensweise bertrgt sich auch
jenseits der eigentlichen Literatur: Goetz gibt nur sporadisch Interviews und
bleibt teils jahrelang medial unsichtbar.63 Alle Daten, die er selbst autorisiert,
referieren auf ihn als die Figur des Trgers der Autorfunktion64 und nicht als
Person.
Das Paradoxe hieran ist, dass er damit zwar einerseits sehr viel Autonomie
ber sich als Privatperson behlt, zugleich aber damit die Bedingungen dafr
schafft, dass er von anderen in eine heteronome Figur transformiert wird: Von
allen aktuell lebenden deutschen Schriftstellern taucht kaum jemand so hug als
literarische Figur in den Werken anderer Autoren auf wie Rainald Goetz.65 Ich
sehe diese poetologische Struktur als ein ethisches Modell unter den Bedingungen
einer Mediengesellschaft; Ethik verstanden als die Reexion der Regeln des
Selbstverhltnisses und die bertragung dieser Regeln auf Fremdverhltnisse, dies
alles mit dem Ziel des mglichst guten und gelungenen Lebens.66
Ein Problem ndet sich darin, dass dieses Modell von vielen, auch professionellen
RezipientInnen nicht als solches erkannt wird, sie sein Werk als Schlsselliteratur
lesen und Goetz entsprechend der Daten aus seinen Bchern subjektivieren.67
Diese Einschrnkung des informationellen Handlungsraums wird aber nur dann
relevant, wenn man berhaupt den Anspruch erhebt, von der Subjektgur auf das
Subjekt der personalen Lebenslage und von da aus auf die authentische Person
zu schlieen. Die Poetik von Goetz hingegen impliziert einen radikalen Schnitt.
Sie suggeriert zum einen, dass Figur und medial vermittelte Person aufeinander
referieren und erklrt im gleichen Moment, dass von da aus keinerlei Referenzen
auf das Subjekt der personalen Lebenslage hinter der Medialitt hergestellt
werden knnen. Daraus kann man ableiten, dass es sowohl auf der Produzenten- als
auch auf der Rezipientenseite angemessener ist, medial prozessierte Daten, die sich
in offenen Netzwerken benden,68 stets einer hybriden Sphre zuzuordnen, die sich
einer pauschalen Zuweisung zu den Polen Fakt oder Fiktion entzieht. Dies schliet
an meine Ausfhrungen zur iSB aus subjekttheoretischer Perspektive an: Wenn
man medialisiert wird, ist man immer schon teilweise Informationsobjekt und der
eigene informationelle Handlungsrahmen wird prekr. Das Objekt der potentiellen
Heteronomie ist jedoch die als Figur auftretende Form einer Person, whrend das
Subjekt der personalen Lebenslage selbst autonom zu verbleiben vermag, indem
es jede Referentialitt von sich auf die gleichnamige medialisierte Entitt negiert.
Darauf aufbauend lsst sich ein Szenario entwerfen, in welchem informationelle
Selbstbestimmung auch im Zustand einer digitalisierten und vernetzten Gesellschaft
gewhrleistet werden kann. Das Mittel dafr ist eine grundstzliche, unaufhebbare
und geschtzte Zweiteilung der digitalen bzw. medialen Sphre.
65 Vgl. die Auistung in Kreknin, Poetiken des Selbst, S. 243, Anm. 225.
66 Dies ist konsistent mit den Ausfhrungen Foucaults zur Hermeneutik des Selbst, vgl. dazu Fou-
cault, Die sthetik der Existenz; sowie Foucault, Hermeneutik des Subjekts.
67 Vgl. dazu u. a. eines der wenigen Interviews, in denen Goetz in eine Metaposition zu sich und
seinem Schreiben tritt in: Mangold und Uslar, Wut ist Energie (Interview mit Rainald Goetz),
S. 54: Fr mich ist das Ich immer auch eine Kunstgur gewesen. Ich habe nie quasi unmittelbar
von mir selbst irgendwas erzhlt. Aber die Leute dachten: immer dieselben echten Typen! Die Leute
wollen sich mit echten Typen nicht als Figuren auseinandersetzen, was fr mich ganz normal ist.
Fr mich bin ich selbst als ffentliche Figur nicht das Ich, das ich bin.
68 Dies gilt nicht fr Daten, die ihre Legitimation und ihren Wert daraus beziehen, konstitutiv fr die
Ebene Nr. 3 zu sein, also dazu dienen, die personale Lebenslage von Individuen zu manifestieren,
wie es z. B. bei Daten von Melderegistern oder Steuerbescheinigungen der Fall ist. Bei dieser Art
von Daten ist im Gegenteil die kontextuelle Integritt in jedem Fall zu wahren.
Rettung der informationellen Selbstbestimmung 219
69 Diese Existenzformen wren demzufolge posthuman, vgl. Hayles, How We Became Posthuman,
S. 2f.
70 Dies trgt der Polyvalenz der Existenzformen Rechnung, soll aber nicht suggerieren, diese Daseins-
weise sei lediglich auf das Internet begrenzt. Vielmehr soll das Modell auf alle vernetzten Kom-
munikationssysteme bertragbar sein, mit denen distinkte Akteure identizierbar gemacht werden
knnen.
71 Hier wird erneut auf die Unterscheidung von (subjektiver) Lebenswelt, Lebenslage und persona-
ler Lebenslage verwiesen: Streng genommen sind auch die funktionalen Anschlsse des Polynets
natrlich Teile der Lebenswelt und auch Teile der Lebenslage, sie htten jedoch keine universel-
le funktionale Anschlussfhigkeit, die sie als Bestandteile der personalen Lebenslage qualizieren
wrden.
72 Dies bedeutet keineswegs, dass die Daten aller Kontexte beliebig in alle anderen Kontexte des
Mononets bertragen werden drfen dies wre immer noch eine unerwnschte Verletzung kon-
textueller Integritt.
73 Ich danke Johannes Noack, der mich auf problematische Aspekte des Modells hingewiesen hat.
Rettung der informationellen Selbstbestimmung 221
msste der Transit, auch wenn der Akteur nur ein technisches Gert benutzt, so
verlaufen, dass keine Referentialitt zwischen diesen Handlungen hergestellt wer-
den kann (Double-Blind-Modell). Der bergang msste ber eine blinde Tr als
Zwischeninstanz funktionieren: Beim Ausgang aus dem Mononet wird der Identitt
des Akteurs eine arbitrre (aber singulre) Kennung zugewiesen, die dem Eintritt in
die blinde Tr dient. Beim Ausgang wird dieser Kennung eine zweite, ebenso
arbitrre und singulre Kennung zugeordnet, mit welcher der Zugang zum Polynet
gewhrt wird, von wo aus der Akteur weiter anonym oder pseudonym handeln kann.
Der Abgleich von Eingangsidentitt und Ausgangsidentitt darf nur erfolgen in
schwerwiegenden sanktionierbaren Fllen zur Strafverfolgung.74
Das Verstndnis des Modells und vor allem der sich in ihm manifestierenden
ethischen Werte msste weit verbreitet und konsensfhig sein. Vor allem die Verlet-
zung kontextueller Integritt mit der Konsequenz einer verminderten iSB msste als
schwerwiegender Eingriff in die Autonomie von Subjekten verstndlich gemacht
und von einer breiten Mehrheit aller Akteure von Mediengesellschaften internali-
siert werden. Die Vermittlung msste bereits im Kindesalter erfolgen und eng an
die Konzepte der Medienkompetenz und Ethik gebunden werden. Dies wre ohne
Zweifel ein langwieriger Prozess.75
Aus rechtlicher Sicht mssten international ratizierte und durchgesetzte Normen
aufgestellt werden, die nicht nur die Verletzung kontextueller Integritt zwischen
Mononet und Polynet, sondern auch jeweils innerhalb dieser Makrokontexte selbst
regeln. Voraussetzung wre ein juristischer Ansatz fr den effektiven Schutz vir-
tueller, im Polynet angesiedelter Daten und Identitten76 durch entsprechende
technische und organisatorische Anforderungen und Vorschriften. Die Verletzungen
kontextueller Integritt mssten nicht nur strafrechtlich international sanktionierbar
sein, sondern auch die Sanktionen selbst so drastisch ausfallen, dass sie keine
Chance htten, als Kavaliersdelikt angesehen zu werden, sondern eher den Status
schwerer Krperverletzung htten. Die Durchsetzung des rechtlichen Schutzes
msste von einer sich demokratisch verwaltenden internationalen Organisation
74 Ob der Transit ber zwei Identittsprole des technischen Gerts oder gar ber zwei SIM-Karten
o. . erfolgen sollte, wre eine Fragestellung fr entsprechende Experten.
75 Mgliche Analogien wren die Durchsetzung der Idee der Gleichstellung von Mann und Frau, die
nicht nur ber 100 Jahre in Anspruch nahm, sondern auf philosophischen und rechtlichen Feldern
ausgetragen wurde und in der gesellschaftlichen Praxis noch lange nicht befriedigend umgesetzt
ist. Eine weitere Analogie wre die Bio-Bewegung, deren Vorreiter Normen mit auch ethischen
Implikationen entwickelten. Aus diesen Prozessen heraus bildeten sich Verbnde, die die Einhal-
tung dieser Normen kontrollieren, bis schlielich Teile der Normen auch rechtliche Formen fanden
(z. B. die EG-ko-Basisverordnung Nr. 834/2007) und die ethischen Implikationen ber Jahrzehnte
hinweg in der gesellschaftlichen Mitte Akzeptanz entwickelten.
76 Auch im Polynet wrden Kontexte mit unterschiedlichen funktionalen Anschlussfhigkeiten ope-
rieren. Die jeweiligen Normen wren auch hier zu schtzen.
222 Innokentij Kreknin
77 Dies ist auch eine Bedingung dafr, dass sich demokratische Systeme legitimieren, vgl. Oshana,
How much should we value autonomy?, S. 107.
Rettung der informationellen Selbstbestimmung 223
Literatur
Arnold, Heinz Ludwig, Hrsg. Rainald Goetz. Text + Kritik 190. Mnchen: edition
text + kritik, 2011.
Boellstorff, Tom. Coming of Age in Second Life: An Anthropologist Explores the
Virtual Human. Princeton: Princeton University Press, 2008.
Bunia, Remigius. Fingierte Kunst: Der Fall Esra und die Schranken der Kunst-
freiheit. In: Internationales Archiv fr Sozialgeschichte der deutschen Literatur
32.2 (2007), S. 161182.
Butler, Judith. Psyche der Macht Das Subjekt der Unterwerfung. Frankfurt am
Main: Suhrkamp, 2001.
Caluya, Gilbert. The post-panoptic society? Reassessing Foucault in surveillance
studies. In: Social Identities 16.5 (2010), S. 621633. DOI: 10.1080/13504630.
2010.509565.
Christman, John. Relational Autonomy, Liberal Individualism, and the Social
Construction of Selves. In: Philosophical Studies 117.1-2 (2004), S. 143164.
Citron, Danielle Keats und Mary Anne Franks. Criminalizing Revenge Porn. In:
Wake Forest Law Review 49 (2014), S. 345391. URL: http://ssrn.com/abstract=
2368946 (besucht am 21. 05. 2016).
Eakin, Paul John. Autobiography as Cosmogram. In: StoryWorlds: A Journal of
Narrative Studies 6.1 (2014), S. 2143.
Eichner, Christian und York-Gothart Mix. Ein Fehlurteil als Mastab? Zu Maxim
Billers Esra, Klaus Manns Mephisto und dem Problem der Kunstfreiheit in der
Bundesrepublik Deutschland. In: Internationales Archiv fr Sozialgeschichte
der deutschen Literatur 32.2 (2007), S. 183227.
Foucault, Michel. Der Wille zum Wissen. Frankfurt am Main: Suhrkamp, 1983.
Die sthetik der Existenz. Frankfurt am Main: Suhrkamp, 2007.
Hermeneutik des Subjekts. Frankfurt am Main: Suhrkamp, 2009.
berwachen und Strafen: Die Geburt des Gefngnisses. Frankfurt am Main:
Suhrkamp, 2013.
Was ist ein Autor? (Vortrag). In: Schriften zur Literatur. Frankfurt am Main:
Suhrkamp, 2003, S. 234270.
Goetz, Rainald. Rave. Frankfurt am Main: Suhrkamp, 1998.
Hayles, Katherine. How We Became Posthuman: Virtual Bodies in Cybernetics,
Literature, and Informatics. Chicago und London: University of Chicago Press,
1998.
Helm, Paula. Die utopischen Sicherheitszwnge Schtiger und das Wagnis der
Anonymitt. In: Paragrana 25.1 (2015), S. 5869.
224 Innokentij Kreknin
1. Einleitung
Der Datenschutz hat angesichts von Big Data und Internet einen schweren Stand.
Websites verfolgen ihre Nutzer, Werbung passt sich den Empfngern an, soziale
Netze erkennen Gesichter in Fotos und Spielzeugpuppen schicken aufgezeichne-
te Gesprche zur Verarbeitung an einen Dienst im Internet.1 Langatmige Daten-
schutzerklrungen und pauschale Einwilligungen sollen rechtliche Anforderungen
erfllen, schaffen tatschlich aber wenig Transparenz und Kontrolle, sondern ber-
schwemmen die Betroffenen mit einer solchen Menge an Text, dass eher das
Gegenteil totale Intransparenz erreicht wird. Unterdessen werden Datenschutz-
beauftragte und -aktivisten nicht mde, uns alle vor den Gefahren der sorglosen
Internetnutzung zu warnen. Einerseits trgt fast jeder ein Smartphone in der Tasche,
das die Cloud ber sein Leben auf dem Laufenden hlt, andererseits besttigen
wir artig jeder Website, dass wir wissen, dass sie Cookies einsetzt. Ist Datenschutz
ein Relikt der Vergangenheit, eine Sammlung sinnentleerter Gesten?
In den 1970er und 1980er Jahren entstanden die bis heute geltenden Grundzge
des deutschen Datenschutzrechts. Damals waren Computer kaum mehr als automa-
tisierte Karteischrnke. Aus dieser Zeit und ihrer Technik stammt die Idee, jeder
Person ein Verfgungsrecht ber die sie betreffenden Daten zu gewhren und dieses
Recht durch spezische Entscheidungs- und Eingriffsbefugnisse der Betroffenen
zu garantieren. Dazu diente eine Transaktionsschnittstelle zwischen Betroffenen
und Verarbeitern: Daten sollen mglichst bei Betroffenen selbst erhoben werden;
unabhngig von der Art der Erhebung ist in der Regel sofern keine gesetzliche
* Sven Trpe, Andreas Poller | Fraunhofer-Institut fr Sichere Informationstechnologie SIT |
{sven.tuerpe; andreas.poller}@sit.fraunhofer.de
Jrgen Geuter | Unabhngiger politischer Informatiker | jg@juergengeuter.com
1 Barthlmy und Wilkens, Reden und lauschen.
Diese Aspekte zeigen sich deutlich in einschlgigen Gesetzen wie dem BDSG.
lange Entwicklung der Verwaltung seit der Antike fortsetzt.7 Daten zu verarbeiten
bedeutete in erster Linie, sie nach verschiedenen Kriterien zu ordnen und sie anhand
dieser Kriterien spter abzurufen.
Steinmller et al.8 gingen von einem generischen Prozess der Informationsverar-
beitung aus, der Vorgnge wie die Ermittlung, Erfassung, Speicherung, Vernderung,
Ausgabe, Weitergabe und Lschung umfasste und damit den Verarbeitungsbegriff
des BDSG vorwegnahm. Die Mglichkeiten und Risiken der eigentlichen Verar-
beitung gespeicherter Daten durch Programme wurden zwar betrachtet und sie
waren angesichts etwa der frh eingesetzten Rasterfahndung nicht zu bersehen. So
betonten sowohl Ware als auch Steinmller et al. neben dem einfacher werdenden
Informationszugang auch die menschliches Vermgen bersteigende Verarbeitungs-
kapazitt des Computers als Gefahrenquelle. Jedoch erschien die weitergehende
Verarbeitung als eine bloe Folge der Erfassung und Speicherung von Daten.
Fr nicht in einer Datenbank enthaltene Datenstze entelen auch die daran ge-
knpften Vorgnge. Erhoben wurden Daten oft durch das Ausfllen von Formularen.
Vernetzung bedeutete Fernzugriff auf die Daten anderer Organisationen. Insgesamt
erschienen Computer noch vorwiegend als digitale Karteischrnke, betrieben von
Organisationen zur Untersttzung ihrer jeweiligen Aufgaben. Datentransaktionen
waren oft eingebettet in transaktionale Alltagsvorgnge wie etwa eine Katalogbe-
stellung bei einem Versandhaus.
sind Eingriffe eines Betroffenen praktikabel, selbst wenn ein verantwortlicher Be-
treiber als einziger Ansprechpartner fungiert. Welche informierten Entscheidungen
sollten Betroffene auf dieser Grundlage treffen? Welche wirksamen Schranken sind
der Datenverarbeitung noch auferlegt?
Vernetzte Dienste: PayPal ist kein Ausnahmefall, berall im Web nden sich
hnliche Verhltnisse. Abb. 1 illustriert dies anhand einer Browsersitzung, in der
einige Websites besucht wurden. Kreise stellen die besuchten Sites dar, Dreiecke
die zustzlich im Hintergrund aufgerufenen Adressen. Jeder Dienst in diesem Netz
erhlt Daten ber den Nutzer, oft auch ber mehrere besuchte Websites hinweg.
Damit verbunden ist die Mglichkeit zum Nutzer-Tracking11 mittels Cookies oder
Browser-Fingerprinting.12 Auch hier leisten frmliche Datenschutzerklrungen
und erst recht die allseits bekannten Cookie-Banner wenig fr die informa-
tionelle Selbstbestimmung. Browsererweiterungen wie der PrivacyBadger13 der
EFF versprechen zu einem gewissen Grad Abhilfe, aber ihr Nutzen ist angesichts
intransparenter Ursache-Wirkung-Beziehungen schwer zu verdeutlichen.
ren Werbetexten fhrten als die von Weien.14 Die betreffende Werbung pries
Background-Checks in Polizeidatenbanken an und war suggestiv formuliert. Das
generische Verfahren, Werbung anhand der eingegebenen Suchbegriffe auszuwh-
len, wird durch die Eingabe eines Namens personalisiert. Ein weiteres Beispiel sind
automatisch generierte Vorschlge zur Vervollstndigung von Sucheingaben, die
bei der Eingabe eines Namens Aussagen ber die betreffende Person suggerieren
knnen.15
3.2. Kollateraldaten16
Explizite Angaben und Inhalte machen nur noch einen Teil der verfgbaren und
verarbeiteten Daten aus. Daneben erzeugt die Informationstechnik vielerlei Daten
als Nebeneffekt ihrer Funktionen, oft ohne besonderen Zweck. Die beim Browser-
Fingerprinting17 und Web-Tracking18 verwendeten Daten fallen beispielsweise
zu einem groen Teil in diese Kategorie: Cookies, Besonderheiten von Protokoll-
ablufen, usw. Explizite Angaben existieren weiter, etwa wenn wir Formulare
ausfllen, Nachrichten posten oder Bilder hochladen. Die explizite bermittlung,
die Datenerhebung ist jedoch wiederum nur noch ein Oberchenphnomen.
Kollateraldaten unterscheiden sich von expliziten Angaben zum einen dadurch,
dass sie fortlaufend oder mit hoher Frequenz entstehen. Zum anderen haben sie
fr sich genommen oft keine erkennbare Bedeutung fr diejenigen, die von der
Verarbeitung dieser Daten betroffen sein knnen, whrend sie gleichwohl fr andere
interessant und ntzlich sein knnen. Jeder Faktor fr sich und erst recht die
Kombination erschweren die Steuerung durch Datentransaktionen.
16 Wir meinen damit Daten, die aus Nutzersicht nebenbei und im Hintergrund anfallen. Zum Teil (z. B.
Cebulla, Umgang mit Kollateraldaten) wird die Bezeichnung Kollateraldaten auch fr Daten von
Dritten gebraucht.
17 Eckersley, How Unique Is Your Web Browser?
18 Roesner, Kohno und Wetherall, Detecting and Defending Against Third-Party Tracking on the
Web; Acar u. a., The Web Never Forgets.
19 Besonderheiten des maschinellen Lernens fasst dieser Artikel gut zusammen: Domingos, A few
useful things to know about machine learning.
236 Sven Trpe, Jrgen Geuter und Andreas Poller
4. Die Emissionsmetapher
Wollen wir Privatheit und Selbstbestimmung weiter schtzen, so mssen wir die
vernderten Bedingungen beachten und Mittel suchen, die unter diesen Bedingun-
gen wirksam sind. Als ersten Schritt fassen wir die Verhltnisse in der Metapher
der fortlaufenden Datenemission zusammen:
Jeder Einzelne sendet hnlich einer Lichtquelle Daten aus, fortlaufend und in
alle Richtungen. ber emittierte Daten hat der Sender keine Kontrolle mehr.
2. Die Idee eines strukturierten Raums, in dem sich Lichtwellen fortpanzen und
von Objekten und Medien beeinusst werden.
Die spezischen Naturgesetze der Optik lassen sich natrlich nicht einfach auf
Daten im Internet bertragen, dafr sind die Unterschiede zwischen dem physikali-
schen Raum einerseits und dem Cyberspace andererseits zu gro.
3. Jeder Empfnger erhlt Daten von einem Nutzerkollektiv. Welche das sind und
in welcher Form, hngt von seiner Position und den umgebenden Strukturen ab.
Zur weiteren Verarbeitung setzen Datenempfnger verschiedene Instrumente ein,
welche die eintreffenden Daten fr ihre Zwecke aufbereiten. Welche Bedeutung
Daten bekommen, hngt nicht zuletzt von diesen Instrumenten ab.
Emission statt Transaktion 241
Diesen Grundzgen mag man weitere bertragungen hinzufgen, etwa der Un-
terscheidung zwischen dem sichtbaren und dem nicht sichtbaren Spektrum, der
Idee unterschiedlich hoher Energie und damit Reichweite oder auch der Vorstel-
lung einer knstlichen Beleuchtung mit dem Ziel, auswertbare Datenemissionen
hervorzurufen.
26 Schermer, The limits of privacy in automated proling and data mining; Hildebrandt und Gut-
wirth, Proling the European Citizen.
Emission statt Transaktion 243
5. Ausblick
Wie lassen sich die Ziele des Datenschutzes verwirklichen, wenn fortlaufend Daten
entstehen und von einem groen Empfngerkreis mit vielfltigen, komplizierten
Instrumenten genutzt werden? Wir zeigen abschlieend einige Tendenzen auf.
Bereits jetzt richten sich die Vorgaben des Datenschutzes an die verarbeitenden Stel-
len. Mit Ausnahme spezischer Regelungen zum Scoring sind sie jedoch fokussiert
auf die Datenspeicherung als Kern der Verarbeitung. Instrumente wie Data Mining
und maschinelles Lernen werfen neue Fragen auf und erfordern eigenstndige Vor-
gaben, deren Entwicklung auf langjhrige Arbeiten zum Proling30 und Scoring31
aufbauen kann. Wie lassen sich Inferenzen und die zugrundeliegenden Modelle
verstndlich machen, sei es fr Betroffene selbst oder fr Auditoren? Wie kann
man Wahrscheinlichkeitsaussagen prfen und wie wird algorithmische Diskrimi-
nierung nachweisbar? Welche Risiken sind berhaupt typisch? Die Antworten auf
solche Fragen werden hug von der betrachteten Anwendung abhngen. Welche
Taxonomie erfasst die wesentlichen Aspekte?
33 Pallas u. a., Ofinetags, die Website http://www.ofinetags.net/ erklrt die verschiedenen Tags
und bietet ein Programm zum Download an, das die Funktionsweise demonstriert.
34 http://donottrack.us/
246 Sven Trpe, Jrgen Geuter und Andreas Poller
6. Fazit
Herkmmliche Regeln und Techniken des Datenschutzes sind an ihre Grenzen
gestoen. Sie stammen aus einer Welt isolierter Datenbanken mit berschaubarem
Inhalt und naheliegender Dateninterpretation. Auf die heutige Welt vielfltig ver-
netzter Anwendungen, fortwhrender Datenproduktion und lernender Maschinen
angewandt, fhren die alten Rezepte nicht zum Erfolg. Entweder passen sie ber-
haupt nicht, oder sie fhren nur zur formalen Regeleinhaltung ohne den eigentlich
beabsichtigten Schutzeffekt. Als einen Schritt auf dem Weg zu wirksameren Mitteln
haben wir die Metapher der Datenemission eingefhrt, die wesentliche Aspek-
te der heutigen Informationstechnologie reprsentiert. Vor diesem Hintergrund
rcken wieder die Ziele hinter dem Datenschutz in den Fokus: die Rechte und die
Autonomie des Einzelnen zu schtzen. Dafr brauchen wir neue Werkzeuge.
Literatur
Acar, Gunes u. a. The Web Never Forgets: Persistent Tracking Mechanisms in
the Wild. In: Proceedings of the 2014 ACM SIGSAC Conference on Computer
and Communications Security, Scottsdale, Arizona, USA. New York: ACM Press,
2014, S. 674689. DOI: 10.1145/2660267.2660347.
Bager, Jo. Rotlicht-Gerchte: Bettina Wulff verklagt Google. In: Heise online
(8. Sep. 2012). URL: http : / / www. heise . de / newsticker / meldung / Rotlicht -
Geruechte - Bettina - Wulff - verklagt - Google - 1703200 . html (besucht am
08. 09. 2016).
Barthlmy, Andrea und Andreas Wilkens. Reden und lauschen: Interaktive Barbie
kommt in US-Lden. In: Heise online (9. Nov. 2015). URL: http://www.heise.
de/newsticker/meldung/Reden-und-lauschen-Interaktive-Barbie-kommt-in-
US-Laeden-2911626.html (besucht am 08. 09. 2016).
Breiman, Leo. Statistical modeling: The two cultures (with comments and a
rejoinder by the author). In: Statistical Science 16.3 (2001), S. 199231. DOI:
10.1214/ss/1009213726.
Cebulla, Manuel. Umgang mit Kollateraldaten. In: ZD Zeitschrift fr Daten-
schutz 5.11 (Nov. 2015), S. 507512.
Domingos, Pedro. A few useful things to know about machine learning. In:
Communication of the ACM 55.10 (Okt. 2012), S. 7887. DOI: 10.1145/2347736.
2347755.
Eckersley, Peter. How Unique Is Your Web Browser? English. In: Privacy En-
hancing Technologies. Hrsg. von Mikhail J. Atallah und Nicholas J. Hopper.
Emission statt Transaktion 247
Bd. 6205. Lecture Notes in Computer Science. Berlin und Heidelberg: Springer,
2010, S. 118. DOI: 10.1007/978-3-642-14527-8_1.
Hildebrandt, Mireille und Serge Gutwirth, Hrsg. Proling the European Citizen:
Cross-Disciplinary Perspectives. Dordrecht: Springer, 2008. DOI: 10.1007/978-
1-4020-6914-7.
Kamp, Meike und Thilo Weichert. Scoringsysteme zur Beurteilung der Kredit-
wrdigkeit - Chancen und Risiken fr Verbraucher. Gutachten im Auftrag des
BMVEL. Kiel: Unabhngiges Landeszentrum fr Datenschutz Schleswig-Hol-
stein, Feb. 2006. URL: https://www.datenschutzzentrum.de/scoring/.
Lakoff, G. und M. Johnson. Metaphors we live by. Chicago: University of Chicago
Press, 1996.
Pallas, Frank u. a. Ofinetags: A Novel Privacy Approach to Online Photo Sha-
ring. In: CHI14 Conference on Human Factors in Computing Systems Toronto,
ON, Canada April 26 - May 01, 2014, Extended Abstracts. New York: ACM
Press, 2014, S. 21792184. DOI: 10.1145/2559206.2581195.
Pedrotti, Frank L. u. a. Optik fr Ingenieure: Grundlagen. 4. Au. Berlin und
Heidelberg: Springer, 2007.
Pohle, Jrg. PERSONAL DATA NOT FOUND: Personenbezogene Entscheidun-
gen als berfllige Neuausrichtung im Datenschutz. In: Datenschutz Nachrich-
ten 39.1 (2016), S. 1419.
Poller, Andreas u. a. Electronic Identity Cards for User Authentication Promise
and Practice. In: IEEE Security and Privacy Magazine 10.1 (Jan. 2012), S. 46
54. DOI: 10.1109/MSP.2011.148.
Roesner, Franziska, Tadayoshi Kohno und David Wetherall. Detecting and Defen-
ding Against Third-Party Tracking on the Web. In: NSDI12 Proceedings of
the 9th USENIX conference on Networked Systems Design and Implementation.
Hrsg. von Steven Gribble und Dina Katabi. Berkeley: USENIX Association, Apr.
2012, S. 12. URL: https://www.usenix.org/conference/nsdi12/detecting-and-
defending-against-third-party-tracking-web.
Rost, Martin und Kirsten Bock. Privacy by Design und die neuen Schutzziele. In:
Datenschutz und Datensicherheit (DuD) 35.1 (2011), S. 3035. DOI: 10.1007/
s11623-011-0009-y.
Schermer, Bart W. The limits of privacy in automated proling and data mining.
In: Computer Law and Security Review 27.1 (2011), S. 4552. DOI: 10.1016/j.
clsr.2010.11.009.
Steidle, Roland und Ulrich Pordesch. Im Netz von Google Web-Tracking und
Datenschutz. In: Datenschutz und Datensicherheit (DuD) 32.5 (2008), S. 324
329. DOI: 10.1007/s11623-008-0078-8.
Steinmller, Wilhelm u. a. Grundfragen des Datenschutzes - Gutachten im Auftrag
des Bundesinnenministeriums. Bundestagsdrucksache VI/2826. 1971.
248 Sven Trpe, Jrgen Geuter und Andreas Poller
Die praktische Umsetzung des Wunsches vieler Anwender auf tatschliche Gewhr-
leistung ihres Grundrechts auf informationelle Selbstbestimmung setzt den Respekt
der Hersteller von Soft- und Hardware vor diesem Anwenderwunsch voraus. Diese
Voraussetzung ist heute oft nicht mehr gegeben, folgt doch die Entwicklung ein-
zelner Anwendungen und ganzer Infrastrukturen den konomischen Interessen der
Hersteller so weitgehend, dass der glserne Kunde Normalfall und informationelle
Selbstbestimmung praktisch unmglich geworden ist.
Dieser Beitrag zeigt in einer Analyse heutiger informationeller kosysteme, wie
dem Benutzer systematisch die Hoheit ber seine Daten genommen und ihm die
Wahrnehmung seines Rechts auf informationelle Selbstbestimmung verweigert
wird. Besonders auffllig ist dieses Phnomen bei sozialen Netzen, Cloud-Diensten
und mobilen Endgerten. Dazu analysiert der Beitrag zunchst die Problemsituation
(Abschnitt 1). Lsungsanstze knnen durch eine Rckbesinnung des Benutzers
auf seine Rechte im Sinne einer digitalen Aufklrung gesucht werden (Abschnitt 2),
doch bleibt zu befrchten, dass diese berlegung nicht ausreicht. Grundstzlich
besteht in vielen Branchen ein gut ausgeprgter Verbraucherschutz mit einer hohen
Vielfalt regulatorischer Eingriffe (Abschnitt 3). Es wre zu berlegen, in welchen
Formen diese auf den digitalen Bereich bertragen werden knnen (Abschnitt 4).
Allgemeinere berlegungen zu Transparenz und Neutralitt von Anwendungen
(Abschnitt 5) ergnzen die Anregungen. Schlielich werden einige mgliche Ge-
genpositionen der hier eingebrachten Vorschlge besprochen (Abschnitt 6).
Das Ziel ist dabei nicht, konkrete Realisierungsvorschlge zu unterbreiten, son-
dern die Bandbreite denkbarer Eingriffe aufzuzeigen, Problembewusstsein zu schaf-
fen und den Vergleich zu anderen Wirtschaftsbereichen zu suchen. Dabei soll eine
Ausweitung der Diskussion speziell im Bereich von Manahmen angestrebt werden.
1. Problemsituation
Im ersten Abschnitt soll anhand bewusst zugespitzter Beispiele die Situation digita-
ler Produkte illustriert werden.
Die Hersteller der Hardware von Smartphones bestimmen weitgehend, welche
Software und Dienste auf den Gerten verfgbar sind. Fr den Normalanwender
gibt es anders als auf dem PC keine Mglichkeit, alternative Betriebssysteme zu
verwenden. Updates werden vom Hersteller vorgegeben. Ist ein Anwender mit der
neueren Version einer Software nicht zufrieden, wird ihm der prinzipiell mgliche
Weg in frhere Versionen vom Hersteller durch technische Sperren blockiert.
Bei Phones und Tablets der Firma Apple beispielsweise kann der Normal-
anwender Programme nur nach grundstzlicher Genehmigung durch Apple und
ber dessen Infrastruktur installieren. Die Genehmigung wird nur erteilt, wenn
die Produkte den Hersteller nicht konkurrenzieren und mit seinem Weltbild und
seinen Moralvorstellungen bereinstimmen: Wiederholt1 wurden Anwendungen
mit Hinweis auf (legale) erotische, satirische oder gesellschaftskritische Inhalte
von Apple zurckgewiesen. Bereits die Erwhnung von Konkurrenzprodukten kann
zu einer Ablehnung fhren. Als Begrndung wird gerne Apple-Grnder Steve
Jobs zitiert: We do believe we have a moral responsibility to keep porn off the
iPhone. Folks who want porn can buy an Android phone2 . Digitale Formate auf
diversen Formfaktoren (Smartphone, Tablet, eReader, Smart Glasses uva.) werden
voraussichtlich in vielen Anwendungsbereichen aus konomischen Grnden der
einzige Zugang zu vielen Inhalten werden. Angesichts der Dominanz einiger we-
niger privatwirtschaftlicher Hersteller im Gertemarkt, zudem aus einem einzigen
globalen Kulturkreis, weckt der Ansatz einer chendeckenden Inhaltskontrolle
groe Bedenken.
Die Genehmigung der Installation von Programmen Dritter lsst sich Apple teuer
bezahlen, indem es 30 Prozent des Verkaufserlses einbehlt. Diese Freigabegebhr
kann konomisch schwer als Bezahlung einer erfolgten Leistung gelten, wenn
man sie mit sonst blichen Lizenzgebhren fr Laufzeitumgebungen vergleicht.
Der Beobachter knnte sich an mittelalterliche Wegelagerei erinnert fhlen. Eine
juristische und wirtschaftspolitische Analyse, inwieweit hier neue Architekturen
den systematischen Missbrauch einer marktbeherrschenden Stellung ermglichen,
ist erforderlich.
Eine anonyme oder pseudonyme Nutzung von Smartphones ist unmglich bzw.
wird durch die Hersteller massiv erschwert. Klarnamen und Kreditkartennummern
oder Mailadressen beim Hersteller-eigenen Mail-Dienst werden bentigt, selbst
wenn auf kostenlose Dienste zugegriffen wird. Dadurch knnen Zugriffe auf Inhalte
1 https://en.wikipedia.org/wiki/Censorship_by_Apple (besucht am 13.10.2016)
2 http://www.theguardian.com/technology/2010/may/10/ipad-apple (besucht am 13.10.2016)
Verpichtung der Hersteller 251
2. Digitale Aufklrung
Angesichts dieser Entmndigung des Nutzers digitaler Technologien kann man sich
der Gedanken Kants erinnern und eine neue, eine digitale Aufklrung fordern. Diese
kann zwei Wege gehen: Der technikafne Text von Urchs und Cole3 etwa meint,
dass uns das Netz klger macht und Missstnde verhindert, whrend Ranga Yo-
geshwar4 als Folge der Bequemlichkeit des Nutzers eine vollstndig selbstgewhlte
Entmndigung befrchtet.
Wir knnten Kant5 folgen und proklamieren:
Digitale Aufklrung ist der Ausgang des Menschen aus seiner selbst
verschuldeten Unmndigkeit. Unmndigkeit ist das Unvermgen, sich
seiner Daten und digitalen Endgerte ohne Leitung, Bevormundung
und berwachung eines anderen zu bedienen. Selbstverschuldet ist
diese Unmndigkeit, wenn die Ursache derselben nicht am Mangel
technischer Mglichkeiten sondern der Entschlieung und des Mutes
liegt, sich seiner ohne Leitung, Bevormundung und berwachung
eines anderen zu bedienen.
Der Leitspruch einer digitalen Aufklrung knnte daher lauten: Habe Mut, die
eigene Hoheit ber Deine Daten zurck zu gewinnen!
Kann Kant aber in der heutigen digitalen Gesellschaft Respekt hervorrufen
und Handeln verndern? Zu diesen Fragen knnen mehrere Antworten formuliert
werden, die nicht ohne weiteres in ein einziges, gemeinsames, konsistentes Weltbild
mnden; auch die daraus ableitbaren Handlungsanweisungen erscheinen ambivalent,
sollen aber als Optionen angesprochen werden.
Der mndige Brger knnte als aufgeklrter Konsument in seinen tglichen Kauf-
entscheidungen auf Wahrung seines Rechtes auf informationelle Selbstbestimmung
achten und damit auf konomische Weise der regelmigen Verletzung seiner Pri-
vatsphre rasch ein Ende bereiten. Diese Position geht jedoch von der Idealsituation
eines informierten Nutzers aus, der die Konsequenzen seines Handelns kennt und
abschtzen kann. Hier kann hinterfragt werden, inwieweit die Annahme mndiger
Konsumenten mit rationalem Verhalten realistisch ist. Wichtiger ist aber noch die
Beobachtung, dass selbst den Fachleuten die Problemzonen nicht gengend klar
sind whrend sich die technische Infrastruktur parallel dazu weiterentwickelt.
Der Ruf nach staatlichen Interventionen ist daher zumindest dort gerechtfertigt,
wo zunchst dem Experten und schlielich dem Brger so viel Einsicht in die Archi-
tektur von Systemen gewhrt werden muss, dass er die Chancen zur Wahrnehmung
informationeller Selbstbestimmung berhaupt erst realistisch einschtzen kann.
Dieser Spannbogen kann weiter erstreckt werden bis hin zu einem stark protektio-
nistischen Staat, der den als schwcher angenommenen Brger mit weitergehenden
Reglementierungen und Manahmen schtzen muss und ihn vor Gefahren bewah-
ren sollte, die er nicht einschtzen kann. Wie bei den Bereichen der Regulierung
psychisch aktiver Drogen oder beim Thema der Werbung fr Tabakwaren sind hier
gesellschaftliche Feinjustierungen unterschiedlicher Art denkbar.
Im Folgenden sollen einige Manahmen beschrieben werden, mit denen die
Bevormundung des digitalen Menschen reduziert und seine Privatsphre wieder
hergestellt werden kann. Dabei soll nicht das Loblied der Regulierung gesungen
werden: Es entsprche nicht dem Geist der Aufklrung, in vielen Bereichen ist die
Regulierungsdichte fr eine als frei bezeichnete Gesellschaft bereits bedenklich
hoch und schlielich geht es nicht um die einzelne Manahme. Das Ziel ist zunchst,
zu verdeutlichen, dass der Schutz des Anwenders digitaler Technologien weit hinter
dem zurck hinkt, was in vielen anderen Bereichen als selbstverstndlicher Standard
angesehen wird. Im Vergleich zu anderen Branchen ist im Digitalen die Ausbeutung
des Brgers und seiner Privatsphre weitgehend legalisiert.
3. Verbraucherschutz im Nicht-Digitalen
Um einen Bezugspunkt herzustellen, betrachten wir zuerst Mechanismen, mit denen
die Gesellschaft Verbraucher vor bergriffen und Benachteiligung in nicht-digitalen
Bereichen schtzt.
Im Bereich der KFZ-Technologie sind vielfltige Regulierungen anerkannt. So
gibt es die Umweltplakette und Umweltzone. Wie der Abgas-Skandal 2015-16
deutlich macht, reichen diese Manahmen nicht: Etliche Hersteller stehen im
Verdacht, ihre Produkte so zu manipulieren, dass sie in der amtlichen Prfsituation
die vorgeschriebenen Standards einhalten, im normalen Betrieb die Grenzwerte aber
massiv berschreiten. Im KFZ-Bereich werden daher massive Verschrfungen der
praktischen Prfbestimmungen diskutiert, auch angesichts einer groen Kreativitt
der Unternehmen bei der Auslegung bestehender Vorschriften.
Bei Lebensmitteln ist die Information des Konsumenten gesetzlich vorgeschrie-
ben, normiert und inhaltlich berwacht. Die E-Nummern chemischer Zusatzstoffe
vermeiden beispielsweise Ungenauigkeiten in der Kennzeichnung. Haushaltschemi-
kalien mssen auf Schadwirkungen aufmerksam machen, Waschmaschinen und
Leuchtkrper auf ihren Energieverbrauch. Finanzprodukte sind in Risikoklassen
eingeteilt und ohne Unterzeichnung ausfhrlicher Dokumentations- und Beratungs-
protokolle kann man keine Versicherung erwerben. Bei etlichen Produkten, etwa
254 Clemens H. Cap
4. Verbraucherschutz im Digitalen
In diesem Abschnitt soll berlegt werden, welche Schutzmanahmen im digitalen
Bereich denkbar sind. Hier geht es nicht um die einzelne Manahme, zudem sind
Analogien bei der Annherung an das Digitale nicht immer sinnvoll. Das Heil wird
nicht in maximaler Regulierung zu nden sein. Das Ziel dieses Abschnitts ist daher,
die Disbalance des Digitalen im Vergleich zum Nicht-Digitalen herauszuarbeiten.
Gleichwohl bleibt das Argument bestehen, dass ein aufgeklrter Brger den digi-
talen Produkten kritischer begegnet und auch ohne maximalen staatlichen Schutz
selber zu einem Handeln ndet, das seinen eigenen Zielen dient.
(PDLO%LOGHU
Abbildung 2.: Warnhinweis mit vorgeschriebenem (oben) und inhaltlich oft zutreffende-
rem Inhalt (Montage unten)
Die Bandbreite einer solchen Wahrheitspicht ist aber noch viel grer und geht
von einem Verbot irrefhrender Werbung ber die Benutzung von Bezeichnungen
mit nicht ganz eindeutiger oder umstrittener Semantik (Bsp.: Flatrate, Netzneutrali-
tt) bis hin zum Wecken falscher Vorstellungen und ist dabei relativ gro. Dieses
soll durch weitere Beispiele noch etwas pointiert und zugespitzt werden.
Studien6 ber Cookie Pricing im Tourismus zeigen, dass Flge, die am selben
Tag in derselben Klasse gebucht wurden, sich deutlich im Preis unterscheiden
knnen, wenn der Anbieter aufgrund bertragener Cookies von einer hheren Zah-
6 Hannak u. a., Measuring Price Discrimination and Steering on E-commerce Web Sites.
256 Clemens H. Cap
lungsbereitschaft des Kunden ausgehen kann7 . Nach einem Bericht im Wall Street
Journal8 werden Nutzern von Endgerten der Firma Apple Reiseoptionen angebo-
ten, die bis zu 30% teurer sind als bei Windows-Nutzern. Die konomische Logik
erscheint nachvollziehbar: Apple Produkte sind in einem hheren Preissegment
angesiedelt, ihre Besitzer gelten als zahlungskrftiger. Die Analogie hinkt aber in
einem wesentlichen Punkt: Whrend im Brick-and-Mortar Geschft der uere
Eindruck des Kunden unvermeidlich ist, besteht diese Notwendigkeit im Digitalen
nicht. Ein wenig zugespitzt kann man formulieren: Ihr Smartphone, das sie fr
teures Geld erworben haben, sagt dem Laden, in dem Sie mit diesem Smartphone
online einkaufen von sich aus und aktiv, dass es ein teures Smartphone ist und der
Laden daher die Preise gerne etwas anheben darf.
Ein Verbot irrefhrender Bezeichnungen knnte auf Texte in den Privacy-Ein-
stellungen von Windows angewendet werden. Dort steht in einer der vielen Ein-
stellungen euphemistisch etwas von Getting to know you und der Knopf, der die
entsprechende Einstellung verndert, trgt die Aufschrift Stop getting to know you.
Es wre die berschrift Spying on you mglich und der Knopf knnte die Aufschrift
Stop spying on me tragen. Die Auseinandersetzungen darber, ob Internet-Provider
einen Tarif als Flatrate bezeichnen drfen oder als Volumentarif bezeichnen mssen,
wenn er nach einem bestimmten bertragungsvolumen die Datenrate stark redu-
ziert, sind noch nicht abgeschlossen. Bei der Bewerbung von Arzneimitteln schreibt
das Heilmittelwerbegesetz Wahrheitspicht vor, irrefhrende Werbung wird mit
Freiheitsstrafe bis zu einem Jahr oder mit Geldstrafe geahndet.
Im Zusammenhang mit Lebensmittel-Skandalen werden ffentlich einsehbare
Tter-Register von Unternehmen diskutiert. Sie erlauben dem Brger, sich vor ber-
griffen zu schtzen, sein Kaufverhalten anzupassen und konomischen Druck gegen
Unternehmen aufzubauen. In den USA bestehen hnliche Register fr Sexualstraf-
taten. Eine Abwgung ist erforderlich, da auch Tter und juristische Personen An-
spruch auf Persnlichkeitsschutz genieen. Eine bertragung eines Tter-Registers
auf den IT-Bereich ist denkbar. Fr Verste gegen Verkehrsregeln in Deutschland
dienen die bekannten Flensburg Punkte der Verwarnung von Mehrfachttern.
Auch hier ist eine analoge bertragung auf Datenschutztatbestnde denkbar.
zierungen und Gtesiegel hinaus, die sich als nicht gengend wirksam erwiesen
haben.
Neben regulativen Manahmen sind auch technische Manahmen denkbar. So
beschreiben Bodden et al.11 am Beispiel von Android Apps Abwehrmglichkeiten
des Benutzers gegen Apps, die auf einer Vernderung der Software der Anwen-
dung oder auf einer Vernderung des Betriebssystems beruhen. Dadurch kann der
Benutzer Sicherheitsgarantien etablieren und berwachen sowie benutzte und ver-
sendete Daten ltern oder verndern. Dieser Ansatz ist sehr interessant, da er am
ehesten geeignet erscheint, Waffengleichheit zwischen Herstellern und Nutzern zu
erzeugen. Er erfordert jedoch eine Hintertren-freie Mitwirkung des Produzenten
von Betriebssystem und Hardware. Eine solche knnte jedoch vom Gesetzgeber
gefordert werden.
6. Diskussion
In diesem Abschnitt sollen ohne Anspruch auf Vollstndigkeit einige kritische
Gegenpositionen beleuchtet werden.
Das Argument ist irrefhrend. Die Manahmen zielen nicht auf die Einschrn-
kung von Diensten, sondern auf ihre Fehlbeschreibung und auf die systematische
Entmndigung des Anwenders durch das Verbergen unerwnschter Eigenschaften
und durch gezielte Falsch- oder Nicht-Information.
Wir wollen dem Entwickler nicht vorschreiben, wie er seine Systeme gestaltet.
Wenn aber beispielsweise eine Funktion als Lschen bezeichnet wird, so hat diese
ein unwiderruiches Entfernen der betroffenen Daten aus dem System zu bewirken
und nicht blo eine Lschmarkierung oder eine Entfernung aus den Suchstrukturen.
Bei einer solchen (fehlerhaften) Umsetzung von Lschen msste der Anwender
bereits bei der Dateneingabe unmissverstndlich darauf hingewiesen werden, dass
er spter keine Mglichkeit mehr zur sicheren Entfernung seiner Daten aus dem
System haben wird.
Es gilt ebenso ein beim Ausstieg aus der Kernenergie benutztes Denkmuster:
Eine durch die vorgeschlagenen Manahmen verteuerte IT-Dienstleistung kann
fr den Anwender immer noch kostengnstiger sein, als das Beheben der langfris-
tigen Schden seiner digitalen Entmndigung und der Ausstieg aus einer Kultur
systematischer Privatsphrenverletzung.
7. Schlussbemerkung
Knnte der Verlust von Privatheit eine gesellschaftliche Vernderung sein, die wir
hinnehmen mssen, weil wir sie ohnehin nicht vermeiden knnen? Diese als zero
privacy bekannte Position geht auf den frheren CEO von Sun Microsystems, Scott
McNealy zurck: You have zero privacy anyway. Get over it.16
Eine interessante Antwort auf diese Position stammt vom Sicherheitsforscher
und Privatheits-Aktivisten Jacob Appelbaum:
Ive heard quite a lot of people that talk about post-privacy, and
they talk about it in terms of feeling like, you know, its too late,
were done for, theres just no possibility for privacy left anymore and
we just have to get used to it. And this is a pretty fascinating thing,
because it seems to me that you never hear a feminist say that were
post-consent because there is rape. And why is that? The reason is
that its bullshit.17
Wir mssen Vernderungen nicht hinnehmen und sind im Sinne der Aufkl-
rung fr Vernderungen mit verantwortlich, da wir sie gestalten und durch unser
Handeln zulassen.
Zugleich mssen wir einrumen, dass das Handeln des aufgeklrten Benutzers
als Kufer von Gerten zwar eine prinzipiell starke Waffe ist, die angesichts eines
Mangels von Alternativen (im Sinne von datenschutzfreundlichen Systemen mit
hnlich hoher Bequemlichkeit) ziemlich stumpf wird.
Literatur
Bodden, Eric u. a. Schutzmanahmen gegen datenschutzunfreundliche
Smartphone-Apps: Technische Mglichkeiten und rechtliche Zulssigkeit
des Selbstdatenschutzes bei Apps. In: Datenschutz und Datensicherheit (DuD)
37.11 (2013), S. 720725.
16 Sprenger, Sun on Privacy: Get Over It.
17 re:publica 2012 Appelbaum & Kleiner Resisting the Surveillance State and its network effects,
https://www.youtube.com/watch?v=Y3h46EbqhPo&t=7m46s (besucht am 13.10.2016)
264 Clemens H. Cap
1. Einleitung
Die Bundesregierung weist in ihrem Strategiepapier Digitale Agenda 20142017
darauf hin, dass es notwendig sei, Big Data-Technologien weiter zu erschlieen,
um die deutsche Wirtschaft durch die Gewinnung neuer Erkenntnisse aus der
Analyse groer Datenbestnde produktiver zu gestalten. Im selben Atemzug wird
vor den Risiken und Gefahren gewarnt, welche diese Technologien begnstigen
knnen.1 Um knftig die mit diesen Technologien verbundenen Potenziale nutzen
zu knnen und die Risiken zu minimieren, wurde Anfang des Jahres 2015 das IT-
Sicherheits-Forschungsrahmenprogramm Selbstbestimmt und sicher in der digitalen
Welt 20152020 vorgestellt, welches (unter anderem) zum Ziel hat, Konzepte zu
entwickeln, welche dafr Sorge tragen sollen, informationelle Selbstbestimmung
auch bei Big Data-Anwendungen gewhrleisten zu knnen.2
In diesem Diskussionsbeitrag soll der Frage nachgegangen werden, wie dies
erreicht werden knnte. Hierzu wird die Entwicklung wichtiger Prinzipien zur
Wahrung der informationellen Selbstbestimmung als Reaktion auf den techno-
logischen Fortschritt skizziert, anschlieend grundlegende Big Data-(bzw. Data
Mining-)Architekturen und die damit einhergehenden Herausforderungen fr mg-
liche datenschutzfreundliche Erweiterungen betrachtet und nachfolgend bereits
* Max-R. Ulbricht | Technische Universitt Berlin | mu@ise.tu-berlin.de
Prof. Dr. habil. Karsten Weber | Ostbayerische Technische Hochschule Regensburg |
Karsten.Weber@oth-regensburg.de
Teile dieses Textes sind (in englischer bersetzung) genutzt worden, um die skizzierte Plattform
im Rahmen eines Workshops auf der IEEE International Conference on Cloud Engineering 2016
vorzustellen (Ulbricht und Pallas, CoMaFeDS).
1 Bundesregierung, Digitale Agenda 2014 2017, S. 4-5.
2 Bundesministerium fr Bildung und Forschung, Selbstbestimmt und sicher in der digitalen Welt,
S. 20.
Es ist aber zu vermuten, dass alle, die fr ein Recht auf Privatsphre pldieren,
dem Zusammenhang von Privatsphre auf der einen und Freiheit bzw. Autonomie
auf der anderen Seite, den Alan F. Westin17 etabliert hat, zustimmen werden. Damit
ist als Minimalbedingung fr Datenschutz und Privatsphre die Zustimmung bei
Eingriffen zu sehen; dies ist Grundlage der Idee des Menschen als autonomes We-
sen. Folgt man einer limitation theory of privacy oder einer control/restriction
access theory of privacy,18 so lassen sich daraus die Prinzipien der Zweckbindung
und auch der Datensparsamkeit ableiten. Entscheidend ist, dass die wichtigsten heu-
te diskutierten (philosophischen) Theorien der Privatsphre davon ausgehen, dass
Personen bei jedem Informationseingriff neu entscheiden, ob sie dem zustimmen
wollen. Es ist jedoch offensichtlich, dass dies der Lebenswelt nicht entsprechen
kann. Zustimmung, Zweckbindung und andere Prinzipien des Schutzes der Privat-
sphre und des Datenschutzes mssen also an gesellschaftliche und nicht zuletzt
technische Vernderungen angepasst werden. Entscheidend bei diesem Wandel
wird sein, ob die grundstzliche Idee dabei erhalten bleiben kann oder am Schluss
eine Haltung steht, wie sie vor mehr als 100 Jahren der New York Court of Appeals
uerte und heute durch die Post-Privacy-Bewegung vertreten wird dass ein Recht
auf Privatsphre aus juristischer Sicht nicht gewhrt werden knne oder aus sozialer
Sicht nachteilig sei. Im Folgenden soll jedoch aufgezeigt werden, dass die Aufga-
be der Privatsphre nicht notwendig ist, um neue Entwicklungen gesellschaftlich
vertrglich nutzen zu knnen.
3.1. Szenario
Man stelle sich ein Institut fr Verkehrsforschung vor, welches vor dem Hintergrund
stdtebaulicher Entwicklung daran interessiert ist, die Sicherheit von Verkehrss-
sen dahingehend zu optimieren, den Stresslevel beteiligter Verkehrsteilnehmer
durch stdtebauliche Manahmen positiv zu beeinussen und damit die Wahr-
scheinlichkeit auftretender Unflle zu vermindern.
Um dieses Vorhaben zu realisieren, wre eine Messung diverser Stressindikatoren
wie Pulsschlge, Hautwiderstand und -feuchtigkeit unter verschiedenen typischen
Situationen bei der Teilnahme am Straenverkehr wnschenswert. So liee sich
beispielsweise ermitteln, inwiefern sich unterschiedliche straenbauliche Gegeben-
heiten wie Kreuzungen mit oder ohne Ampel im Gegensatz zu Kreisverkehren auf
die oben genannten Stressindikatoren von Auto-, Motorrad- oder Fahrradfahrern,
aber auch von Fugngern auswirken. Der Einuss des Wetters als Stressfaktor
sollte, wenn mglich, ausgeschlossen werden knnen.
Um derlei Korrelationen zu nden, wre es in einer kontrollierten wissenschaft-
lichen Studie ntig, Teilnehmer zu rekrutieren, diese mit diversen medizinischen
Messgerten sowie Fahrzeugen auszustatten und anschlieend die Indikatoren fr
Stress whrend der Teilnahme an typischen Straenverkehrssituationen zu messen
und aufzuzeichnen. Anschlieend wrden die erhobenen Daten bezglich der obi-
gen Fragestellungen analysiert, um die erwarteten Korrelationen zu besttigen oder
zu widerlegen. Dieses wissenschaftliche Standardverfahren erzeugt aber aufseiten
des Instituts nicht unerheblichen Aufwand und damit Kosten. Um einen signi-
kanten Teil der Kosten der Datenerhebung zu minimieren, knnte man auf die
Idee kommen, bereits vorhandene Daten, welche eigentlich zu anderen Zwecken
erhoben wurden, zu nutzen.
Informationen ber Verkehrssse lieen sich beispielsweise aus den Daten-
banken von Anbietern von Navigationslsungen beziehen. So bieten u. a. Google
Adieu Einwilligung? 271
21 https://www.google.de/maps/
22 https://mydrive.tomtom.com
23 Swan, Sensor Mania!, The Quantied Self.
24 https://www.netatmo.com/weathermap
25 Whrend die erwhnten Verkehrs- und Wetterdaten ffentlich zugnglich sind, ist dies bei den
skizzierten Krperdaten davon abhngig, welche Plattform bzw. welche Anbieter zur Aggregation
genutzt und welche Einstellungen vorgenommen werden.
272 Max-R. Ulbricht und Karsten Weber
vor der eigentlichen Analyse die gewnschten Datenstze, sodass der eigentliche
Mining-Vorgang dann auf dieser nun breiteren Datenbasis erfolgt.26
Big Data-Analysen, wie jene im oben skizzierten Szenario, versuchen komplexe
Korrelationen innerhalb groer Datenmengen, welche in heterogenen und auto-
nom betriebenen Datenquellen gehalten werden, die wiederum unter verteilter,
dezentraler Kontrolle stehen, zu nden.27 Fr die dazu notwendige Integration der
verschiedenen Datenquellen lassen sich zwei grundlegende Strategien verfolgen,
welche verschiedene Aspekte der oben genannten Eigenschaften Heterogenitt,
Autonomie und Verteiltheit28 bedienen.
Whrend die sogenannte materialisierte Integration, oft auch Data Warehou-
sing genannt, vorhandene Daten aus den zu integrierenden Quellen in eine neue
Datenbank, das Warehouse, transferiert und fr weitere Verarbeitungsprozesse ber
eine einheitliche Schnittstelle zugreifbar macht, belsst eine virtuelle Integration
die Daten bei den ursprnglichen Datenquellen. Dabei sorgt eine Zwischenschicht
(realisiert als Mediator29 oder Fderation30 ), welche das Wissen enthlt, welche
Daten wo lagern und wie darauf zugegriffen werden kann, dafr, dass sich fr Nut-
zer oder Applikationen die kombinierten Datenquellen wie eine einzelne groe
Datenbank abfragen lassen.31
Beide Integrationsstrategien lsen zwar sowohl die Heterogenitt und Verteiltheit
der integrierten Datenquellen fr Analysevorhaben auf, verlangen aber von den
Haltern der ursprnglichen Datenquellen signikant verschiedene Mae an Koope-
ration. Beim Data Warehousing geben die originren Datenhalter die Kontrolle
ber die von ihnen zur Verfgung gestellten Daten komplett ab, da sie nach deren
Transfer knftig keinerlei Einuss auf die weitere Verarbeitung nehmen knnen.
Demgegenber bleibt bei der virtuellen Integration die Autonomie der integrier-
ten Datenquellen erhalten, da hier keine bertragung der Daten stattndet, sondern
lediglich (temporrer) Datenzugang gewhrt wird.
Es lsst sich schlussfolgern, dass fr institutionenbergreifende Analysevorhaben,
wie sie im obigen Szenario skizziert wurden, eine virtuelle Integrationsstrategie
fr alle Beteiligten vorteilhaft wre. Die Daten bleiben zwar vollstndig unter
Kontrolle der datenhaltenden Institutionen, aber es wird gleichzeitig mglich, per
Big Data-Analyseverfahren Korrelationen zwischen diesen autonomen Datenquel-
len zu nden und damit je nach Fragestellung einen gesellschaftlichen und/oder
wirtschaftlichen Mehrwert zu generieren.
nicht einwilligungsfhig war. Analog verhlt es sich bei den anderen skizzierten
Datenquellen.
Wenn also eine fundamentale Eigenschaft von Big Data in der Kombination
und Analyse existierender Datenstze besteht, mssten nach heutigem juristischen
Verstndnis alle Betroffenen, von denen sich Angaben in diesen Datenstzen nden,
um ihre Einwilligung zur (Weiter-)Verarbeitung zu einem neu zu spezizierenden
Zweck ersucht werden. Alternativ mssten bei der Ersterhebung alle knftig
denkbaren Verarbeitungszwecke durch die gegebene Einwilligung abgedeckt wer-
den. Beide Anstze sind mit heutigen Mitteln kaum realisierbar. Daher bedarf es in
Bezug auf Einwilligung und Zweckbindung in Big Data-Kontexten sowohl tech-
nischer Lsungen, welche Nutzer dazu ermchtigen ihre Rechte wahrzunehmen,
als auch einer Diskussion darber, inwiefern die juristischen Anforderungen an
Einwilligungen zu spezischen Verarbeitungszwecken heute noch zielfhrend und
vor allem praktikabel umzusetzen sind und welche Alternativen denkbar wren.
4. Lsungsanstze
Fr die angestrebte technische Durchsetzung der Beachtung von Einwilligungen
sowie von Zweck- bzw. Kontextbindung37 ist es erforderlich technische Systeme
derart zu gestalten, dass eine Kontrolle und Steuerung sowohl von Datenssen als
auch von Zugriffen auf einzelne Daten ermglicht wird. Zur technischen Ausgestal-
tung solcher Kontroll- und Steuerungsmechanismen existieren einige Konzepte aus
der Datenbankforschung und verwandten Bereichen.
Diese Lsungskonzepte sind darauf ausgelegt, Einwilligung bzw. Zugriff bezg-
lich einzelner Daten zu regeln. Im Folgenden soll die Untersuchung einer Eignung
dieser Anstze zur Zugriffssteuerung und -kontrolle in Big Data-Kontexten ge-
leistet werden, um zu ergrnden, welche Komponenten fr eine Erweiterung von
Data Mining-Architekturen nutzbar wren. Neben den hier aufgefhrten Konzepten
wurden u. a. auch verschiedene Anstze zum Thema Distributed Usage Control38
betrachtet. Da sich diese aufgrund der Notwendigkeit umfangreicher technischer
und organisatorischer Vernderungen bestehender Systeme und Prozesse als grund-
stzlich ungeeignet fr den angestrebten Nutzungsfall der Integration autonom
betriebener heterogener Datenquellen herausstellten, werden sie im Rahmen dieses
Textes nicht weiter aufgefhrt.
37 Bundesministerium fr Bildung und Forschung, Selbstbestimmt und sicher in der digitalen Welt,
S. 21.
38 Pretschner, Hilty und Basin, Verteilte Nutzungskontrolle, Distributed Usage Control; Lovat
und Pretschner, Data-centric Multi-layer Usage Control Enforcement: A Social Network Exam-
ple.
Adieu Einwilligung? 275
Vorteile Nachteile
+ Technische Umsetzung von Zweck- In der Praxis recht selten genutzt
bindung und Einwilligung (lediglich akademische Prototypen-
+ bei korrekter Implementierung kei- Implementierungen40 )
nerlei Zugriffe von Unbefugten Bei fderierten Datenquellen mss-
mglich te jede einzelne hippokratisch orga-
nisiert sein
Nachtrgliche Umstrukturierungen
erzeugen Aufwand
der Richtlinie der gesamte Datensatz verschlsselt und der zugehrige Schlssel an
eine sogenannte Trusted Authority (TA) bersandt.
In die zugehrige Richtlinie muss die Information aufgenommen werden, wo der
Schlssel zu nden ist.41 Ab diesem Zeitpunkt ist der Datensatz ohne den zuge-
hrigen Schlssel sicher vor unberechtigten Zugriff und ohne diesen nicht mehr
sinnvoll nutzbar. Er kann nun bedenkenlos transferiert werden. Eine Institution,
welche die Daten nutzen mchte, muss mittels der Informationen aus der angehan-
genen Richtlinie bei einer der angegebenen TAs den zugehrigen Schlssel zur
Freigabe der Informationen anfordern. Sie muss sich verpichten, mit den Daten
ausschlielich gem der Spezikation der entsprechenden Richtlinie zu verfahren.
An dieser Stelle ist auch eine weitere berprfung der gegebenen Rahmenbedin-
gungen des Zugriffs (wie die oben skizzierten infrastrukturellen Einschrnkungen)
angedacht, welche sich beispielsweise durch technische Systeme (remote software
verication) oder Audit-Verfahren realisieren lassen. Sind alle vorgegebenen Be-
dingungen erfllt, gibt die TA den zum Datensatz passenden Schlssel frei und die
anfragende Institution kann die gewnschten Daten weiterverarbeiten.42
Vorteile Nachteile
+ direkt an Datenstzen zu ndende Verfahren abhngig von dritter In-
Privatspren-Prferenzen stanz (TA)
+ kein Zugriff ohne Zustimmung der Neben Richtlinienerstellung wei-
TA mglich tere Vorarbeiten (Verschlsselung,
+ alle Zugriffen werden (durch die Transfer der Schlssel zu den TAs,
Anfragen bei den TAs) protokolliert etc.) der datenerhebenden Instituti-
on ntig
sie betreffenden Daten bereits vorliegt, die Mglichkeit geben, die Einwilligung
den Umstnden entsprechend anzupassen. Die krzlich verabschiedete, knftig
EU-weit geltende Datenschutzgrundverordnung43 verlangt beispielsweise in Artikel
7(3), dass eine einmal gegebene Einwilligung jederzeit widerrufen werden knnen
muss, wobei der Widerruf ebenso einfach gestaltet sein sollte wie die Abgabe der
Einwilligung.
Ein Ansatz zur nachtrglichen Anpassung von Einwilligungen zu sich vern-
dernden Datenverarbeitungszwecken, welcher die oben genannten Anforderungen
erfllt, ist das aus der Forschung zu biomedizinischen Forschungsdatenbanken
stammende Konzept der dynamischen Zustimmung.44 Hiermit wird das Problem
adressiert, dass vorhandene medizinische Daten zwar fr verschiedene Forschungs-
projekte nutzbar sein sollten, gleichzeitig aber eine allgemeine Zustimmung
mglichst vermieden werden soll, da diese nur bedingt der gesetzlichen Anforde-
rung der Einwilligung zu einem spezischen Verarbeitungszweck entspricht.
Um einem Individuum, das seine Daten fr die medizinische Forschung frei-
geben mchte oder schon freigegeben hat, eine Mglichkeit zu geben, diese Ein-
willigung dynamisch anzupassen, wird ihm eine personalisierte Schnittstelle zur
Kommunikation mit Forschenden zur Verfgung gestellt. Diese bietet einerseits den
Forschenden die Mglichkeit nach einer Erweiterung/nderung der vormals fr
ein anderes Forschungsprojekt gegebenen Einwilligung zu ersuchen, andererseits
ermchtigt die Schnittstelle aber auch das Individuum dazu, seine gegebene Einwil-
ligung jederzeit zu widerrufen oder entsprechend seiner momentanen Wnsche und
Vorstellungen anzupassen. Der Kommunikationskanal ist dabei frei whlbar und
reicht von Papierbriefen bis zu zahlreichen elektronischen Kommunikationsmedien
wie SMS, E-Mail oder auch Soziale Netzwerke.
Vorteile Nachteile
+ Ermglicht dynamische Anpassung hoher Implementierungsaufwand
von Nutzerprferenzen (auch bezg- Kommunikation erzeugt Zeitauf-
lich neuer unvorhergesehener Verar- wand, daher nur bedingt echtzeit-
beitungszwecke) tauglich
+ Verminderung der Notwendigkeit
von broad consent
5.1. Vorbedingungen
Geht man von den im Szenario angedeuteten Vorbedingungen der dynamischen
Integration unabhngiger heterogener Datenquellen fr Big Data-Analysen aus,
zeichnet sich ab, dass Privatsphren-Prferenzen, insbesondere die Einwilligung zur
Datenverarbeitung zu verschiedenen Zwecken, hnlich wie im Konzept der Sticky
Policies, an oder bei den entsprechen Datenstzen zu nden sein sollten. Mithilfe
dieser Prferenzen hat ein Individuum, dessen Daten erhoben werden, die Mglich-
keit, schon im Voraus genau zu spezizieren, zu welchen verschiedenen Zwecken
und fr welche potenziellen verarbeitenden Institutionen die entsprechenden Daten
freizugeben sind.
Um die Entscheidung darber zu vereinfachen, sollten potenzielle Verarbei-
tungszwecke sowie mgliche verarbeitende Institutionen kategorisiert und zur
Vorauswahl angeboten werden. Dies wrde es erlauben, Einwilligungen der Art
Meine Daten drfen von unabhngigen Forschungsinstituten fr den Zweck demo-
grascher Erhebungen genutzt werden, von staatlichen Institutionen zum Zweck
der Steuerschtzung jedoch nicht abzugeben. Um solche Prferenzen abbilden zu
knnen, mssen diese in ein wohl-deniertes Format transferiert werden, welches
eine przise Spezikation von Kategorien fr Zwecke und Verarbeiter erlaubt und
dabei ermglicht, feingranular beliebig viele Subkategorien ebendieser anzulegen.
280 Max-R. Ulbricht und Karsten Weber
5.2. Architektur
Da das angestrebte System zum Einwilligungsmanagement so exibel und univer-
sell einsetzbar wie mglich sein sollte, wird es als Plattform im weiteren Sinne
bzw. als sogenannte Middleware entworfen, welche es ermglicht, sowohl als ge-
hosteter Webservice in der Cloud betrieben zu werden, aber auch als eigenstndige
Software-Komponente bestehende Datenanalysewerkzeuge zu erweitern. Abbil-
dung 1 zeigt die generelle Architektur eines Data Mining-Systems, welches eine
solche Plattform zum Management von Einwilligung nutzt. Die Plattform ist als
Verbindung zwischen Data Mining-Anwendungen und den von diesen zur Analyse
genutzten Datenquellen konzeptioniert und bietet standardisierte Schnittstellen in
beide Richtungen.
Entscheidet sich eine Institution ihre Datenbank freizugeben, um diese von ei-
ner externen Organisation analysieren und nutzen zu lassen, wird die Datenbank
ber die standardisierten Schnittstellen mit der skizzierten Plattform verbunden.
Whrend dieses Kopplungsvorgangs werden die Beschreibungen der Datenstze
zur internen Struktur der Datenbank sowie die korrespondierenden Privatsphren-
Prferenzen, welche potentielle Datennutzer und mgliche Verarbeitungszwecke
spezizieren,46 zur Plattform transferiert. Die Plattform integriert die bertragenen
Informationen ber Datenbank und -stze in ein fderiertes Schema oder einen
Ontologie-basierten Wissensgraphen, welcher das Wissen ber vorhandene Daten-
stze sowie deren technische Zugangsmglichkeiten enthlt und leicht verarbeitbar
ist, um externen Anfragern dieses interne Wissen zur Verfgung zu stellen.
45 Zu evaluieren wre, ob hierzu einer der vorhandenen Standards fr Privacy Preference Languages
(wie P3P, XPref, APPEL o. ., evtl. mit einer Erweiterung des Sprachumfangs) sinnvoll nutzbar ist
oder eine Neuentwicklung erfolgen muss.
46 Die genannten Spezikationen sind natrlich bei der Datenerhebung vom Individuum, welches
durch die entsprechenden Daten reprsentiert wird, abzufragen und festzulegen.
Adieu Einwilligung? 281
5.3. Diskussion
Als potenzieller Nachteil der hier kurz skizzierten Plattform ist sicherlich anzufh-
ren, dass ein boshafter potenzieller Datennutzer falsche Angaben bezglich seiner
Identitt oder des angestrebten Verarbeitungszwecks prsentieren kann. Um dies zu
verhindern, knnte ein vor der Nutzung der Plattform zu durchlaufender Akkredi-
tierungsprozess etabliert werden, in welchem die gemachten Angaben berprft
werden. Verluft dieser Prozess zufriedenstellend, kann ein elektronisches Zertikat
fr die Nutzung der Plattform erstellt werden. Da solch ein Akkreditierungsprozess
auf allen Seiten Aufwand erzeugt, ist er in dieser ersten Phase der Konzeptionierung
nicht bercksichtigt worden.
6. Fazit
Wie gezeigt wurde, sind Einwilligung und Zweckbindung wichtige Sulen der infor-
mationellen Selbstbestimmung, welche fr die datenschutzkonforme Verarbeitung
personenbezogener Daten unbedingt zu beachten sind. Neuartige Technologien,
deren Entwicklung ohne Bercksichtigung dieser Prinzipien verlaufen ist, tendieren
dazu, die informationelle Selbstbestimmung in erheblichem Mae zu schwchen.
Big Data-Technologien und deren Anwendung besitzen nicht nur das Potenzial,
zustzlichen konomischen und gesellschaftlichen Mehrwert aus bereits vorhan-
denen Daten zu generieren; sie bergen gleichzeitig das Risiko, grundlegende
Prinzipien der informationellen Selbstbestimmung bzw. des Datenschutzes auszuhe-
beln. Die Verknpfung und Analyse bereits existierender Datenquellen sorgt dafr,
dass Anonymisierung bedeutend schwerer zu gewhrleisten ist und lsst es, sobald
personenbezogene Daten involviert sind, welche auf Basis von Einwilligung und
Adieu Einwilligung? 283
Literatur
Agrawal, Rakesh u. a. Hippocratic Databases. In: Proceedings of the 28th Inter-
national Conference on Very Large Data Bases. VLDB 02. Hong Kong, China:
VLDB Endowment, 2002, S. 143154.
Azemovic, Jasmin. Data Privacy in SQL Server based on Hippocratic Database
Principles. Microsoft MVP Award Program Blog. 7. 30 2012. URL: http://blogs.
msdn.com/b/mvpawardprogram/archive/2012/07/30/data- privacy- in- sql-
server-based-on-hippocratic-database-principles.aspx (besucht am 04. 12. 2015).
Barocas, Solon und Helen Nissenbaum. Big Datas End Run Around Procedural
Privacy Protections. In: Communications of the ACM 57.11 (2014), S. 3133.
DOI : 10.1145/2668897.
Bundesministerium fr Bildung und Forschung. Selbstbestimmt und sicher in der
digitalen Welt 2015-2020 Forschungsrahmenprogramm der Bundesregierung
zur IT-Sicherheit. Bonn und Berlin, Jan. 2015. URL: http : / / www. bmbf . de /
pub/Forschungsrahmenprogramm%5C_IT%5C_Sicherheit.pdf (besucht am
14. 09. 2016).
Bundesregierung. Digitale Agenda 2014 2017. Berlin, Aug. 2014. URL: https:
//www.digitale-agenda.de/Webs/DA/DE/Home/home_node.html (besucht am
14. 09. 2016).
Charta der Grundrechte der Europischen Union. In: Amtsblatt der Europischen
Union C 364 (18. Dez. 2000), S. 122. URL: http://www.europarl.europa.eu/
charter/pdf/text_de.pdf.
Chen, Ming-Syan, Jiawei Han und P.S. Yu. Data Mining: An Overview from a Da-
tabase Perspective. In: IEEE Transactions on Knowledge and Data Engineering
8.6 (1996), S. 866883. DOI: 10.1109/69.553155.
Cooley, Thomas. A Treatise on the Law of Torts or the Wrongs Which Arise Inde-
pendent of Contract. Chicago: Callaghan, 1879.
284 Max-R. Ulbricht und Karsten Weber
Doan, AnHai, Alon Halevy und Zachary G. Ives. Principles of Data Integration.
Waltham, MA: Morgan Kaufmann, 2012.
Fayyad, Usama, Gregory Piatetsky-Shapiro und Padhraic Smyth. From Data
Mining to Knowledge Discovery in Databases. In: AI Magazine 17.3 (1996),
S. 3754.
Gerhardt, Rudolf und Erich Steffen. Kleiner Knigge des Presserechts: Wie weit
Journalisten zu weit gehen drfen mit Extrateil Recht im Bild. Berlin: Berliner
Wissenschafts-Verlag, 2009.
Hasselbring, Wilhelm. Information System Integration. In: Communications of
the ACM 43.6 (Juni 2000), S. 3238. DOI: 10.1145/336460.336472.
ISO/IEC 29100:2011 Information technology Security techniques Privacy
framework. Geneva: International Organization for Standardization, 2011.
Kaye, Jane u. a. Dynamic consent: a patient interface for twenty-rst century
research networks. In: European Journal of Human Genetics 23.2 (Feb. 2015),
S. 141146. DOI: 10.1038/ejhg.2014.71.
Laura-Silva, Yasin und Walid Aref. Realizing Privacy-Preserving Features in Hip-
pocratic Databases. Computer Science Technical Reports 06-022. Purdue Uni-
versity, Department of Computer Science, Dez. 2006. URL: http : / / docs . lib.
purdue.edu/cgi/viewcontent.cgi?article=2664&context=cstech (besucht am
16. 09. 2016).
Lessig, Lawrence. Privacy as Property. In: Social Research 69.1 (2002), S. 247
269.
Lovat, Enrico und Alexander Pretschner. Data-centric Multi-layer Usage Control
Enforcement: A Social Network Example. In: Proceedings of the 16th ACM
Symposium on Access Control Models and Technologies. SACMAT 11. New
York, NY, USA: ACM, 2011, S. 151152. DOI: 10.1145/1998441.1998467.
Marx, Gary T. Murky conceptual waters: The public and the private. In: Ethics
and Information Technology 3.3 (Sep. 2001), S. 157169.
Michelfelder, Diane P. The moral value of informational privacy in cyberspace.
In: Ethics and Information Technology 3.2 (Juni 2001), S. 129135.
Mill, John Stuar. On Liberty / ber die Freiheit (1859). Hrsg. von Bernd Grfrath.
bers. von Bruno Lemke. Stuttgart: Reclam, 2009.
Mont, Marco Casassa, Siani Pearson und Pete Bramhall. Towards Accountable
Management of Identity and Privacy: Sticky Policies and Enforceable Tracing
Services. In: 14th International Workshop on Database and Expert Systems
Applications, 2003. Proceedings. Sep. 2003, S. 377382. DOI: 10.1109/DEXA.
2003.1232051.
Montjoye, Yves-Alexandre de u. a. Unique in the Crowd: The privacy bounds of
human mobility. In: Scientic Reports 3 (2013). DOI: 10.1038/srep01376.
Adieu Einwilligung? 285
Moor, James H. Towards a Theory of Privacy in the Information Age. In: ACM
SIGCAS Computers and Society 27.3 (Sep. 1997), S. 2732. DOI: 10 . 1145 /
270858.270866.
Narayanan, Arvind und Vitaly Shmatikov. Robust De-anonymization of Large
Sparse Datasets. In: Proceedings of the IEEE Symposium on Security and
Privacy, Oakland, California, May 18-21, 2008. Los Alamitos: IEEE Computer
Society, 2008, S. 111125. DOI: 10.1109/SP.2008.33.
OECD Guidelines on the Protection of Privacy and Transborder Flows of Personal
Data. Paris: OECD, 1980.
Park, Byung-Hoon und Hillol Kargupta. Distributed Data Mining: Algorithms,
Systems, and Applications. In: The Handbook of Data Mining. Hrsg. von Nong
Ye. Mahwah, N.J.: Lawrence Erlbaum, 2003, S. 341358.
Pearson, Siani und Marco Casassa Mont. Sticky Policies: An Approach for Mana-
ging Privacy across Multiple Parties. In: IEEE Computer 44.9 (2011), S. 60
68.
Ptzmann, Andreas und Marit Khntopp. Anonymity, Unobservability, and Pseud-
onymity A Proposal for Terminology. In: Designing Privacy Enhancing
Technologies. Hrsg. von Hannes Federrath. Lecture Notes in Computer Science
2009. Berlin und Heidelberg: Springer, 2001, S. 19.
Pretschner, Alexander, Manuel Hilty und David Basin. Distributed Usage Control.
In: Communications of the ACM 49.9 (Sep. 2006), S. 3944. DOI: 10.1145/
1151030.1151053.
Verteilte Nutzungskontrolle. In: Digma: Zeitschrift fr Datenrecht und Infor-
mationssicherheit 7.4 (2007), S. 146149.
Sheth, Amit P. und James A. Larson. Federated Database Systems for Managing
Distributed, Heterogeneous, and Autonomous Databases. In: ACM Computing
Surveys 22.3 (Sep. 1990), S. 183236. DOI: 10.1145/96602.96604.
Solove, Daniel J. Privacy Self-Management and the Consent Dilemma. In: Har-
vard Law Review 126 (2012), S. 18801903.
Swan, Melanie. Sensor Mania! The Internet of Things, Wearable Computing,
Objective Metrics, and the Quantied Self 2.0. In: Journal of Sensor and
Actuator Networks 1.3 (Nov. 2012), S. 217253. DOI: 10.3390/jsan1030217.
The Quantied Self: Fundamental Disruption in Big Data Science and Biologi-
cal Discovery. In: Big Data 1.2 (Juni 2013), S. 8599. DOI: 10.1089/big.2012.
0002.
Sweeney, Latanya. Simple Demographics Often Identify People Uniquely. Data
Privacy Working Paper 3. Pittsburgh: Carnegie Mellon University, 2000, S. 134.
URL : http://dataprivacylab.org/projects/identiability/paper1.pdf (besucht am
14. 09. 2016).
286 Max-R. Ulbricht und Karsten Weber
Tavani, Herman T. KDD, data mining, and the challenge for normative privacy. In:
Ethics and Information Technology 1.4 (Dez. 1999), S. 265273. DOI: 10.1023/A:
1010051717305.
Tene, Omer und Jules Polonetsky. Big Data for All: Privacy and User Control in
the Age of Analytics. In: Northwestern Journal of Technology & Intellectual
Property 11.5 (2013), S. 239273.
Thaler, Richard H. und Cass R. Sunstein. Nudge: Improving Decisions about Health,
Wealth, and Happiness. New Haven: Yale University Press, 2008.
Ulbricht, Max-R. und Frank Pallas. CoMaFeDS - Consent Management for Fede-
rated Data Sources. In: Proceedings of the 2016 IEEE International Conference
on Cloud Engineering Workshops. Los Alamitos: IEEE Computer Society, 2016,
S. 106111. DOI: 10.1109/IC2EW.2016.30.
Verordnung (EU) 2016/679 des Europischen Parlaments und des Rates vom
27. April 2016 zum Schutz natrlicher Personen bei der Verarbeitung personen-
bezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie
95/46/EG (Datenschutz-Grundverordnung). In: Amtsblatt der Europischen
Union L 119 (4. Mai 2016), S. 188. URL: http : / / eur- lex . europa . eu / legal -
content/DE/TXT/?uri=OJ:L:2016:119:TOC.
Warren, Samuel D. und Louis D. Brandeis. The Right to Privacy. In: Harvard
Law Review 4.5 (1890), S. 193220.
Westin, Alan F. Privacy and freedom. New York: Atheneum, 1967.
Wiederhold, G. Mediators in the Architecture of Future Information Systems. In:
IEEE Computer 25.3 (Mrz 1992), S. 3849. DOI: 10.1109/2.121508.
Wu, Xindong u. a. Data Mining with Big Data. In: IEEE Transactions on Know-
ledge and Data Engineering 26.1 (Jan. 2014), S. 97107. DOI: 10.1109/TKDE.
2013.109.
Internationalisierung vs. Nationalisierung im
Zeitalter der digitalen Gesellschaft
1. Einfhrung
Internationalisierung und Nationalisierung sind zwei Pole, die die Debatte um die
Zukunft der digitalen Gesellschaft in den letzten Jahren zu bestimmen scheinen.
Auf der einen Seite steht der Verweis auf die Grenzenlosigkeit des Datenverkehrs
und die offene, dezentrale Struktur des Internets. Auf der anderen Seite wird der
globale Datenverkehr jedoch auch von nationalen Strukturen und Prozessen geprgt.
Dieser Beitrag widmet sich den Herausforderungen, die aus der noch immer
bestndig zunehmenden Digitalisierung der Gesellschaft fr das Recht erwachsen
(1.1) und sich zu einer Krise nicht nur des Rechts, sondern auch der Demokratie
verdichtet haben (1.2), sowie aktuellen Lsungsanstzen und will zeigen, wie diese
Lsungsanstze jeweils einem der beiden geschilderten Pole Nationalisierung
(2.1) und Internationalisierung (2.2) zustreben.
kennt das Internet (technisch) keine Grenzen. Dies ist insbesondere dann proble-
matisch, wenn etwa deutsche Internetnutzer sich darauf verlassen, dass der durch
deutsches Recht vorgesehene Schutz gewhrleistet ist ein angesichts der kom-
plexen Struktur und Funktionsweise des Internets kaum erfllbarer Anspruch.1
Die immer noch weiter zunehmende virtuelle Nhe in der digitalen Gesellschaft im
Sinne von McLuhans Epoche des Global Village2 lsst hergebrachte Konzepte
zur Segregation der Welt wie nationale Grenzen oft antiquiert erscheinen. Die
Diagnose, die Kehrseite der Globalisierung sei eine Entstaatlichung,3 ist deshalb
ebenso einleuchtend wie naheliegend. Das Internet ist Faktor und Indikator fr
die Globalisierung zugleich.4 Der globale Datenverkehr bietet unter anderem
auch vorher unbekannte Mglichkeiten, nationale rechtliche Garantien zu umgehen,
beispielsweise durch das Abhren und Manipulieren von Datenstrmen im Ausland
oder durch den Konsum verbotenen digitalen Materials aus auslndischen Quellen.
Erst allmhlich wird auch verstanden und thematisiert, dass der Prozess der
Entgrenzung hier nicht aufhrt. Neben der berschreitung von Landesgrenzen
durch Datenstrme kommt es in der digitalen Gesellschaft zu weiteren Entgren-
zungen auf allen Ebenen gesellschaftlichen Lebens. Dies macht es unter ande-
rem immer schwieriger, bestimmte Sachverhalte rechtlich zu fassen. Beispiele fr
solche Entgrenzungen sind etwa die Entstofichung von Wirtschaftsleistung,
das Verschwimmen der Grenzen zwischen Laien und Experten durch die hohe
Verfgbarkeit von Wissen, zwischen Arbeit und Freizeit sowie die Bildung von
grenzberschreitenden sozialen Rumen.5
Ubiquitt
Verstrkt werden die Herausforderungen der Globalitt und Entgrenzung durch
Ubiquitt der Datenverarbeitung. 1996 schrieben Johnson und Post noch ber den
digitalen Raum: [Y]ou know when you are there. No one accidentally strays
across the border into Cyberspace.6 Die Trennung zwischen der realen Welt
und der digitalen durch Bildschirme und Passwrter schien vor zwanzig Jahren
noch einleuchtend, ist heute als These aber immer weniger tragfhig. Physische und
digitale Welt sind nicht mehr streng voneinander getrennt, sondern vielmehr ist die
Steigende Datenmengen
Ubiquitre Systeme sind eine von mehreren Datenquellen, die dazu beitragen, im-
mer grere Datenmengen anzuhufen und zu speichern, die zudem immer schneller
bertragen und ausgewertet werden knnen. Big Data versucht dieses Phnomen
zu beschreiben. Gemeint sind groe Datenmengen aus vielfltigen Quellen, die
durch die Anwendung von Algorithmen analysiert und visualisiert werden, um
neue Erkenntnisse zu gewinnen und genaue Prognosen abzugeben. Viele Akteure
wollen von Big Data protieren. Sicherheitsbehrden identizieren durch die Aus-
wertung vorhandener Internet- und Telefonkommunikation potentielle Terroristen,
um Anschlge und so einen erheblichen Schaden der Bevlkerung zu vermeiden.14
Dem Schutz der Bevlkerung dient auch die Analyse polizeilicher Datenstze, um
gezielt Polizeieinheiten in Stadtteile zu entsenden, die eine erhhte Wahrschein-
lichkeit fr Straftaten aufweisen.15 Versicherungen versprechen einen Bonus in
der Versicherungsprmie, wenn der Versicherte etwa seine Fahrverhaltens- oder
Gesundheitsdaten zur Verfgung stellt.16 Social Media-Dienste lassen sich nutzen,
um Meinungs- und Stimmungsbilder der Nutzer zu erheben, die fr Marktanalysen
und Marketingzwecke von groem Wert sind.17 Gleiches gilt fr Online-Shopping-
Plattformen, die durch die Auswertung ihrer Kundendaten, teils in Kombination mit
anderen Quellen wie Social Media-Plattformen und Smartphone-Daten, treffsichere
Empfehlungen fr weitere Kaufabschlsse zum richtigen Zeitpunkt geben wollen.18
Wahlkampf-Helfer knnen noch unschlssige Whler identizieren und mit den
entscheidenden Argumenten fr sich gewinnen.19 Schlielich kann durch Smart
Meter der Strom- und Energieverbrauch in Haushalten punktgenau aufgezeichnet
werden, um Bedarf und Verbrauch von Ressourcen efzient und bedarfsgerecht zu
steuern. Dadurch sollen Stromnetze entlastet, der Verbrauch reduziert und damit
die Umwelt geschont werden.20
Doch die Mglichkeiten, mit Hilfe selbst anonymer Datenstze Prognosen ber
das Verhalten von Personen zu erstellen, kann erhebliche Risiken fr die Betroffenen
14 Kritisch Feiler und Fina, Datenschutzrechtliche Schranken fr Big Data, S. 308.
15 Martini, Big Data als Herausforderung fr den Persnlichkeitsschutz und das Datenschutzrecht,
S. 1481; Beuth, Predictive Policing; zuletzt auch Thema auf dem 18. Europischen Polizeikon-
gress 2015: Borchers, Precrime per Predictive Policing.
16 Christl, Kommerzielle digitale berwachung im Alltag, S. 43; Grger, Generali erndet den elek-
tronischen Patienten; Siedenbiedel, Revolution der Kfz-Versicherung; Schwichtenberg, Pay
as you drive neue und altbekannte Probleme.
17 Venzke-Caprarese, Social Media Monitoring, S. 775.
18 Christl, Kommerzielle digitale berwachung im Alltag, S. 22, 27.
19 Ronagel, Big Data Small Privacy?, S. 562; Richter, Die Wahl ist geheim . . . so what?,
S. 961f.
20 Vgl. Fox, Smart Meter; Jandt, Ronagel und Volland, Datenschutz fr SmartMeter, S. 99;
Geminn, Das Smart Home als Herausforderung fr das Datenschutzrecht, S. 575.
Internationalisierung vs. Nationalisierung 291
mit sich bringen. Die Analyse groer Datenmengen erlaubt einen tiefen Einblick
in das Leben und die Persnlichkeit eines Menschen. So ermglichen groe Da-
tenmengen, mehr Angaben ber eine Person zu gewinnen, als diese willentlich
preisgegeben hat. Mit groer Zuverlssigkeit lassen sich religise und politische
Ansichten, ethnische Zugehrigkeit, Geschlecht, sexuelle Orientierung, Angewohn-
heiten und selbst Emotionen prognostizieren oder feststellen, welche Ereignisse
und Vernderungen wann im Leben eines Menschen stattgefunden haben. Darber
hinaus birgt die Analyse groer Datenmengen die Gefahr, mittels anonymer Daten
die Wahrscheinlichkeit des Verhaltens von Einzelnen und Gruppen vorherzusagen,
ohne einen konkreten Personenbezug herzustellen. Auf die Handlungsfreiheit hat
dies einen erheblichen Einuss, da sie verhaltensbestimmend wirken knnen, also
dazu fhren, dass Personen ihr Verhalten anpassen, um bestimmte Wirkungen zu
erreichen oder zu vermeiden.21 Auf die Richtigkeit der Prognosen kommt es dabei
nur bedingt an.
Auch steigende Datenmengen wirken wie die ubiquitre Datenverarbeitung als
Verstrker der Herausforderungen von Globalitt und Entgrenzung. Zusammen
bedeuten diese Herausforderungen, dass Daten nicht nur in Sekundenbruchteilen
nationalstaatliche Grenzen berschreiten knnen, sondern dies auch noch in groen
Massen, die aus unterschiedlichsten Quellen und Lebensbereichen stammen und
hochsensible Inhalte haben knnen.
Kompetenzen, von Macht und Kontrolle, auf supra- und internationale Vereinigun-
gen dem Vorwurf eines Verlusts an demokratischer Rckkopplung ausgesetzt, die
jedoch fr die gesellschaftliche Akzeptanz von Rechtsnormen unabdingbar ist.
Bereits 1997 prognostizierte Ronagel, dass sich der demokratische Rechtsstaat
an Ohnmachtserfahrungen gewhnen msse, weil im krperlosen Sozialraum
der Netzwelt Gesetze nicht vollzogen und Gemeinwohlbelange nicht mehr durch-
gesetzt werden knnten.24 Hoeren stellte 1998 fest, das Internet werde zu einer
Dematerialisierung, Deterritorialisierung und Extemporalisierung des Rechts fh-
ren, das damit seine aus dem rmischen Recht ererbten Substrate (Sache, Raum,
Zeit) verliere.25 Boehme-Neler beschreibt das Recht sogar als das extreme
Gegenmodell zur Digitalisierung: Es ist nicht ubiquitr und grenzenlos, sondern
grundstzlich begrenzend und begrenzt.26 Recht und Internet scheinen vielen
als unvereinbare Gegenpole. Noch aus den frhen Phasen der Entwicklung des
Internets stammt die bis heute aktuelle Einschtzung, das Internet sei ein Ort der
Freiheit, frei von staatlichen und rechtlichen Zwngen, der wiederum das Zerrbild
eines rechtlosen Raumes gegenbersteht, der Gelegenheit zu vielfltigen sozial
unerwnschten und auch kriminellen Handlungen in vermeintlicher Anonymitt
bietet.
Nirgends zeigt sich die Schwchung der Ordnungsfunktion des demokratischen
Rechtsstaats so deutlich wie in der Internetkommunikation, schreibt Masing.
Indem sich Kommunikation ber ein diffuses Netzwerk dezentraler Rechner unter
berwindung von Zeit und Raum in eine virtuelle Welt verlegt, laufen staatliche
Regelungen und Sanktionen weithin leer..27 Es werden mithin durch Fragen nach
dem Verhltnis von Recht und virtuellem Raum weitere, hochkomplexe Folgefragen
aufgeworfen, etwa die Frage nach der Notwendigkeit der Kopplung von Recht und
Nationalstaat sowie Demokratie und Nationalstaat. Auf der Suche nach einem Weg
aus der beschriebenen Krise des Rechts sind schwierige Grundsatzentscheidungen
zu treffen, deren Folgen aus heutiger Sicht nur sehr schwer abschtzbar sind.
The rise of the global computer network is destroying the link between geo-
graphical location and: (1) the power of local governments to assert control over
online behavior; (2) the effects of online behavior on individuals or things; (3)
the legitimacy of a local sovereigns efforts to regulate global phenomena; and
(4) the ability of physical location to give notice of which sets of rules apply.28
Versuche zur Gewhrleistung der Oberhoheit des Rechts knnen mit den Begriffen
Repersonalisierung, Reformalisierung und Reterritorialisierung zusammen-
24 Ronagel, Globale Datennetze, S. 27f.
25 Hoeren, Internet und Recht, S. 2854.
26 Boehme-Neler, Unscharfes Recht, S. 103.
27 Masing, Herausforderungen des Datenschutzes, S. 2309.
28 Johnson und Post, Law and Borders, S. 1370.
Internationalisierung vs. Nationalisierung 293
gefasst werden.29 Dabei steht im Kern dieser Versuche die (Rck-)Gewinnung von
Anknpfungspunkten fr rechtliche Normen.
Warum eine Krise von Recht und Nationalstaat auch zugleich eine Krise der
Demokratie bedingt, liegt in deren enger Verbundenheit begrndet. Demokratie
meint die Selbstregierung des Volkes,30 die Regierten legitimieren also durch
mehrheitliche Entscheidung die Regierenden.31 Handlungen des Nationalstaats
reprsentieren damit direkt oder indirekt - die Meinung des Volkes als Inhaber
der Volkssouvernitt. Demokratie legitimiert mithin die Existenz und das Funktio-
nieren des Nationalstaats.32 Benden sich der Nationalstaat und sein Recht durch
Verlust der Kontrollfhigkeit, Legitimationsdezite und Unfhigkeit zu legitima-
tionswirksamen Steuerungsleistungen in einer Krise, fhrt das zu Deziten im
demokratischen Entscheidungsprozess,33 da der Nationalstaat die Rechte seiner
Brger bei grenzberschreitenden Sachverhalten nicht ausreichend zu schtzen ver-
mag. Der demokratische Rechtsstaat ist auf Hoheitsgewalt und Gesetzesgehorsam
angewiesen. Nur durch sie kann er demokratische Beschlsse allgemeinverbindlich
durchsetzen und die Grundrechte der Brger gegen bergriffe Dritter schtzen.
Dies zu gewhrleisten ist der fundamentale Zweck, um dessentwillen der moderne
Staat besteht.34
Nationalstaat, sein Recht und seine demokratischen Strukturen bei ihrer Selbst-
behauptung in einer immer weniger von Grenzen geprgten Welt untersttzen
sollen.
Die entgrenzende Wirkung des Internets wurde bereits dargestellt. Als Schlssel-
technologie der digitalen Gesellschaft ist das Internet jedoch letztlich auch durch
nationale Strukturen und Prozesse geprgt. So bleiben etwa insbesondere Sprache
und Kultur als begrenzende Faktoren erhalten; gerade die Sprache hat auch im In-
ternet regelmig eine segmentierende und ausschlieende Wirkung, die dazu fhrt,
dass bestimmte Sprachgruppen eher unter sich bleiben. Wesentliche Aspekte der
Verwaltung des Internets werden als Folge seiner historischen Entwicklung noch
immer aus den USA heraus kontrolliert; und die National Security Agency (NSA)
meldet sogar einen Herrschafts- und Besitzanspruch ber den virtuellen Raum
an.36 Zudem herrschen weltweit hchst unterschiedliche Vorstellungen bezglich
Struktur, Aufgaben und Werten des Internets.
Das Internet ist neben Kommunikationsplattform und Marktplatz auch eine Arena
fr Auseinandersetzungen zwischen Staaten ebenso wie fr (gerade auch grenzber-
schreitende) Auseinandersetzungen zwischen Privaten und zudem fr kriminelle
Aktivitten. Konikte und Angriffe knnen international sein, Koniktlsung und
Abwehr mssen meist national erfolgen. Staaten und Staatengemeinschaften sehen
in einer zunehmenden Nationalisierung des Datenverkehrs und seiner Infrastruktur
zumindest eine Chance, sich selbst und ihre Brger vor Aussphung und Angriffen
zu schtzen, sehen sich dabei aber dem Vorwurf des Protektionismus ausgesetzt.
Whrenddessen schotten autoritre Staaten wie China die eigene Datenverkehrs-
infrastruktur immer strker vom Rest der Welt ab. Dadurch entstehen nationale
Subnetze und parallele Strukturen, die staatlich kontrolliert und berwacht werden
knnen. Bereits 2006 prognostizierten Goldsmith und Wu eine Art neuen Kalten
Krieg auf technischer Ebene, in dem die USA, Europa und China konkurrieren-
de Datenbertragungssysteme und -infrastrukturen entwickeln.37 Der durch die
Snowden-Enthllungen vertiefte Graben zwischen den USA und Europa in Sachen
Vertrauen und Datenschutz lsst zusammen mit den Bemhungen Chinas diese
Befrchtungen eine Dekade spter umso realistischer erscheinen.
36 So benannte die NSA als eines ihrer Ziele Owning the Internet; NSA-Dokument SigInt Strategy
2012-2016, zit. in: Rosenbach und Stark, Der NSA-Komplex, S. 124.
37 [T]he United States, China, and Europe are using their coercive powers to establish different
visions of what the Internet might be. [. . . ] The result is the beginning of a technological version
of the cold war, with each side pushing its own vision of the Internets future. Goldsmith und
Wu, Who controls the Internet?, S. 184. Dies schlgt sich auch in der verwendeten Rhetorik nieder.
So drohte etwa Prsident Obama mit Blick auf eine mgliche Konfrontation mit China als Folge
zunehmender chinesischer Cyberangriffe auf US-amerikanische Ziele: I guarantee you we will
win if we have to. Zit. in Obama: China cyber attacks unacceptable.
Internationalisierung vs. Nationalisierung 295
Nationales Routing
Ein besonders anschauliches Beispiel ist der schlussendlich gescheiterte Vor-
sto eines nationalen Routing des Datenverkehrs aus dem Jahr 2013. Nach einem
Vorschlag des damaligen Telekom-Vorsitzenden Obermann sollten Daten einen be-
stimmten geograschen Raum (z.B. die Bundesrepublik oder den Schengen-Raum)
auf dem Transportweg nicht verlassen, wenn sowohl Absender als auch Empfn-
ger sich in diesem Raum benden.39 Damit reduzierten sich die Mglichkeiten
auslndischer Geheimdienste zum Abfangen dieser Daten whrend des Transports
erheblich. Gleichzeitig bliebe auch die Hoheit eines Staates oder Staatenverbunds
und seines Rechts ber diese Daten gewhrleistet.
In die gleiche Richtung gehen Initiativen zum Ausbau des kabelgebundenen
Datennetzes durch Errichtung zustzlicher Internet Exchange Points und die Ver-
legung neuer Unterseekabel, wie etwa zwischen Brasilien und der Europischen
Union. Hierdurch soll verhindert oder zumindest minimiert werden, dass Daten auf
dem Transportweg einen geograschen Raum durchqueren, dessen Recht keinen
adquaten Schutz dieser Daten garantiert, wobei in der Regel Staaten der so ge-
nannten Five Eyes40 sowie China und Russland im Fokus solcher berlegungen
stehen.
Abschottung
Die gleiche Technik, die primr das Ziel des Schutzes vor Abhraktivitten ausln-
discher Geheimdienste verfolgt, kann aber auch zur Abschottung von Datennetzen
genutzt werden, wie sie bestimmte autoritre Staaten praktizieren, und kommt
schlussendlich einer Transformation des Internets zum Intranet gleich. Trotzdem ist
letztlich mit dem Begriff nicht gemeint, dass kein Austausch mehr zwischen dem
abgeschotteten Bereich und der Auenwelt mglich sein soll. Es ist eher an das
38 So auch Goldsmith und Wu, Who controls the Internet?, S. 183: [T]he Internet becomes more and
more bordered, [. . . ] it twists and bends to meet local demands.
39 Geminn, Die Debatte um nationales Routing, S. 98ff.; s. auch Bttner u. a., Die Reterritorialisie-
rung des Digitalen.
40 Die USA, das Vereinigte Knigreich, Kanada, Australien und Neuseeland.
296 Christian L. Geminn und Maxi Nebel
Bild einer mittelalterlichen Stadt zu denken, die sich mit dicken Mauern schtzt
und den eingehenden Verkehr an den Toren der Stadt reguliert und kontrolliert, aber
trotzdem auf den regen Zustrom von Hndlern, Arbeitern etc. angewiesen ist.
Hier geht es meist vor allem darum, den eigenen Brgern den Zugriff auf be-
stimmte extraterritoriale Datenquellen zu versperren, auch wenn Daten- und In-
frastruktursicherheit ofziell als Rechtfertigung dienen. Besonders anschaulich
zeigt sich dies in Saudi-Arabien, wo der gesamte Datenverkehr ber eine zentrale
Stelle geleitet und geltert wird.41 Zugriffssperren knnen jedoch hug durch die
Nutzung von Proxy Servern und VPN umgangen werden. Deren Nutzung wird
deshalb konsequent gestrt.42
Letztlich fallen auch Zensur im Internet und Zugangssperren unter die Kategorie
Abschottung. Whrend Internetzensur im Sinne einer Vorzensur vornehmlich
im Kontext des Umgangs autoritrer Staaten thematisiert wird, wurde und wird
die Sperrung von Inhalten, also die Nachzensur, auch in demokratischen Staaten
diskutiert und umgesetzt. Auch hier geht es in der Regel darum, dem Nutzer den
Zugriff auf konkrete Inhalte unmglich zu machen oder zumindest zu erschweren
(Stoppschilder). Hiervon zu unterscheiden sind Sanktionen, bei denen wiederhol-
te Verste beispielsweise gegen Urheberrecht unter anderem mit einer temporren
Sperrung oder Drosselung des Internetzugangs geahndet werden knnen (Three
Strikes).43
Auch in Deutschland waren Sperren ein Thema. Resultat einer Diskussion um
die Bekmpfung der Verbreitung von kinderpornographischen Inhalten war das
Zugangserschwerungsgesetz, 44 das von Februar 2010 bis Dezember 2011 in Kraft
war, jedoch nicht angewendet wurde, weil vom Bundeskriminalamt (BKA) nie
eine Liste mit zu sperrenden Webseiten erstellt wurde. Die grundstzliche Zulssig-
keit solcher Sperren hat der Bundesgerichtshof (BGH) Ende 2015 festgestellt. 45
hnlich hatte sich zuvor auch der Europische Gerichtshof (EuGH) geuert.46
Die Urteile hatten Urheberrechtsverletzungen zum Thema. Auch der Europische
41 Verantwortlich hierfr ist die saudi-arabische Communications and Information Technology Com-
mission.
42 So etwa in China: Wilkens, China verteidigt massive Strung von VPN-Diensten.
43 Siehe beispielhaft den Copyright (Infringing File Sharing) Amendment Act 2011 (Neuseeland) und
den Digital Economy Act 2010 (Vereinigtes Knigreich).
44 Zugangserschwerungsgesetz v. 17.2.2010 (BGBl. I. S. 78).
45 BGH, Urteile v. 26. November 2015, I ZR 3/14 und I ZR 174/14. Danach ist eine Sperrung dann
als ultima ratio zulssig, wenn nach dem Gesamtverhltnis rechtmige gegenber rechtswidrigen
Inhalten nicht ins Gewicht fallen.
46 EuGH, Urteil v. 27. Mrz 2014, C-314/12, Rn. 56: Dabei mssen die Manahmen, die der Anbieter
von Internetzugangsdiensten ergreift, in dem Sinne streng zielorientiert sein, dass sie dazu dienen
mssen, der Verletzung des Urheberrechts oder eines verwandten Schutzrechts durch einen Dritten
ein Ende zu setzen, ohne dass Internetnutzer, die die Dienste dieses Anbieters in Anspruch nehmen,
um rechtmig Zugang zu Informationen zu erlangen, dadurch beeintrchtigt werden. Andernfalls
Internationalisierung vs. Nationalisierung 297
Verbote
Ein anderes, aber in vielerlei Hinsicht gleichartig gelagertes Mittel zur Wieder-
herstellung staatlicher Souvernitt ist das Verbot. Insbesondere bezogen auf Ver-
schlsselung wurden immer wieder Verbote und Exportbeschrnkungen diskutiert49
und auch entsprechende Gesetze erlassen.50 Der Hintergedanke dabei war, es drfe
keine Form der elektronischen Kommunikation geben, die von entsprechend auto-
risierten staatlichen Behrden nicht abgehrt werden kann. Verbote knnen auch
auf Seite der Hardware ansetzen. So verbot Myanmars Militrjunta unter anderem
Besitz und Nutzung nicht registrierter Modems. Hohe Zugangskosten knnen eben-
falls Verbotscharakter haben. Zur effektiven Wirksamkeit eines Verbots muss dieses
mit Sanktionsmechanismen bei Versten gekoppelt werden.
Durch die Kontrolle der groen Staatsunternehmen behlt China gleichzeitig die
Souvernitt im IT-Bereich. [. . . ] China entwickelt Parallelstandards im Bereich
Soft- und Hardware.54 In Deutschland und Europa wurden insbesondere seit den
Snowden-Enthllungen immer wieder Rufe laut nach besserer deutscher und euro-
pischer IT, nicht selten unter Verweis auf die Erfolgsgeschichte des Flugzeugbauers
Airbus.55
Gesetzen anderer Staaten erzeugen kann und damit letztlich deren Souvernitt
tangiert.
Ein anschauliches Beispiel fr eine extraterritoriale Ausweitung des Geltungsbe-
reichs nationalen Rechts und ihre weitreichenden Folgen bietet ein vielbeachteter
Rechtsstreit zwischen der Microsoft Corporation und der US-Regierung. 2013
hatte Microsoft einen Search and Seizure Warrant auf Basis des Stored Com-
munications Act (SCA)59 erhalten. Danach kann eine Governmental Entity die
Herausgabe von bestimmten gespeicherten Daten fordern.60 Die fraglichen Daten
Kunden-E-Mails befanden sich jedoch ausschlielich auf Servern des Konzerns
in Dublin, Irland. Streitgegenstand war nun die Frage, ob das Gesetz auch einen
Zugriff auf Daten erlaubt, die sich auerhalb der Landesgrenzen benden. Die
Frage wurde 2014 zunchst ganz im Sinne des US-Justizministeriums bejaht,61
in der Berufung jedoch 2016 verneint.62 Im Kern geht es dabei darum, ob die Brger
eines Staates auf die Datenschutzgarantien dieses Staates vertrauen knnen, ohne
Eingriffe aus dem Ausland.
Nach Geltungsbeginn der Datenschutz-Grundverordnung wrde ein Unterneh-
men wie Microsoft in einem hnlich gelagerten Fall in eine Zwickmhle geraten,
denn dem US-Warrant stnde Art. 48 DSGVO gegenber, wonach [j]egliches
Urteil eines Gerichts eines Drittlands und jegliche Entscheidung einer Verwal-
tungsbehrde eines Drittlands, mit denen von einem Verantwortlichen oder einem
Auftragsverarbeiter die bermittlung oder Offenlegung personenbezogener Daten
verlangt wird, nur dann anerkannt wird, wenn sie auf eine in Kraft bendliche
internationale bereinkunft wie etwa ein Rechtshilfeabkommen zwischen dem
ersuchenden Drittland und der Union oder einem Mitgliedstaat gesttzt sind.
Zwischenfazit
Der moderne Staat ist kein hilos Getriebener, sondern es stehen ihm vielfltige
Mglichkeiten zur Verfgung, sich in der digitalen und vernetzten Welt zu behaup-
ten. Darber hinaus steht es ihm offen, die Chancen, die ihm diese Welt bietet, zu
nutzen, etwa indem er Verwaltungshandeln transparent gestaltet, die Interaktion mit
und zwischen Behrden vereinfacht, politische Partizipation strkt und wirksame
59 Das Gesetz ist Teil des Electronic Communications Privacy Act of 1986 (Title II) und in 18 U.S.C.
2701-2812 kodiziert.
60 Die Anordnung erging auf Basis von 18 U.S.C. 2703(a): A governmental entity may require the
disclosure by a provider of electronic communication service of the contents of a wire or electronic
communication [. . . ].
61 United States District Court Southern District of New York, Entscheidung v. 25.4.2014, 13 Mag.
2814.
62 United States Court of Appeal for the Second Circuit, Entscheidung v. 14.7.2016, No. 14-2985
unter Verweis auf Morrison v. National Australia Bank, 561 U.S. 247 (2010).
Internationalisierung vs. Nationalisierung 301
Europischer Rahmen
Die gewachsene Bedeutung privatwirtschaftlicher Datenverarbeitung durch wenige
groe Konzerne macht besonders deutlich, dass ein umfassender Schutz der Per-
snlichkeitsrechte sowie der Schutz personenbezogener Daten vor unbegrenzter
elektronischer Datenverarbeitung mit nationalen Datenschutzgesetzen nicht mehr
63 Ein Ttigwerden des Staates kann mitunter zur Erfllung von Schutzpichten geboten sein. Diese
knnen sich vor allem aus den Art. 1, 2, 5, 10, 12, 13, 14, 87f und 91c GG ergeben. Siehe Hoffmann-
Riem, Freiheitsschutz in den globalen Kommunikationsinfrastrukturen, S. 56ff.
64 So Masing, Herausforderungen des Datenschutzes, S. 2310; Boehme-Neler, Unscharfes Recht,
S. 151.
65 Etwa die International Organization for Standardization (ISO), die International Electrotechnical
Commission (IEC) und die Internet Corporation for Assigned Names and Numbers (ICANN). Das
Deutsche Institut fr Normung e.V. ist ebenfalls eine rein privatwirtschaftliche Organisation, die
jedoch von der Bundesrepublik Deutschland untersttzt wird. Das DIN erstellt private technische
Regelungen mit Empfehlungscharkter (BGHZ 139, 16) und vertritt die Bundesrepublik in der ISO.
Boehme-Neler, Unscharfes Recht, S. 147: Die Nationalstaaten haben ihre Monopolstellung als
Akteure in der internationalen Politik verloren.
66 Zum Grundsatz Code Is Law siehe Lessig, Code, S. 1ff. Unter demokratietheoretischen Aspek-
ten ist das hochproblematisch. Denn angesichts der Bedeutung des Internets sind Entscheidungen
ber die Internet-Architektur keine rein technischen Fragen (mehr). Boehme-Neler, Wer formt
den digitalen Code?, S. 78.
302 Christian L. Geminn und Maxi Nebel
Regelungsinstrument der Verordnung jedoch allein zum Erfolg fhren konnte, darf
bezweifelt werden. Letztlich ist davon auszugehen, dass die gewnschten Effekte
auch mit einer Richtlinie htten erreicht werden knnen unter Achtung nationaler
Besonderheiten und Wahrung etablierter nationaler Lsungen. Das Ziel, durch ein
Glattbgeln nationaler Besonderheiten internationalen Konzernen einen europawei-
ten Markt mit einheitlichen Rechtsregeln zu bieten, drfte sich ohnehin als Illusion
erweisen, denn die Anerkenntnis und Abwgung berechtigter Interessen drfte sich
weiterhin von Mitgliedstaat zu Mitgliedstaat unterscheiden. Harmonisierung, nicht
Vereinheitlichung, sollte Mittel zur Etablierung eines hohen Datenschutzniveaus
sein zunchst auf europischer, schlielich aber auch auf internationaler Ebene.
Vlkerrechtlicher Rahmen
Da sich elektronische Datenverarbeitung jedoch nicht nur auf das Gebiet der europi-
schen Union beschrnkt, muss ein wirksamer Persnlichkeitsschutz darber hinaus
wirken knnen. Auf vlkerrechtlicher Ebene sind jedoch nur wenige verbindliche
Normen vorhanden. Weder Art. 12 der Allgemeinen Erklrung der Menschenrechte
(AEMR) noch die OECD-Richtlinie ber Datenschutz und grenzberschreitende
Strme personenbezogener Daten aus dem Jahre 2002 entfalten Bindungswirkung,
sondern haben lediglich Empfehlungscharakter; darber hinaus mangelt es ihnen an
Regelungstiefe, um allen datenschutzrechtlichen Anforderungen gerecht zu werden.
Gleiches gilt fr die Europische Datenschutzkonvention des Europarats von 1985,
aus der Art. 8 der Europischen Menschenrechtskonvention (EMRK) hervorgegan-
gen ist, der zumindest in Deutschland gem Art. 59 Abs. 2 Grundgesetz (GG) den
Rang eines Bundesgesetzes hat.
Einzig Art. 17 des Internationalen Pakts ber brgerliche und politische Rechte
(IPbpR)77 liegt eine gewisse Verbindlichkeit inne. Art. 17 IPbpR gewhrleistet
Schutz vor willkrlichen oder rechtswidrigen Eingriffen in Privatleben, Familie,
Wohnung, Schriftverkehr sowie rechtwidrige Beeintrchtigungen der Ehre und
des Rufs. Dabei umfasst Art. 17 IPbpR auch elektronische Kommunikation sowie
Schutz vor Sphmanahmen.78 Eine Individualbeschwerde durch einen Betroffenen
an den UN-Menschenrechtsausschuss gegen Eingriffe oder Beeintrchtigungen
durch Staaten oder Private79 ist jedoch nur mglich, sofern der betroffene Staat das
(fakultative) Zusatzprotokoll ratiziert hat.
77 Internationaler Pakt ber brgerliche und politische Rechte vom 19.12.1966, BGBl. 1973 II S.
1533.
78 High Commissioner for Human Rights, General Comment 16 zu Art. 17 IPbpR.
79 Aufgrund seines objektiv-rechtlichen Schutzgehalts entfaltet Art. 17 IPbpR auch einen Schutz ge-
gen Beeintrchtigungen durch Private; Szczekalla, Sicherung grund- und menschenrechtlicher
Standards, S. 1114; Hoffmann-Riem, Freiheitsschutz in den globalen Kommunikationsinfrastruk-
turen, S. 61, m.w.N.
Internationalisierung vs. Nationalisierung 305
wie dem Recht auf Privatleben oder dem Recht auf Meinungs- und Informations-
freiheit.86
Fr einen effektiven globalen Persnlichkeitsschutz mssen vlkerrechtliche
bereinkommen einheitliche und durchsetzungsfhige Standards zu Schutzgehalt,
Verhltnismigkeit von Eingriffen und Rechtswegen denieren und dafr sorgen,
dass diese im Interesse eines internationalen Gemeinwohls87 homogen umge-
setzt werden.88 Dabei sollten vlkerrechtlich verbindliche Abkommen ber die
Regelungsintensitt des IPbpR hinausgehen und bestenfalls mehr als blo einen
Minimalkonsens herstellen, oder andernfalls intensivere nationale Regelungen
zulassen. Diese knnen dann wiederum als Vorbild dienen, um international vl-
kerrechtlich etabliert zu werden.89 Selbst die Regelung von Teilaspekten wre
ein erheblicher Fortschritt. Vorgaben zur wirksamen Abgabe von Einwilligungen
knnten ein solcher Aspekt sein, auf den sich alle Nationen verbindlich festlegen;
ein anderer der Datenumgang minderjhriger Nutzer oder Fragen des anwendbaren
Rechts bei elektronischer Datenverarbeitung.
Als erste Erfolge oder zumindest als Trittsteine auf dem Weg zu entsprechenden
vlkerrechtlichen Vorgaben knnen die von Deutschland und Brasilien gemeinsam
in den Nachwehen der Snowden-Enthllungen angestoenen UN-Resolutionen
gelten.90 Die fraglichen Resolutionen sind jedoch nicht vlkerrechtlich bindend.
Internet Governance
Streit besteht seit langem ber die Ausgestaltung von Internet Governance.91 Im
Kern des Streits steht die Frage nach der Kontrolle ber zentrale Schaltstellen und
Ressourcen des internationalen Datenverkehrs, insbesondere des Domain Name
System,92 das im Wesentlichen von der Internet Corporation for Assigned Names
and Numbers (ICANN) kontrolliert wird,93 auf die wiederum das US-amerikanische
86 Klar, Privatsphre und Datenschutz in Zeiten technischen und legislativen Umbruchs, S. 112.
87 Boehme-Neler, Das Ende des Staates?, S. 159.
88 Hoffmann-Riem, Freiheitsschutz in den globalen Kommunikationsinfrastrukturen, S. 62.
89 Ronagel, Weltweites Internet, S. 70.
90 A/C.3/68/L.45 aus dem Jahr 2013, A/C.3/69/L.26 aus dem Jahr 2014 und A/HRC/28/L.27 aus dem
Jahr 2015 (alle mit dem Titel The right to privacy in the digital age). Siehe auch A/C.3/69/L.24
(The promotion, protection and enjoyment of human rights on the Internet).
91 Der Begriff fasst alle Mechanismen, Institutionen und Prozesse zusammen, die das Tun und Han-
deln im Internet organisieren und regulieren [. . .]. Dabei nehmen Recht und Rechtsordnung nur
einen Teilbereich dieses weiten Governance-Feldes ein, der Rest wird von anderen Mechanismen,
Institutionen, und Prozessen abgedeckt; Weber, Internet-Governance, Teil 2, Rn. 6.
92 Ebd., Teil 2, Rn. 7ff.
93 Die ICANN ist eine Non-Prot-Organisation mit Sitz in Playa Vista nahe Los Angeles. Zur Ge-
schichte und Struktur der ICANN siehe Weber, Internet-Governance, Teil 2, Rn. 21ff.; Betz und
Kbler, Internet Governance, S. 74ff.;
Internationalisierung vs. Nationalisierung 307
etwa 170.000 User lieen sich registrieren, so dass die Wahl insgesamt die Vision
zivilgesellschaftlicher Self Governance platzen lie.98
Gleichermaen stehen Organisationen wie das World Wide Web Consortium
(W3C) und die Internet Engineering Task Force (IETF) in der Kritik. Auch hier
werden technische Richtungsentscheidungen gefllt, ohne dass dafr ein echtes
Mandat vorlge.99 Die zentralen Themen und Probleme von Internet Governance
lassen sich mit Legitimitt, Transparenz, Verantwortlichkeit und Mitwirkung der
ffentlichkeit zusammenfassen.100 Die Regulierung des Internets bietet mithin
auch weiterhin [r]eiches Anschauungsmaterial fr die These des globalen Rechts
ohne Staat.101
len Netzen, S. 255; Scholz, Datenschutz beim Internet-Einkauf, S. 358f.; Karaboga, Schtz u. a.,
Selbstdatenschutz.
111 Privacy by default: Scholz, Datenschutz beim Internet-Einkauf, S. 358f.; zum Begriff auch Kipker,
Privacy by Default.
112 Ronagel, Datenschutztechnik und -recht in globalen Netzen, S. VII; Scholz, Datenschutz beim
wehren BVerfGE 49, 89 (132); vgl. auch Ronagel, Globale Datennetze, S. 26; Trute, Wissen-
schaft und Technik, 88, Rn. 28ff.
114 Karaboga, Schtz u. a., Selbstdatenschutz, S. 5; Hahn, Johannes und Lange, Schutzschilde gegen
sowohl in Europa als auch darber hinaus unter Einbindung der Demokratien der
Welt zu forcieren. Auch hierfr liefern die genannten Urteile des EuGH gute Ar-
gumente. Dies sollte Hand in Hand gehen mit einer Strkung der demokratischen
Rckkopplung sowohl der europischen sowie letztlich auch der internationalen
Institutionen. Bi-nationale Abkommen, wie es einst das Safe Harbour-Abkom-
men darstellte, knnen auf dem Weg zu einer Teilinternationalisierung nur ein
erster Schritt sein; ebenso wie die Datenschutz-Grundverordnung, die zumindest
innerhalb Europas eine Vereinheitlichung des Rechtsrahmens herbeifhrt, jedoch
wichtige auereuropische Nationen auen vor lassen muss. Nichtsdestotrotz kn-
nen solche Regelungen aber auf Dritte ausstrahlen, wenn diese etwa freiwillig
nationale Regelungen beispielsweise an europisches Datenschutzrecht angleichen.
Dabei ist jedoch zu beachten, dass ein hoher Grundrechtsschutz, wie er etwa in
Deutschland besteht, nicht zugunsten der Ermglichung von Internationalisierung
geopfert wird, denn diese stellt gerade keinen Wert an sich dar. Bestrebungen zur In-
ternationalisierung des Datenschutzes mssen immer den grundrechtlichen Schutz
der Betroffenen vor Augen haben. Unabhngig von der rumlichen Reichweite
solcher Abkommen muss ein hoher Schutzstandard mit strengen Eingriffsvoraus-
setzungen gewhrleistet werden. Dabei mssen anerkannte Aufsichtssysteme und
wirkungsvolle Durchsetzungsinstrumente eingesetzt werden. Die Alternative eines
nationalen Alleingangs, der letztlich nur die Form einer Abschottung annehmen
kann, darf allein ultima ratio sein und muss dementsprechend sparsam angewendet
werden, wenn sich zur Lsung eines bestimmten Sachverhalts kein anderer Weg
beschreiten lsst.
Internationalisierung kann letztlich auch einen Machtgewinn fr den National-
staat bedeuten, wenn dieser etwa zuvor von technischen Entscheidungen ausge-
schlossen war, im Zuge einer Internationalisierung aber Mitspracherechte und
-mglichkeiten erhlt. Darber hinaus kann auch ber Technologiefhrerschaft na-
tionaler Einuss auf internationaler Ebene gesichert werden, die sich gezielt durch
rechtlich gesetzte Anreize und regulierte Selbstregulierung steuern lsst. Schlielich
knnen Datenschutz und die Technik selbst auch als Druckmittel oder im Rahmen
von Protektionismus gebraucht werden. Andererseits kann ber die Kontrolle des
Marktzugangs auch die Einhaltung von Standards forciert werden.
Letztlich geht es sowohl bei nationalen als auch internationalen Anstzen darum,
die Hoheit des Rechts ber einen vermeintlich rechtlosen Raum zu gewinnen.
Um Abwehrreaktionen zu vermeiden, ist angeraten, alle verantwortlichen Akteure
im Internet mit einzubeziehen, etwa mit Hilfe regulierter Selbstregulierung und
-kontrolle. Das damit verbundene Problem der fehlenden demokratischen Legitima-
312 Christian L. Geminn und Maxi Nebel
tion muss jedoch uerst ernst genommen werden, soll eine dauerhaft akzeptable
Lsung gefunden werden.118
Das Setzen von Geboten und Verboten von staatlicher Seite als Regelungsinstru-
ment hat auch in der globalisierten Welt alles andere als ausgedient. Gleiches gilt
fr den Schutzgehalt nationaler Grundrechte. Die Suche nach geeigneten rechtli-
chen Regelungsinstrumenten im und fr das Internet geht indes weiter mit bisher
ungewissem Ausgang.
Literatur
Bergmann, Jan Michael, Wolfgang W. Mickel und Claus D. Grupp, Hrsg. Hand-
lexikon der Europischen Union. 5. neu bearbeitete und erweiterte Auage.
Baden-Baden, Wien und Basel: Nomos, Facultas und Helbing Lichtenhahn Ver-
lag, 2015.
Betz, Joachim und Hans-Dieter Kbler. Internet Governance: Wer regiert wie das
Internet? Wiesbaden: Springer VS, 2013.
Beuth, Patrick. Predictive Policing: Das BKA will in die Zukunft sehen. In: ZEIT
online (17. Mrz 2014). URL: http://www.zeit.de/digital/datenschutz/2014-
03/bka-data-mining-predictive_policing (besucht am 08. 09. 2016).
Bizer, Johann u. a. Technikfolgenabschtzung Ubiquitres Computing und Informa-
tionelle Selbstbestimmung. Studie im Auftrag des Bundesministeriums fr Bil-
dung und Forschung. Unabhngiges Landeszentrum fr Datenschutz Schleswig-
Holstein und Institut fr Wirtschaftsinformatik der Humboldt-Universitt zu
Berlin, Juli 2006.
Bckenfrde, Ernst-Wolfgang. Demokratische Willensbildung und Reprsenta-
tion. In: Handbuch des Staatsrechts, Band III: Demokratie - Bundesorgane.
Hrsg. von Josef Isensee und Paul Kirchhof. 3. vllig neubearb. und erw. Au.
Heidelberg: C. F. Mller, 2005, S. 3153.
Boehme-Neler, Volker. Das Ende des Staates? Zu den Auswirkungen der Digita-
lisierung auf den Staat. In: Zeitschrift fr ffentliches Recht (ZR) 64.2 (2009),
S. 145199.
Unscharfes Recht: berlegungen zur Relativierung des Rechts in der digitali-
sierten Welt. Bd. 89. Schriftenreihe zur Rechtssoziologie und Rechtstatsachenfor-
schung. Berlin: Duncker & Humblot, 2008.
Wer formt den digitalen Code? Rechtsetzung in der digitalisierten Gesellschaft.
In: Zeitschrift fr Gesetzgebung (ZG) 24.1 (2009), S. 7485.
118 Hoeren, Internet und Recht, Selbstkontrolle kann im Internet das Recht ergnzen, jedoch nie-
mals ersetzen.
Internationalisierung vs. Nationalisierung 313
Borchers, Detlef. Precrime per Predictive Policing: Das Internet der Dinge im
Zeugenstand. In: Heise online (26. Feb. 2015). URL: http://www.heise.de/
newsticker / meldung / Precrime - per - Predictive - Policing - Das - Internet - der -
Dinge-im-Zeugenstand-2559840.html (besucht am 08. 09. 2016).
Bttner, Barbara u. a. Die Reterritorialisierung des Digitalen. Zur Reaktion natio-
naler Demokratie auf die Krise der Privatheit nach Snowden. Kassel: Kassel
University Press, 2016.
Christl, Wole. Kommerzielle digitale berwachung im Alltag. Erfassung, Verknp-
fung und Verwertung persnlicher Daten im Zeitalter von Big Data: Internationa-
le Trends, Risiken und Herausforderungen anhand ausgewhlter Problemfelder
und Beispiele. Studie im Auftrag der sterreichischen Bundesarbeitskammer.
Wien: Cracked Labs: Institut fr Kritische Digitale Kultur, 2014. URL: http :
//crackedlabs.xn--org-8m0a/studie-kommerzielle-ueberwachung/info (besucht
am 08. 09. 2016).
Darnstdt, Thomas u. a. freiheit@unendlich.welt. In: Der Spiegel 33 (10. Aug.
2009), S. 6881.
Dix, Alexander. Konzepte des Systemdatenschutzes. In: Handbuch Datenschutz-
recht. Hrsg. von Alexander Ronagel und Ralf-Bernd Abel. Mnchen: Beck,
2003, S. 363386.
Dohmen, Frank und Gerald Traufetter. Traum von Internetz. In: Der Spiegel 46
(11. Nov. 2013), S. 46.
Eckhardt, Jens. EU-DatenschutzVO Ein Schreckgespenst oder Fortschritt? In:
Computer und Recht (CR) 28.3 (2012), S. 195203.
Eckhardt, Jens, Rudi Kramer und Britta Alexandra Mester. Auswirkungen der
geplanten EU-DS-GVO auf den deutschen Datenschutz. In: Datenschutz und
Datensicherheit (DuD) 37.10 (2013), S. 623630.
Ein Gesetz fr den Weltraum. In: Der Spiegel (11. Apr. 2015), S. 13. URL:
https : / / magazin . spiegel . de / digital / ?utm _ source = spon & utm _ campaign =
centerpage#SP/2015/16/133575480 (besucht am 16. 11. 2016).
Engel, Christoph. Das Internet und der Nationalstaat. In: Vlkerrecht und Inter-
nationales Privatrecht in einem sich globalisierenden internationalen System
Auswirkungen der Entstaatlichung transnationaler Rechtsbeziehungen. Bd. 39.
Berichte der Deutschen Gesellschaft fr Vlkerrecht. Heidelberg: C. F. Mller,
2000, S. 353425.
Feiler, Lukas und Siegfried Fina. Datenschutzrechtliche Schranken fr Big Data.
In: Medien und Recht (MR) 10.7-8 (2013), S. 303309.
Forst, Gerrit. Beschftigtendatenschutz im Kommissionsvorschlag einer EU-
Datenschutzverordnung. In: Neue Zeitschrift fr Arbeitsrecht (NZA) 29.7 (2012),
S. 364367.
314 Christian L. Geminn und Maxi Nebel
Fox, Dirk. Smart Meter. In: Datenschutz und Datensicherheit (DuD) 34.6 (2010),
S. 408.
Geminn, Christian L. Crypto Wars Reloaded? In: Datenschutz und Datensicher-
heit (DuD) 39.8 (2015), S. 546547.
Das Smart Home als Herausforderung fr das Datenschutzrecht: Enthlt die
DSGVO risikoadquate Regelungen? In: Datenschutz und Datensicherheit
(DuD) 40.9 (2016), S. 575580.
Die Debatte um nationales Routing eine Scheindebatte? In: Multimedia und
Recht (MMR) 18.2 (2015), S. 98103.
Gierow, Hauke. Cyber Security in China (III): Standortfaktor Internetsicherheit:
Herausforderung fr westliche Unternehmen. China Monitor 22. Berlin: Mercator
Institute for China Studies, 18. Mrz 2015. URL: http : / / www. merics . org /
leadmin/ templates/download/china - monitor/China _Monitor_ No_22 .pdf
(besucht am 08. 09. 2016).
Gola, Peter. Beschftigtendatenschutz und EU-Datenschutz-Grundverordnung.
In: Eurpische Zeitschrift fr Wirtschaftsrecht (EuZW) 23.9 (2012), S. 332336.
Gola, Peter und Sebastian Schulz. Der Entwurf fr eine EU-Datenschutz-Grund-
verordnung eine Zwischenbilanz. In: Recht der Datenverarbeitung (RDV) 29.1
(2013), S. 17.
Goldsmith, Jack und Tim Wu. Who controls the Internet? Illusions of a Borderless
World. New York: Oxford Univiversity Press, 2006.
Grimm, Dieter. Die Zukunft der Verfassung II: Auswirkungen von Europisierung
und Globalisierung. Berlin: Suhrkamp, 2012.
Grger, Anne-Christin. Generali erndet den elektronischen Patienten. In: Sued-
deutsche.de (21. Nov. 2014). URL: http://www.sueddeutsche.de/geld/neues-
krankenversicherungsmodell-generali-erndet-den-elektronischen-patienten-
1.2229667 (besucht am 08. 09. 2016).
Grzeszick, Bernd. Art. 20 GG. In: Grundgesetz: Loseblatt-Kommentar. Hrsg. von
Theodor Maunz, Gnter Drig und Roman Herzog. 75. Au. Mnchen: Beck,
2015.
Habermas, Jrgen. Der europische Nationalstaat unter dem Druck der Globa-
lisierung. In: Bltter fr internationale und europische Politik 44.4 (1999),
S. 425436.
Hahn, Tobias, Paul C. Johannes und Benjamin Lange. Schutzschilde gegen die
NSA. In: Datenschutz und Datensicherheit (DuD) 39.2 (2015), S. 7177.
Hansen, Marit. Interview with the UN Special Rapporteur on the Right to Privacy.
In: Datenschutz und Datensicherheit (DuD) 39.12 (2015), S. 786787.
Hoeren, Thomas. Das Pferd frisst keinen Gurkensalat berlegungen zur Internet
Governance. In: Neue Juristische Wochenschrift (NJW) 61.36 (2008), S. 2615
2619.
Internationalisierung vs. Nationalisierung 315
Internet und Recht - Neue Paradigmen des Informationsrechts. In: Neue Juris-
tische Wochenschrift (NJW) 51.39 (1998), S. 28492854.
Hoffmann-Riem, Wolfgang. Freiheitsschutz in den globalen Kommunikationsin-
frastrukturen. In: Juristenzeitung (JZ) 69.2 (2014), S. 5363.
Hornung, Gerrit. Eine Datenschutz-Grundverordnung fr Europa? In: Zeitschrift
fr Datenschutz (ZD) 2.3 (2012), S. 99106.
Jandt, Silke, Alexander Ronagel und B. Volland. Datenschutz fr SmartMeter,
Spezische Neuregelungen im EnWG. In: Zeitschrift fr Datenschutz (ZD) 1.3
(2011), S. 99103.
Johnson, David R. und David G. Post. Law and Borders The Rise of Law in
Cyberspace. In: Stanford Law Review 48.5 (1996), S. 13671402.
Karaboga, Murat, Tobias Matzner u. a. Das versteckte Internet: Zu Hause - Im Auto
- am Krper. White Paper. Karlsruhe: Forum Privatheit und selbstbestimmtes
Leben in der digitalen Welt, 2015.
Karaboga, Murat, Philip Schtz u. a. Selbstdatenschutz. White Paper. Karlsruhe:
Fraunhofer ISI und Forum Privatheit und selbstbestimmtes Leben in der digitalen
Welt, 2014. URL: http://www.forum-privatheit.de/ (besucht am 09. 09. 2016).
Kipker, Dennis-Kenji. Privacy by Default und Privacy by Design. In: Datenschutz
und Datensicherheit (DuD) 39.6 (2015), S. 410.
Klar, Manuel. Privatsphre und Datenschutz in Zeiten technischen und legislativen
Umbruchs. In: Die ffentliche Verwaltung (DV) 66.3 (Feb. 2013), S. 103112.
Kuner, Christopher und Jrg Hladjk. Rechtsprobleme der Kryptograe. In: Hand-
buch Multimedia-Recht: Rechtsfragen des elektronischen Geschftsverkehrs (Teil
17). Hrsg. von Bernd Holznagel u. a. 40. Ergnzungslieferung. Mnchen: Beck,
2014.
Lessig, Lawrence. Code: And Other Laws of Cyberspace, Version 2.0. New York:
Basic Books, 2006.
Lewinski, Kai von. Europisierung des Datenschutzrechts. In: DuD Datenschutz
und Datensicherheit 36.8 (2012), S. 564570.
Markoff, John. Internet Trafc Begins to Bypass the U.S. In: The New York Times
(29. Aug. 2008). URL: http://www.nytimes.com/2008/08/30/business/30pipes.
html (besucht am 08. 09. 2016).
Martini, Mario. Big Data als Herausforderung fr den Persnlichkeitsschutz und
das Datenschutzrecht. In: Deutsches Verwaltungsblatt (DVBl) 129.23 (2014),
S. 14811489.
Marvasti, Reza und Anna Rees. Smart Cities: Efcient, Sustainable, Digitised
Living. RESET gemeinntzige Stiftungs-GmbH. 2014. URL: https://en.reset.org/
knowledge/smart-cities-efcient-sustainable-digitised-living-10312014 (besucht
am 08. 09. 2016).
316 Christian L. Geminn und Maxi Nebel
Masing, Johannes. Ein Abschied von den Grundrechten. In: Sddeutsche Zeitung
(9. Jan. 2012), S. 9.
Herausforderungen des Datenschutzes. In: Neue Juristische Wochenschrift
(NJW) 65.32 (2012), S. 23052311.
McLuhan, Marshall. The Gutenberg Galaxy. Toronto: Univ. of Toronto Press, 1962.
Mhlich, Regina. Datenschutz und Industrie 4.0 eine sensible Annherung ist
notwendig. In: Zeitschrift fr Datenschutz (ZD) 14.8 (2014), S. 381382.
Nebel, Maxi und Philipp Richter. Datenschutz bei Internetdiensten nach der DS-
GVO. In: Zeitschrift fr Datenschutz (ZD) 2.9 (2012), S. 407413.
NETmundial Multistakeholder Statement. NETmundial Initiative, 24. Apr. 2014.
URL : http : / / netmundial . br / wp - content / uploads / 2014 / 04 / NETmundial -
Multistakeholder-Document.pdf (besucht am 08. 09. 2016).
Nguyen, Alexander. Die Subsidiarittsrge des Deutschen Bundesrates gegen
den Vorschlag der EU-Kommission fr eine Datenschutz-Grundverordnung. In:
Zeitschrift fr euoparechtliche Studien (ZEuS) 15.3 (2012), S. 277300.
Obama: China cyber attacks unacceptable. In: BBC News (12. Sep. 2015).
URL : http://www.bbc.com/news/world- us- canada- 34229439 (besucht am
08. 09. 2016).
Piltz, Carlo und Niclas Krohm. Was bleibt vom Datenschutz brig? Nebenwir-
kungen der Datenschutz-Grundverordnung. In: Privacy in Germany (PinG) 1.2
(2013), S. 5661.
Podlech, Adalbert. Inividualdatenschutz - Systemdatenschutz. In: Beitrge zum
Sozialrecht. Hrsg. von Klaus Brckner und Gerhard Dalichau. Percha: Verlag R.
S. Schulz, 1982, S. 451462.
Richter, Philipp. Die Wahl ist geheim . . . so what?, Big Data Mining im US-
Wahlkampf. Und hier? In: Die ffentliche Verwaltung (DV) 66.24 (2013),
S. 961970.
Ronellentsch, Michael. Fortentwicklung des Datenschutzes. In: Datenschutz
und Datensicherheit (DuD) 36.8 (2012), S. 561563.
Rosenbach, Marcel und Holger Stark. Der NSA-Komplex: Edward Snowden und
der Weg in die totale berwachung. Mnchen: Deutsche Verlags-Anstalt, 2014.
Ronagel, Alexander. Allianz von Medienrecht und Informationstechnik: Hoffnun-
gen und Herausforderungen. In: Allianz von Medienrecht und Informationstech-
nik? Ordnung in digitalen Medien durch Gestaltung der Technik am Beispiel von
Urheberschutz, Datenschutz, Jugendschutz und Vielfaltschutz. Hrsg. von Alexan-
der Ronagel. Bd. 24. Schriftenreihe des Instituts fr Europisches Medienrecht
Saarbrcken. Baden-Baden: Nomos, 2001, S. 1735.
Big Data Small Privacy? Konzeptionelle Herausforderungen fr das Daten-
schutzrecht. In: Zeitschrift fr Datenschutz (ZD) 3.11 (2013), S. 562566.
Internationalisierung vs. Nationalisierung 317
Das Gebot der Datenvermeidung und -sparsamkeit als Ansatz wirksamen tech-
nikbasierten Persnlichkeitsschutzes? In: Innovation, Recht und ffentliche
Kommunikation. Hrsg. von Martin Eifert und Wolfgang Hoffmann-Riem. Bd. IV.
Innovation und Recht. Berlin: Duncker & Humblot, 2011, S. 4166.
Datenschutz in einem informatisierten Alltag. Gutachten im Auftrag der Friedrich-
Ebert-Stiftung. Berlin, 2007.
Datenschutz in globalen Netzen: Das TDDSG - ein wichtiger erster Schritt. In:
Datenschutz und Datensicherheit (DuD) 23.5 (1999), S. 253257.
Datenschutzgesetzgebung: Monopol oder Vielfalt? In: Datenschutz und Da-
tensicherheit (DuD) 36.8 (2012), S. 553555.
Datenschutztechnik und -recht in globalen Netzen. In: Multimedia und Recht
(MMR) 1.9 (1998), S. VVII.
Globale Datennetze: Ohnmacht des Staates - Selbstschutz der Brger. In:
Zeitschrift fr Rechtspolitik (ZRP) 30.1 (1997), S. 2630.
Grundrechtsausgleich beim vernetzten Automobil, Herausforderungen, Leis-
tungsfhigkeit und Gestaltungsbedarf des Rechts. In: Datenschutz und Datensi-
cherheit (DuD) 39.6 (2015), S. 353358.
Weltweites Internet globale Rechtsordnung? In: Multimedia und Recht
(MMR) 5.2 (2002), S. 6771.
Ronagel, Alexander und Maxi Nebel. (Verlorene) Selbstbestimmung im Da-
tenmeer: Privatheit im Zeitalter von Big Data. In: DuD Datenschutz und
Datensicherheit 39.7 (2015), S. 455459.
Ronagel, Alexander, Andreas Ptzmann und Hansjrgen Garstka. Modernisierung
des Datenschutzrechts. Gutachten im Auftrag des Bundesministeriums des Innern.
Berlin, Sep. 2001.
Ronagel, Alexander, Philipp Richter und Maxi Nebel. Besserer Internetdaten-
schutz fr Europa. In: Zeitschrift fr Datenschutz (ZD) 3.3 (2013), S. 103
108.
Ronagel, Alexander und Philip Scholz. Datenschutz durch Anonymitt und Pseud-
onymitt: Rechtsfolgen der Verwendung anonymer und pseudonymer Daten. In:
Multimedia und Recht (MMR) 3.12 (2000), S. 721731.
Rost, Martin und Kirsten Bock. Privacy by Design und die neuen Schutzziele. In:
Datenschutz und Datensicherheit (DuD) 35.1 (2011), S. 3035. DOI: 10.1007/
s11623-011-0009-y.
Schaar, Peter. Lsst sich die globale Internetberwachung noch bndigen? In:
Zeitschrift fr Rechtspolitik (ZRP) 46.7 (2013), S. 214216.
Schneider, Jochen und Niko Hrting. Wird der Datenschutz endlich internettaug-
lich? In: Zeitschrift fr Datenschutz (ZD) 2.5 (2012), S. 199203.
318 Christian L. Geminn und Maxi Nebel
Dazu kommt, dass es schwierig ist und immer schwieriger wird, zu durchschauen,
wann welche Daten bei der Nutzung von Informationstechnik anfallen und wo diese
weiterverarbeitet werden, etwa bei Datenhndlern oder Dritten, welche zugekaufte
Dienste anbieten, die fr die Endnutzerinnen und -nutzer nicht erkenntlich sind.
Von einer bewussten, selbstbestimmten Preisgabe der Daten kann also in vielen
Fllen nicht gesprochen werden.
Aber auch demokratische Prozesse, der Meinungs- und Willensbildung nden
immer strker in digitalen Medien statt. Ein selbstbestimmter Umgang mit In-
formationen in diesen Medien ist daher konstitutiv sowohl fr die Ausbung der
individuellen Freiheitsrechte als auch fr die demokratische Willensbildung. Die
Nutzung dieser Medien geht aber mit einer erheblichen Bedrohung der informatio-
nellen Selbstbestimmung und damit auch der Handlungs- und Willensfreiheit einher.
Personenbezogene Daten werden nicht nur genutzt, um das Konsumverhalten von
Menschen gezielt anzuregen, sondern lngst auch um ihre politischen Handlungen
zu beeinussen.
Sieht man das Individuum neoliberal als Einzelkmpfer, der sich selbst um den
Schutz seiner Daten zu kmmern hat, und lsst staatliche und gesellschaftliche Ver-
antwortung auen vor, ignoriert man, dass der oder die Einzelne mit dieser Aufgabe
hoffnungslos berfordert ist. Die genutzte Technik beschrnkt den Handlungsrah-
men individueller Selbstbestimmung auf das, was sie technisch zulsst. Einzelne
Brgerinnen und Brger haben auf diesen technischen Rahmen kaum Einuss.
Auerdem sind sie gegenber IT-Konzernen und Geheimdiensten technisch vllig
unterlegen. Gleichzeitig knnen viele dieser Menschen, und ganz besonders Kinder,
Jugendliche, alte Menschen oder Menschen mit Behinderungen nicht in dem Sinn
selbstbestimmt handeln, wie eine individualistisch-verantwortungsbasierte Auffas-
sung der informationellen Selbstbestimmung suggeriert. Die Rede vom Privacy
Paradox ist ein rhetorisches Mittel, um die informationelle Selbstbestimmung auf
ein Recht zum Rckzug zu reduzieren. Informationelle Selbstbestimmung ist zwar
einerseits Individualschutz, andererseits aber auch Teil der objektiven Werteord-
nung des Grundgesetzes und Schutzauftrag an den Staat. Die erste Herausforderung
fr die informationelle Selbstbestimmung, oder besser gesagt fr alle, die in ihrem
Namen sprechen, in der Welt der sozialen Netzwerke und der allgegenwrtigen
Datenverarbeitung, ist es daher, sich diesen Wesenskern nicht ausreden zu lassen.
Die Folgen von individuellen Handlungen mit Informationstechnik betreffen
zudem nicht nur die Handelnden selbst. Daten, die eine Person preisgibt, erlauben
Rckschlsse ber ganz andere Personen. Selbst wenn diese Person also ihre
informationelle Selbstbestimmung zu ihrer eigenen Zufriedenheit ausben knnte,
kann dies ungewollte und problematische Effekte fr andere haben. Das Selbst der
informationellen Selbstbestimmung wird damit unschrfer. Wer der Betroffene
eines personenbezogenen Datums ist wird unklar in einer Zeit, in der Daten nicht
Ausblick 321
mehr als Speicherung einer Information sondern als immer neu zu interpretierender
und auf andere Daten beziehbarer Rohstoff fr Informationen gelten.
Die informationelle Selbstbestimmung wird derzeit durch zahlreiche sprunghafte
Technologieentwicklungen herausgefordert. Big Data, Ubiquitous Computing und
Smart Everything stellen das Schutzkonzept der informationellen Selbstbestim-
mung fundamental in Frage. Die Idee, dass der Umgang mit personenbezogenen
Daten auf vorher festgelegte Zwecke und auf ein hierfr erforderliches Ma be-
schrnkt wird erscheint vielen schon anachronistisch angesichts der praktischen
Alltagsdienste und groen Verheiungen, die mit der grenzenlosen Verfgbarkeit
der Daten verbunden sind. Datenbasierte Technologien sollen nicht nur ein Motor
fr die Wirtschaft sein, sondern das Gesundheitswesen, Erziehung und Bildung, die
ffentliche Verwaltung und viele andere Bereiche des Lebens verbessern. Vor allem
im kalifornischen Silicon Valley ist die Idee verbreitet, viele soziale und politische
Probleme lieen sich nun technisch lsen.
Zustzlich wurde der Datenschutz in Europa gerade umfassend reformiert. Die
Datenschutz-Grundverordnung gilt ab dem 25. Mai 2018. Auerdem wird hier-
durch bald die EU-Grundrechtecharta, die eine informationelle Selbstbestimmung
zumindest nicht ausdrcklich enthlt, eine zentrale Rolle fr die Auslegung da-
tenschutzrechtlicher Vorschriften spielen. Die informationelle Selbstbestimmung
wird also auch im deutschen Rechtssystem nicht mehr ohne Weiteres das Monopol
auf die Interpretation datenschutzrechtlicher Normen innehaben, sondern es wer-
den auch grundrechtliche Wertevorstellungen anderer EU-Mitgliedstaaten in diese
Auslegung einieen.
bestimmen, muss das nicht heien jede und jeder Einzelne bestimmt egozentrisch
fr sich. Auch Gruppen, Gemeinschaften, Gesellschaften, Angestellte einer Firma,
Mitglieder eines Berufsverbandes, Brger eines demokratischen Rechtsstaats und
viele mehr knnen auf berindividueller Ebene fr sich selbst bestimmen.
Die informationelle Selbstbestimmung enthlt diese Komponenten, einen staat-
lichen Schutzauftrag als Rahmen fr ein individuell oder kollektiv auszubendes
Grundrecht, von Beginn an. Sie hat daher nicht nur eine Zukunft, sondern ist ge-
nau das Grundrecht und die normativ leitende Idee, die ber dreiig Jahre nach
ihrer Erndung fr die Gestaltung und Anwendung von Informations- und Kom-
munikationstechnik wichtiger ist denn je. Die politische Entscheidung ber den
Umgang mit personenbezogenen Daten in der Welt von Big Data und Ubiquitous
Computing ist keine Entscheidung, die Grokonzernen berlassen werden darf, die
sie an die Menschen nur in der transformierten Form von Konsumentscheidungen
weiterleiten.
Frage, wo die Gewinne der datenbasierten Wirtschaft anfallen. Ist die Gesellschaft
beteiligt am Gewinn durch data mining oder ist sie blo der Datenrohstoff, der
von groen Unternehmen abgebaut wird?
Die weit verbreitete Nutzung der Dienste von Firmen wie Google, Facebook oder
Amazon bedeutet nicht, dass all die Nutzerinnen und Nutzer mit deren Umgang mit
Daten einverstanden wren. Viele nutzen die Dienste widerstrebend, z. B. aufgrund
mangelnder Alternativen, sozialen Drucks, anderer Vorteile, die gerade wichtig sind,
etc. Die kollektive Aushandlung von Datennutzungspraktiken darf sich deshalb
nicht darin erschpfen, Techniken zu nutzen oder eben nicht. Ein Raum fr die
kollektive Aushandlung des Umgangs mit Daten muss dazu in kritische Distanz
treten knnen. In diesem Sinn muss er ein politischer Raum sein.
Der Schutz von Privatheit und informationeller Selbstbestimmung muss als kol-
lektive und solidarische Aufgabe anerkannt werden. Diese braucht einen politischen
und sozialen Rahmen, der die Lsung dieser Aufgabe ermglicht. Dazu gehrt
insbesondere die Strkung reprsentativer Strukturen, auch die Reprsentation der
Interessen von Minderheiten, von Menschen, die keine europische Staatsbrger-
schaft haben, wie z. B. Gechtete und anderer, die in der ffentlichen Debatte oft
zu selten zu Wort kommen. Weitere Formen dieser kollektiven Auseinandersetzung
zu nden, ist ein Auftrag fr die Forschung und die Politik gleichermaen.
Wo die informationelle Selbstbestimmung als Grundrecht durch die Europi-
sche Datenschutzreform nicht mehr anwendbar ist, sondern die EU-Grundrechte
entscheidend werden, wird es schlielich darauf ankommen, das Schutzkonzept
der informationellen Selbstbestimmung in die Rechtsprechung des Europischen
Gerichtshofs bei seiner Auslegung und Konkretisierung dieser Grundrechte hinein
zu transportieren.
Fragen des Umgangs mit Daten mssen auerdem auch im breiteren Kotext von
Fragen ber Wissen und Nichtwissen diskutiert werden. Was sollte wer wissen
und was nicht? Oder besser gesagt, welches Wissen drfen Institutionen und Un-
ternehmen erlangen und welches nicht? Auch Informationen ohne Personenbezug
erffnen neue Strategien der Beeinussung individueller und ffentlicher Willens-
bildung fr die Datenakteure. Unwissen, auch in der Anonymitt, ist ein Bereich
in den die informationelle Selbstbestimmung bisher nicht hineinreicht. Wird sie
dies mssen oder wird dies ein anderes Grundrecht leisten mssen? Auch wenn
es zunchst paradox klingt: Gibt es nicht Bereiche in denen Handlungen nicht auf
Wissen beruhen drfen, sondern sich auf Vertrauen sttzen mssen, um Freiheit zu
erhalten?
Verzeichnis der Verfasserinnen und Verfasser
Prof. Dr. Dominik van Aaken ist Professor fr strategisches Management und
Organisation an der Universitt Salzburg. Er forscht zu Themen der Strategie,
Unternehmensethik und Organisationstheorie.
Prof. Dr. Marion Albers, Studium der Rechtswissenschaft und Soziologie und
Ttigkeit u. a. als wissenschaftliche Mitarbeiterin am Bundesverfassungsgericht,
gegenwrtig Inhaberin des Lehrstuhls fr ffentliches Recht, Informations- und
Kommunikationsrecht, Gesundheitsrecht und Rechtstheorie an der Fakultt fr
Rechtswissenschaft der Universitt Hamburg. Forschungsschwerpunkte: Verfas-
sungsrecht, Informationsrecht, Datenschutz, Gesundheitsrecht, Rechtstheorie und
Rechtssoziologie.
Carlos Becker, M.A. ist wissenschaftlicher Mitarbeiter an der Goethe Universitt
Frankfurt a. M. In seiner Dissertation beschftigt er sich mit der Legitimation
von Widerstandsrechten und zivilem Ungehorsam. Er ist zudem angestellt im
interdisziplinren Forschungsprojekt Strukturwandel des Privaten, in dem er sich
mit dem Verhltnis von kommunikativer Freiheit und Privatheit, dem Konzept der
group privacy und einer sozialphilosophischen Kritik der Privatheit auseinander-
setzt. Weitere Forschungsschwerpunkte liegen im Bereich der Kritischen Theorie,
aktuellen Demokratietheorie und Stadtsoziologie.
Niels Brggen arbeitet seit 2007 als wissenschaftlicher Mitarbeiter am JFF - In-
stitut fr Medienpdagogik in Forschung und Praxis in Mnchen. Seit 2016 ist
er Stellvertreter der Abteilungsleitung Forschung. Er studierte Kommunikations-
und Medienwissenschaft (Schwerpunkt Medienpdagogik), Informatik und Er-
ziehungswissenschaft an der Universitt Leipzig und der Dublin City University
und war anschlieend wissenschaftlicher Mitarbeiter an der Universitt Leipzig.
Schwerpunkte seiner Arbeit sind u. a. Jugendliche und deren Aneignung digita-
ler Medien (z. B. Umgang mit persnlichen Informationen und Konikten im
Netz, Kenntnis ber Verbraucherrechte), die Untersuchung pdagogischer Kon-
zepte zur Arbeit mit Jugendlichen zu Themen wie Big Data, Persnlichkeits- und
Verbraucherrechten sowie die Mediatisierung von Jugendarbeit.
Prof. Dr. Clemens H. Cap hat in Innsbruck Mathematik, Informatik und Physik
studiert. Nach Lehrttigkeiten an den Universitten Zrich und Mannheim leitet
Springer Fachmedien Wiesbaden GmbH 2017
M. Friedewald et al. (Hrsg.), Informationelle Selbstbestimmung im digitalen
Wandel, DuD-Fachbeitrge, DOI 10.1007/978-3-658-17662-4
326 Verzeichnis der Verfasserinnen und Verfasser
Malte Dold, M.A. ist seit dem Jahr 2012 wissenschaftlicher Mitarbeiter und Dok-
torand bei Prof. Dr. Tim Krieger, Wilfried-Guth-Stiftungsprofessor fr Ordnungs-
und Wettbewerbspolitik an der Albert-Ludwigs-Universitt Freiburg. In seiner
Promotion beschftigt er sich mit methodologischen und normativen Implikatio-
nen der Experimental- und Verhaltenskonomik. Aktuell besucht Herr Dold die
New York University fr einen neunmonatigen Forschungsaufenthalt bei Prof. Dr.
Mario Rizzo.
Prof. Dr. Tim Krieger ist seit dem Jahr 2012 Inhaber der Wilfried-Guth-Stif-
tungsprofessor fr Ordnungs- und Wettbewerbspolitik an der Albert-Ludwigs-
Universitt Freiburg. Nach dem Studium der Volkswirtschaftslehre an der Universi-
tt Kiel und der Promotion an der Universitt Mnchen war er Juniorprofessor fr
Internationale Wirtschaftspolitik an der Universitt Paderborn sowie Lehrstuhlver-
treter an den Universitten Mainz und Marburg. Seine Forschungsschwerpunkte
liegen im Bereich der Ordnungspolitik, der Wirtschafts-, Sozial- und Bildungspoli-
tik in alternden Gesellschaften in Zeiten der Globalisierung sowie der konomisch
fundierten Kriminalitts-, Gewalt- und Terrorismusforschung.
Dr. Tobias Matzner ist Philosoph und Informatiker und arbeitet an der Schnitt-
stelle von politischer Theorie und Technikphilosophie. Seine Forschungsschwer-
punkte sind normative Theorien der Privatheit sowie Probleme von Algorithmen,
Automatisierung und maschinellem Lernen. Er ist Mitglied im Internationalen
Zentrums fr Ethik in den Wissenschaften in Tbingen und derzeit als Feodor
Lynen-Stipendiat an der New School for Social Research in New York ttig.
Dr. Ricarda Moll, Dipl.-Psych., forscht zum Thema Privatheit im Kontext digi-
taler Medien. Nach ihrer Promotion im DFG-Graduiertenkolleg Vertrauen und
Kommunikation in einer digitalisierten Welt arbeitet sie derzeit bei der Verbrau-
cherzentrale NRW im Gemeinschaftsprojekt Marktwchter Digitale Welt.
(NL). Seit 2014 ist er zudem als geschftsfhrender Direktor des 4TU.Centre for
Ethics and Technologies (4TU.Ethics) ttig.
Prof. Dr. Dres. h.c. Arnold Picot leitet die Forschungsstelle fr Information, Or-
ganisation und Management der LMU Mnchen. Er interessiert sich insbesondere
fr Wechselwirkungen zwischen IuK-Technologien und Strukturen von Mrkten
und Unternehmen.
Dr. habil. Ramn Reichert war 2009-13 Professor fr Digitale Medien am In-
stitut fr Theater-, Film- und Medienwissenschaft der Universitt Wien. Seit
Frhjahr 2014 ist er Leiter der postgradualen Masterstudiengnge Data Studies
und Cross Media an der Donau-Uni Krems und als leitender Herausgeber und
Chefredakteur der internationalen Fachzeitschrift Digital Culture & Society
ttig. Er lehrt und forscht mit besonderer Schwerpunktsetzung des Medienwandels
und der gesellschaftlichen Vernderungen in den Wissensfeldern von Theorie und
Geschichte digitaler Medien.
Dipl.-Inform. Sven Trpe ist Informatiker und Enfant terrible zweiter Klasse am
Fraunhofer-Institut SIT. Er beschftigt sich vor allem mit Sicherheitsanalysen,
Sicherheitsparadigmen und nichttechnischen Sicherheitsfaktoren.
Prof. Dr. Karsten Weber ist Ko-Leiter des Instituts fr Sozialforschung und Tech-
nikfolgenabschtzung an der OTH Regensburg und Honorarprofessor fr Kultur
und Technik an der BTU Cottbus-Senftenberg. Er beschftigt sich unter anderem
mit Technikethik, -bewertung und folgenabschtzung vor allem im Bereich der
Informations- und Kommunikationstechnologie.
BDSG Bundesdatenschutzgesetz
BGH Bundesgerichtshof
BLM Bayerischen Landeszentrale fr neue Medien
BNDG Gesetz ber den Bundesnachrichtendienst
BVerfG Bundesverfassungsgericht
GG Grundgesetz
GPS Global Positioning System
GrC Grundrechte der Charta der Europischen Union; Grundrechte-
Charta
IP Internet Protocol
IPbpR Internationaler Pakt ber brgerliche und politische Rechte
iSB informationelle Selbstbestimmung
ISO International Organization for Standardization
IT Informationstechnik
i.V.m. in Verbindung mit
TA Trusted Authority
TKG Telekommunikationsgesetz
TLS Transport Layer Security
TOR The Onion Routing; The Onion Router