Sie sind auf Seite 1von 12

Session 6: Conversational UIs

User-friendly Formulation of Data Processing Purposes of


Voice Assistants – A User Perspective on the Principle of Pur-
pose Limitation
Die nutzerInnenfreundliche Formulierung von Zwecken der Datenverarbeitung von Sprachassistenten
- Die Ausgestaltung des Zweckbindungsprinzips aus NutzerInnensicht

Timo Jakobi, Maximilian von Grafenstein Dominik Pins,


Gunnar Stevens
Einstein Center for Digital Future Alexander Boden
Universität der Künste Berlin Fraunhofer FIT
Verbraucherinformatik Berlin, Deutschland
Universität Siegen Sankt Augustin, Deutschland
m.von-grafenstein@udk-berlin.de vorname.nachname@fit.fraun-
Siegen, Deutschland
vorname.nachname@uni-sie- hofer.de
gen.de
tisch ausgewertet haben. Da in den Datenschutzhinweisen ange-
geben war, dass Daten auch zur Verbesserung des Dienstes ge-
ABSTRACT nutzt würden, war diese Nutzung legal. Für die NutzerInnen
English - In 2019 it was revealed that several providers of voice stellte diese Auswertung jedoch einen deutlichen Bruch mit ihren
assistants had systematically evaluated voice recordings of their Privatheitsvorstellungen dar. Das Zweckbindungsprinzip der
users. Since the data protection notices stated that data would also DSGVO mit seiner Komponente der Zweckspezifizierung fordert
be used to improve the service, this use was legal. For the users, neben Flexibilität für den Verarbeiter auch Transparenz für den
however, this evaluation represented a clear break with their ex- Verbraucher. Vor dem Hintergrund dieses Interessenkonflikts
pectations of privacy. The purpose limitation principle of the stellt sich für die HCI die Frage, wie Verarbeitungszwecke von
GDPR with its component of purpose specification requires flexi- Sprachassistenten gestaltet sein sollten, um beide Anforderungen
bility for the processor as well as transparency for the consumer. zu erfüllen. Für die Erhebung einer Nutzerperspektive analysiert
Against the background of this conflict of interest, the question diese Studie zunächst Zweckangaben in den Datenschutzhinwei-
arises for HCI as to how processing purposes of voice assistants sen der dominierenden Sprachassistenten. Darauf aufbauend prä-
should be designed to meet both requirements. To collect a user sentieren wir Ergebnisse von Fokusgruppen, die sich mit der
perspective, this study first analyzes the data protection infor- wahrgenommenen Verarbeitung von Daten von Sprachassisten-
mation of the dominant voice assistants. Based on this, we present ten aus Nutzersicht befassen. Es zeigt sich, dass bestehende
results of focus groups that deal with the perceived processing of Zweckformulierungen für VerbraucherInnen kaum Transparenz
data of voice assistants from the user perspective. The study über Folgen der Datenverarbeitung bieten und keine einschrän-
shows that existing purpose statements offer hardly any transpar- kende Wirkung im Hinblick auf legale Datennutzung erzielen.
ency for consumers regarding the consequences of data pro- Unsere Ergebnisse über von Nutzern wahrgenommene Risiken er-
cessing and do not have any restrictive effect with regard to legal lauben dabei Rückschlüsse auf die anwenderfreundliche Gestal-
data use. Our results on risks perceived by users allow us to draw tung von Verarbeitungszwecken im Sinne einer Design-Res-
conclusions about the user-friendly design of processing purposes source.
in terms of a design resource.
CCS CONCEPTS
Deutsch - 2019 wurde bekannt, dass mehrere Anbieter von
Sprachassistenten Sprachaufnahmen ihrer NutzerInnen systema- •Human-centered computing~Human computer interaction
(HCI)~Empirical studies in HCI •Security and privacy~Human
Permission to make digital or hard copies of all or part of this work for personal and societal aspects of security and privacy~Usability in security
or classroom use is granted without fee provided that copies are not made or
distributed for profit or commercial advantage and that copies bear this notice
and the full citation on the first page. Copyrights for components of this work
KEYWORDS
owned by others than the author(s) must be honored. Abstracting with credit is Datenschutz, Datenschutzerklärungen, Zweckbindung, Zweck-
permitted. To copy otherwise, or republish, to post on servers or to redistribute spezifizierung, Legal Design
to lists, requires prior specific permission and/or a fee. Request permissions
from Permissions@acm.org.
MuC'20, September 6–9, 2020, Magdeburg, Germany ACM Reference format:
© 2020 Copyright is held by the owner/author(s). Publication rights licensed to Timo Jakobi, Max von Grafenstein, Dominik Pins, Alexander Boden and
ACM. Gunnar Stevens. 2020. Über die nutzerInnenfreundliche Formulierung von
ACM ISBN 978-1-4503-7540-5/20/09…$15.00 Zwecken der Datenverarbeitung von Sprachassistenten: Eine Interpreta-
https://doi.org/10.1145/3404983.3405588 tion des Zweckbindungsprinzips aus NutzerInnensicht. In Proceedings of

361
Session 6: Conversational UIs

MuC’20, September 6–9, 2020, Magdeburg, Germany T. Jakobi et al.

Mensch und Computer 2020 (MUC20). ACM, Magdeburg, Germany, 12 pages. 1. gegenwärtig genutzte Zweckbeschreibungen aus Daten-
https://doi.org/10.1145/1234567890 schutzerklärungen für VerbraucherInnen oft nutzlos sind.
Sie erfüllen insbesondere nicht die Funktion, Folgen der Da-
tenverarbeitung verständlich zu machen, so dass Verbrau-
1 Einleitung cherInnen wahrgenommene Risiken unter der Angabe be-
Digitale Sprachassistenten verbreiten sich seit einigen Jahren stimmter Zwecke ausschließen könnten.
stark in Privathaushalten [8]. Sie dienen dabei als Einstiegstor in 2. VerbraucherInnen selbst Datenschutz-Risiken von Sprach-
ein wachsendes Ökosystem von datenbasierten Diensten, die assistenten artikulieren. Damit stellen wir ein gestalteri-
Dritte über Apps für Sprachassistenten entwickeln können. Diese sches Konzept sowie einen Grundstock von wahrgenomme-
Sprach-Apps umfassen ähnlich wie im Falle von Smartphones nen Risiken für die gebrauchstaugliche Gestaltung von Ver-
sämtliche Lebensbereiche. Im Gegensatz zum Smartphone kom- arbeitungszwecken bereit.
munizieren alle Sprach-Apps zentral über die Cloud des Herstel- 3. die HCI die Auslegung der DSGVO mit einer evidenzbasier-
lers des Sprachassistenten, um dort als Audio und Text gespei- ten Forschung unterstützen kann, um bspw. die Effektivität
chert zu werden. Diese thematisch potentiell extrem weit gefä- technischer und organisatorischer Schutzmaßnahmen empi-
cherten Daten bieten Potential für unterschiedlichste Anwen- risch zu überprüfen.
dungsfälle und Nutzungsmöglichkeiten.
Dem gegenüber steht die Einhaltung datenschutzrechtlicher Ver-
pflichtungen: So untersteht die Verarbeitung personenbezogener 2 Usable Privacy für Sprachassistenten und Da-
Daten in der EU der Datenschutzgrundverordnung (DSGVO). Ei- tenschutzhinweise
nes ihrer Prinzipien ist die Zweckbindung von Datenverarbei- Der sozio-informatische Ansatz der mehrseitigen Sicherheit [33,
tung, die besagt, dass Daten nur für „festgelegte, eindeutige und 34, 37] und der Usable Privacy [3] bilden den Rahmen der Studie.
legitime“ (DSGVO, Art. 5 (1) b)) Zwecke genutzt werden dürfen. Sie ermöglichen es, rechtliche, ethische und soziale Fragen im
Um etwa die Innovationsfähigkeit von Unternehmen zu wahren, Umgang mit VerbraucherInnendaten in den Blick zu nehmen und
sollen diese Zwecke durchaus flexibel interpretiert werden kön- neue Formen der Förderung digitaler Souveränität zu erproben.
nen. Andererseits müssen sie jedoch auch die Aufgabe erfüllen, Eine Linse die für gebrauchstauglichen Datenschutz in der HCI
den Verbraucher über Folgen der Datenverarbeitung zu informie- häufig genutzt wird, ist die Analyse von Risiken, wie NutzerInnen
ren und Transparenz zu schaffen (Erwägungsgrund 39, DSGVO). sie wahrnehmen [15, 18, 19, 22, 38]. Diese Risikowahrnehmung
Transparenzmaßnahmen für die Funktion von Systemen zu schaf- steht daher auch im Fokus unserer Untersuchungen, da sie für
fen ist eine der typischen Aufgaben von Forschung der HCI [20, Sprachassistenten bisher nicht fokussiert gesammelt wurden, son-
21, 44]. Ein natürlicher Ort für Informationen über Datenverarbei- dern eher als Nebenprodukt entstanden sind (wie bspw. in [24]).
tungspraktiken, sind Datenschutzhinweise. Die Problematik ihrer
Unzugänglichkeit ist jedoch gut erforscht [31, 40]. Spezifisch für 2.1 Akzeptanzstudien zu Sprachassistenten
Sprachassistenten zeigen Abdi et. al [1], dass für NutzerInnen die
Forschung der HCI zur Akzeptanz von Sprachassistenten ist
Datenerhebung, -weitergabe und -nutzung meist unbemerkt er-
vielfältig. So zeigen sich bspw. grundsätzliche Vorbehalte in der
folgt und wenig nachvollziehbar ist. Verschiedene Medien berich-
ten zum Beispiel über die Praxis großer Anbieter von Sprachassis- Öffentlichkeit, mit Sprachassistenten zu interagieren [30]. Mit
tenten Mitarbeiter Sprachaufnahmen auswerten zu lassen [11, 17, konkreterem Bezug auf Privatheitsbedenken zeigen
beispielsweise Easwara, Moorthy & Vu [12] für Sprachassistenten
42]. Obwohl legal, wurden die Praktiken der Auswertung zur Ver-
in Smartphones, wie NutzerInnen das Senden privater
besserung der Spracherkennung (Human in the loop-Ansatz) von
Informationen von einigen Umgebungsvariablen abhängig
Nutzern nicht als legitim wahrgenommen. Mit der Verarbeitung
machten, wobei jedoch eher das Problem des Mithörens durch
von Daten muss offenbar nicht nur Legalität sichergestellt werden
Dritte bei der Sprach-Eingabe selbst im Vordergrund steht. In
muss, sondern auch Legitimität im Sinne von NutzerInnenakzep-
Hinblick auf die Vernetzung des Haushaltes werden intelligente
tanz.
Lautsprecher mit Mikrofonen, die integrierte Sprachassistenten
Im Sinne einer mehrseitigen Sicherheit [46, 47] gilt es deshalb, die
benutzen, als einer der aufdringlichsten Sensoren
Interessen der verschiedenen Parteien zu identifizieren und mög-
wahrgenommen [32]. So fanden Pradhan et al. [36] beispielsweise,
liche Strategien zu entwickeln, diese in Einklang zu bringen. Als
wie TeilnehmerInnen ihrer Studie das Mikrofon während
Ausgangspunkt dafür haben wir uns sowohl von Praxis- als auch
sensibler Gespräche ausschalteten oder sogar von der
VerbraucherInnen-Seite an die Thematik angenähert. Wir haben
Stromversorgung trennten. Diese Aktivitäten zeugen von
einerseits die Datenschutzhinweise der größten Anbieter von
Misstrauen in die Hersteller, dass Mikrofone dauerhaft
Sprachassistenten [4] analysiert. Ein Fokus lag dabei darauf, die
angeschaltet und kontinuierlich mithören könnten [24]. Lau et al.
angegebenen Zwecke der Datenverarbeitung zu analysieren. Um
[24] zeigen zwar erste Privatheitssorgen von NutzerInnen, zeigen
die Verbraucherperspektive zu explorieren, haben wir zwei Work-
jedoch keine geordnete Sammlung von wahrgenommenen Risi-
shops durchgeführt, um Privatheitsbedarfe und Vorbehalte ge-
ken. Aus unserer Sicht noch Ergänzungspotential besteht, insbe-
genüber der Nutzung von Sprachassistenten auszuleuchten.
sondere wenn es darum geht eine Verbindung zum Prinzip der
Diese Studie liefert damit sowohl inhaltliche als auch programma-
Zweckbindung herzustellen.
tische Beiträge zur Ausrichtung HCI, indem sie zeigt, wie:

362
Session 6: Conversational UIs

Die nutzerInnenfreundliche Formulierung von Zwecken der Da-


MuC’20, September 6–9, 2020, Magdeburg, Germany
tenverarbeitung von Sprachassistenten

2.2 Gebrauchstauglichkeit von Datenschutz- daher begonnen, bspw. die Umsetzung von Betroffenenrechten
hinweisen aus NutzerInnensicht auf Effektivität hin zu untersuchen [5].
Der Grundsatz der Zweckbindung in Artikel 5 (1) b) DSGVO sieht
Datenschutzhinweise stellen für NutzerInnen eine der wichtigs-
vor, dass personenbezogene Daten für festgelegte, ausdrückliche
ten Möglichkeiten dar, sich über die Nutzung ihrer Daten zu in-
und rechtmäßige Zwecke erhoben werden müssen und nicht in
formieren. Ihre Gestaltung wurde schon in vielerlei Hinsicht un-
einer mit diesen Zwecken unvereinbaren Weise verwendet wer-
tersucht, denn es gilt als anerkannt, dass das Lesen von Daten-
den dürfen. Das Prinzip soll den betroffenen Personen Transpa-
schutzhinweisen eine hohe zeitliche und kognitive Belastung dar-
renz und Kontrolle über die Verarbeitung „ihrer“ Daten ermögli-
stellt, sie schwer zu lesen sind [31, 43] oder gar nicht gelesen wer-
chen. Dementsprechend muss der oder die für die Verarbeitung
den [45].
Verantwortliche seine Verarbeitungszwecke spezifizieren und sie
Im Bereich der gebrauchstauglichen Gestaltung von Datenschut-
in einer Weise explizit machen, die es den BenutzerInnen (oder
zerklärungen werden etwa unterschiedliche Methoden der Aufbe-
genauer: den „betroffenen Personen“), die Daten in einem be-
reitung und Gestaltung von Datenschutzerklärungen genutzt, wie
stimmten Kontext - etwa im Zusammenhang mit einem Dienst-
beispielsweise die (halb-) automatische Analyse [50], oder ein in-
leistungsabonnement - offenlegen, ermöglicht zu verstehen, wo-
teraktives Dialogsystem [39]. Um die Rechtstexte gestalterisch
für ihre Daten von dem/den jeweiligen Datenverarbeiter(n) ver-
aufwerten zu können, haben Kelley et al. die Analogie zu Nähr-
wendet werden können. Gleichzeitig sollten die von den für die
wertinformationen erprobt [23]. Schaub et al. haben dagegen ei-
Verarbeitung Verantwortlichen vorgesehenen Zwecke auch ge-
nen Gestaltungsraum für effektive Datenschutzhinweise entwi-
nügend Flexibilität lassen, um die Verwendung der Daten inner-
ckelt [41]. Trojer et al. [48] schlagen vor, die Herausgeber von Da-
halb eines angemessenen Spielraums zu ändern und/oder zu er-
tenschutzrichtlinien durch die Verwendung von Vorlagen bei der
weitern. Als Rechtsgrundsatz schafft der Grundsatz der Zweck-
Erstellung korrekter und transparenter Richtlinien zu unterstüt-
bindung jedoch Auslegungslücken, die eine inhärente Spannung
zen. In ähnlicher Weise präsentieren Brodie et al. [9] eine Fallstu-
zwischen den Interessen der betroffenen Personen und denen der
die zur Entwicklung von Werkzeugen, die die Erstellung, Umset-
Datenverarbeiter erzeugen können [8]. Aus der Sicht der Nutze-
zung und Überwachung der Einhaltung von Datenschutzrichtli-
rInnen kann die Verwischung der durch die Zwecke definierten
nien erleichtern. Ebenso wird das Potenzial für die Unterstützung
Grenzen eine Ausweitung der Verarbeitungspraktiken über die
von NutzerInnen bei der Entscheidungsfindung zum Datenschutz
ursprüngliche Absicht und sogar über die Zustimmung hinaus er-
untersucht [26, 40].
möglichen, die auch als „function creep“ bezeichnet wird [10, 49].
Die Frage der Wirksamkeit von Datenschutzhinweisen ist inso-
fern aktuell, als beispielsweise „Dark Patterns“ im User Experi-
ence Design entstanden sind [16, 27]. Die Tatsache, dass Daten- 3 Methode
schutzrichtlinien NutzerInnen gezielt in die Irre zu führen [2] oder
Um eine Gegenüberstellung von bestehenden Zwecken der Ver-
im Unklaren lassen können [29], unterstreicht deren Ineffektivi-
arbeitung und den von NutzerInnen wahrgenommenen Verarbei-
tät. Forgó et al. gehen dabei so weit, zu sagen, dass der Grundsatz
tungen zu erlangen, haben wir zwei Schritte durchgeführt. Zu-
der Zweckbindung mit Big Data per se nicht vereinbar sei [13].
nächst beschreiben wir hier unser Vorgehen in der Untersuchung
Neben dem Fehlen echter Wahlmöglichkeiten ist die Mehrdeutig-
der Datenschutzhinweise der zurzeit dominierenden Anbieter von
keit eines der vorherrschenden Probleme bei der Gebrauchstaug-
Sprachassistenten. Anschließend beschreiben wir die Zusammen-
lichkeit von Datenschutzrichtlinien. Die genutzten Formulierun-
setzung, Durchführung und Analyse unserer Fokusgruppen, um
gen selbst, stehen aber meist nicht im Fokus von Untersuchungen
NutzerInnenperspektiven auf mögliche Verarbeitungen von
der HCI, sondern werden als quasi-gegeben hingenommen. Wäh-
Sprachassistenz-Daten zu erhalten.
rend sie zwar rechts-praktisch etablierte Ausdrucksweisen bein-
halten mögen, ist ihre konkrete Formulierung nicht vorgeschrie-
ben. Hieraus ergibt sich für die HCI ein Gestaltungsraum rund um
3.1 Analyse der Datenschutzhinweise
die gebrauchstaugliche Beschreibung der Nutzung von Daten, den In der Analyse der Datenschutzhinweise haben wir uns 2019 die
es aus NutzerInnensicht zu untersuchen gilt. Diese Studie möchte dominierenden fünf Anbieter von Sprachassistenten angesehen.
daher einen ersten Impuls dahingehend liefern, diesen Gestal- Diese Anbieter sind Amazon (Alexa), Samsung (Bixby), Microsoft
tungsraum im Sinne von Transparenz für VerbraucherInnen zu (Cortana), Google (Google Assistant) und Apple (Siri) [4]. Dazu
interpretieren, um Datenschutzhinweise wieder stärker mit für wurden die jeweiligen Webseiten der Anbieter herangezogen,
VerbraucherInnen anschlussfähigen und sinnhaften Informatio- heruntergeladen und analysiert.
nen auszustatten. Insbesondere wurden die Datenschutzhinweise auf Verarbei-
tungszwecke hin untersucht – jeweils unabhängig voneinander
2.3 Das Prinzip der Zweckbindung von einem der Autoren und einem Studenten der Rechtswissen-
schaften. Konflikte, insb. in der Aggregation für eine Übersicht
Die DSGVO hat die Relevanz einer empirischen Überprüfung der
der Zwecke, wurden in der Diskussion behoben. Da alle Anbieter
Effektivität der Information von Verbrauchern durch Daten-
explizite Sektionen für die Zweckangaben hatten, wurden auch
schutzhinweise noch einmal erhöht: Maßnahmen zum Daten-
schutz sollen nach DSGVO „effektiv“ sein. Erste Arbeiten haben

363
Session 6: Conversational UIs

MuC’20, September 6–9, 2020, Magdeburg, Germany T. Jakobi et al.

lediglich diese Zweckangaben aufgenommen. Dies hatte zwei we- dass die TeilnehmerInnen aus Interesse an der Thematik und Ei-
sentliche Vorteile: Einerseits wurden Abweichungen zwischen genantrieb erschienen. Gesucht wurde, aufgrund der örtlichen Li-
den beiden Codern minimiert, wichtiger jedoch, stellt eine Inter- mitierung in einer der größten deutschen Metropolregionen mit
pretation von Rechtstexten schon für Juristen eine Schwierigkeit mehreren Millionen Einwohnern.
dar, sodass dies vermieden werden sollte und sich stattdessen In den beiden Fokusgruppen hatten wir elf TeilnehmerInnen, von
größtmöglich an den konkreten Text der Datenschutzerklärungen denen vier weiblich waren. Das Alter der TeilnehmerInnen vari-
gehalten wurde. Die am häufigsten genutzten Zwecke wurden in ierte zwischen 25 und 62 Jahren, alle bis auf eine Studentin waren
die Diskussion der Fokusgruppen eingespeist, um über ihre Sinn- berufstätig, die meisten mit einem Hochschulabschluss. In der
haftigkeit und Anschlussfähigkeit an Privatheitspraktiken aus Vorstellungrunde schrieben sich die TeilnehmerInnen selbst sehr
Nutzersicht zu diskutieren. unterschiedlich stark ausgeprägtes technisches Wissen zu, vom
Gelegenheitsinternet-NutzerInnen bis hin zum IT-Hobbyisten.
3.2 Fokusgruppen Die Haushaltsgröße variierte ebenfalls zwischen Single-Haushalt
3.2.1 Ablauf. Die Fokusgruppen wurden in vier aufeinander und einer vierköpfigen Familie. Während alle TeilnehmerInnen
aufbauenden Phasen abgehalten. Nach einer Begrüßung und Vor- die Technologie recht gut kannten, nutze die Mehrheit sie noch
stellung wurde zunächst ein gemeinsames Verständnis der Tech- nicht, oder hatte auch keine Absicht sie zu nutzen (5). Eine Teil-
nologie hergestellt. Dafür wurde besprochen, welche Sprachassis- nehmerin besaß drei Google Home Produkte und nutzte den
tenten TeilnehmerInnen kannten und wie diese aus ihrer Sicht Google Assistant auf dem Smartphone, ein weiterer benutzte
funktionieren würden. Im zweiten Schritt wurde über Anwen- Spracheingabe von Alexa über den FireTV Stick und verfügte über
dungsszenarien gesprochen. Hierzu zählten sowohl Szenarien, die Samsungs Bixby. Ein anderer Teilnehmer nutzte den Google
die NutzerInnen selbst anwandten, als auch solche, die sie kann- Sprachassistenten für Navigation. Ein weiterer Teilnehmer be-
ten oder sich vorstellen konnten. Anschließend wurde darüber ge- richtet von Cortana als Assistent auf seinem Computer und einem
sprochen, was die TeilnehmerInnen explizit nicht mit einem Google Assistant auf seinem Telefon. Schließlich erwähnte ein
Sprachassistenten tun möchten. In diesem Stadium lag schon die Teilnehmer einen Sprachassistenten auf seinem Telefon, jedoch
Frage, „warum“ die TeilnehmerInnen eine Aufgabe nicht einem nicht den Anbieter (siehe Tabelle 1).
Sprachassistenten zukommen lassen würden: So fragten wir in ei- 3.2.3 Datenanalyse. Die Workshops wurden jeweils auf Ton-
nem dritten Schritt nach Nutzungen der Daten, die NutzerInnen band aufgenommen und transkribiert. Anschließend wurden die
durch Interaktion mit den Geräten befürchteten. Dabei haben wir Transkripte von zwei ForscherInnen unabhängig codiert im Sinne
uns insbesondere auf unerwünschte Verarbeitungen fokussiert. einer Inhaltsanalyse nach Mayring [28] aufbereitet. In einem
Abschließend konfrontierten wir die TeilnehmerInnen mit den zweiten Schritt wurden mit einem der Autoren, Unterschiede und
am weitesten verbreiteten Zweckangaben aus der Analyse der Da- Abweichungen diskutiert und konsolidiert.
tenschutzerklärungen der Sprachassistenten. Unser Interesse galt
hier der limitierenden Funktion der Zwecke: Die zentrale Frage
war, inwieweit die TeilnehmerInnen bestimmte Zwecke so ver-
4 Ergebnisse
standen, dass diese einige der zuvor von ihnen benannten Risiken In diesem Abschnitt zeigen wir die jeweiligen Ergebnisse der bei-
ausschließen würden. den empirischen Schritte. Unser Fokus liegt jeweils auf der Samm-
3.2.2 TeilnehmerInnen. Die Akquise lief über Radio, Zeitungs- lung und dem Verständnis von Risiko-Zuschreibungen als mögli-
beiträge und Internet, wobei sowohl soziale Medien als auch Pro- che Ressource für gebrauchstauglichen Datenschutz.
jekt-Webseite und dritte Webseiten als Multiplikatoren genutzt
wurden. Es wurde keine Aufwands-Entschädigung gezahlt, so 4.1 Datenschutzhinweise
Zunächst zeigte sich, dass es für die jeweiligen Sprachassistenten
Tabelle 1: Ausstattung der Haushalte mit Sprachassisten- bei keinem der Anbieter dezidierte Datenschutzhinweise gab. Es
ten wurde jeweils auf die globale Datenschutzerklärung verwiesen,
die über die Webseite zugänglich war. In den jeweiligen Doku-
W1-P1 Smartphone (unklarer Hersteller) menten existierten allerdings Abschnitte für Zweckangaben, die
W1-P2 Fire TV Fernbedienung und Smartphone (Bixby) recht weit oben und dadurch prinzipiell schnell zugänglich waren.
W1-P3 Keinen 4.1.1 Alexa. Amazon liefert für Alexa Datenschutzhinweise
W1-P4 Smartphone (Google) (Stand 21.3.2019) speziell für die EU aus. In diesen spezifiziert
W1-P5 Keinen Amazon zunächst:
W2-P1 Keinen “Wir verarbeiten Ihre persönlichen Daten, um die Ama-
W2-P2 Drei Google Home und Smartphone (Google) zon Services, die wir unseren Kunden anbieten, zu be-
W2-P3 Computer (Cortana) und Smartphone (Google) treiben, bereitzustellen und zu verbessern.“
W2-P4 Keinen
Danach wird weiter ausgeführt, was dies beinhaltet. Die jeweili-
W2-P5 Keinen
gen Zwecke werden mit jeweils einem kurzen Absatz weiter spe-
W2-P6 Kam später, keine Angaben vorhanden zifiziert. Für den Punkt der Erfüllung von gesetzlichen Verpflich-
tungen gibt Amazon ein erläuterndes Beispiel, bei dem es um die

364
Session 6: Conversational UIs

Die nutzerInnenfreundliche Formulierung von Zwecken der Da-


MuC’20, September 6–9, 2020, Magdeburg, Germany
tenverarbeitung von Sprachassistenten

Identifikation von Verkäufern auf Amazon geht, deren Informati- Erfüllung des Vertrages, gesetzliche Bestimmungen etc.). Hier
onen aufbewahrt werden müssen. Auffällig ist insbesondere der sind auch Ankerbeispiele für die Verwendung der Daten hinter-
Extra-Punkt der „Bereitstellung von Sprachdiensten“. In diesem legt.
Abschnitt verlinkt Amazon auf ein weiteres Dokument in dem Die Zwecke sind dort ebenfalls leicht anders beschrieben, was die
keine weiteren Zwecke, aber Informationen über die Aufnahme- tatsächliche Nutzungsweise wahrscheinlich besser erläutern soll,
und Analyse-Praktiken gegeben werden. So ist auch das mensch- aber bei den Autoren eher zu Konfusion führte. Letztlich sagt der
liche Analysieren von Sprachaufnahmen Teil der Produktverbes- Text zu dieser Beschreibung jedoch, dass der fragliche Absatz le-
serung. Außerdem verweist Amazon als gesonderten Zweck auf diglich dazu dient, die rechtliche Grundlage der Verarbeitung der
mögliche weitere Zwecke, für die explizit die Zustimmung einge- zuvor aufgeführten Zwecke zu erläutern und nicht dazu, weitere
holt wird. Zwecke zu definieren. Deshalb wurden die weiteren Ausführun-
4.1.2 Bixby. Samsung beschreibt in seinen Datenschutzhinwei- gen nicht für die Studie herangezogen, sondern lediglich die ex-
sen (Stand 4.6.2019) explizit, dass sie für alle Dienste und Produkte plizit unter den Verarbeitungszwecken genannten Zwecke.
gilt. In einigen Abschnitten gibt es gesonderte Teile insbesondere Samsung hat keinen eigenen Unterpunkt zu einer Öffnung der
für Smart-TV-NutzerInnen oder auch für Personen, die im Euro- Zwecke durch mögliche weitere Zustimmungen des Nutzers, son-
päischen Wirtschaftsraum ansässig sind. Für diese Personen listet dern führt in einzelnen Zwecken auf, wo sie ggf. und nach eige-
Samsung bspw. noch einmal explizit die rechtliche Grundlage der nem Ermessen Zustimmungen des Nutzers einholen, um dort in
Verarbeitung auf (d.h. bspw. Zustimmung, berechtigtes Interesse, stärkerem Ausmaß Daten verarbeiten zu dürfen.

Tabelle 2: Übersicht über angegebene Zwecke der Datenverarbeitung nach Anbietern. In fett: Die später bei den Fokusgrup-
pen zur Diskussion gegebenen Zwecke.

Cortana Google Assistant Siri Bixby Alexa


Bereitstellung von
Bereitstellung eines von
Bereit-stel- Produkte bereitstellen, Bereitstellung unse- Erstellung, Entwicklung, Sprachdiensten, Bereit-
Ihnen gewünschten
lung diese zu aktualisieren rer Dienste Bereitstellung stellung der Amazon-
Dienstes
Dienste
Kunden besser zu verste-
Verbesserung Verbesserung unse- Entwicklung, Bereitstel-
Entwickeln und Ver- hen, für das Design unse- Verbesserung der Ama-
/ Neuent- rer Dienste, Entwick- lung, Erbringung und Ver-
bessern von Produkten rer Geräte und die Aus- zon-Dienste
wicklung lung neuer Dienste besserung
wahl von Inhalten
Bereitstellung von perso-
Personali- Personalisieren unserer Bereitstellung perso- Empfehlungen und Per-
nalisierten Inhalten und
sierung Produkte nalisierter Dienste sonalisierung.
Diensten

personalisierte personalisierte Werbean-


Unterbreiten von Wer-
Werbung Dienste, Inhalte und Werbung zeigen, Direkt-marketing- Werbung
beangeboten
Werbeanzeigen komm.

Samsung, angeschlosse- die Sicherheit von Kun-


Account- und Netzwerksi-
Sicherheit Produkte zu sichern Wartung nen Unternehmen, Part- den, Amazon Europa und
cherheit
nern oder Kunden anderen beschützen.

Mitteilungen zu versenden,
z.B. zu Käufe oder Ände- Einholung Ihrer Meinun-
Kommuni- Kommunikation mit Um mit Ihnen zu kommu-
rungen der AGB u. Richtli- gen zu unseren Produk-
kation Ihnen nizieren
nien, Ankündigungen, Up- ten
dates u. Veranstaltungen

Einhaltung unserer ge- Einhaltung von Gesetzen


Gesetzl. Ver- interne Zwecke wie Buch- Erfüllen gesetzlicher Ver-
setzlichen Verpflich- und rechtlichen Prozes-
pflichtung prüfung pflichtungen
tung sen

Leistungs-mes- Messung der Leis-


Analyse und Leistung
sung tung
Account- und Netzwerksi-
Authentifizie- Unterstützung bei der Re-
cherheit, Betrugsbekämp- Betrugsprävention und
rung /Identifi- gistrierung von Ihnen o-
fung, Überprüfung der Kreditrisiken
kation der Ihrem Gerät
Identität
Schutz von Google, Schutz der Rechte, des Ei-
Schutz eigener
unserer Nutzer und gentums oder der Sicher-
Rechte
der Öffentlichkeit heit
Kauf und Lieferung von
Kaufabwick-
Produkten und Dienst-
lung
leistungen

365
Session 6: Conversational UIs

MuC’20, September 6–9, 2020, Magdeburg, Germany T. Jakobi et al.

4.1.3 Cortana. Microsofts Cortana hat in seiner globalen Daten-


Tabelle 3: Geäußerte Nutzungen von Sprachassistenten
schutzerklärung (Stand April 2019) einige Unterkapitel für
Dienste und Produkte, so auch zum Sprachassistenten „Cortana“.
Navigation mit dem Smartphone
Dort werden jedoch keine Zwecke spezifiziert. Global formuliert
Nachrichten senden über das Smartphone
Microsoft Verarbeitungszwecke wie in Tabelle 2. Dabei sind teil-
weise mehrere Punkte in einem Satz verortet. Microsoft fügt Anrufe über das Smartphone
hinzu, dass es die Daten auch für weitere legitime Zwecke nutzt Wecker oder Erinnerungen über das Smartphone
ohne dies weiter zu präzisieren. Audio- und Video-Steuerung
In Bezug auf die Zwecke schreibt Microsoft für Cortana einen wei- Text-to-Speech (insb. Rezepte wiedergeben)
teren Satz, der jedoch eher eine Untersumme der globalen Zwecke Suchanfragen / Wissensfragen
zu sein scheint: Smart Home Steuerung (insb. Licht)
Wettervorhersagen
„Die von Cortana erfassten Daten dienen zum Angeben,
Broadcast
Verbessern, Personalisieren und Entwickeln von
Cortana und anderen Microsoft-Produkten.“
heraus, da alle TeilnehmerInnen zumindest schon aus den Medien
4.1.4 Google Assistant. Google stellt in seiner ebenfalls nur glo- über wenigstens eins der Produkte informiert waren. Die Mehr-
balen Datenschutzerklärung (Stand 22.1.2019) die Zweckangaben zahl der TeilnehmerInnen hatte allerdings selbst kein physisches
unter die Überschrift „Wir verwenden Daten zur Verbesserung Gerät als Sprachassistenten im Einsatz – teils aus Überzeugung,
unserer Dienste“ und führt die genauen Zwecke dann mit mehre- teils, weil noch keiner gekauft wurde. Neben der generellen Funk-
ren Unterkapiteln aus (siehe Tabelle 2). tion und Nutzungen (Tabelle 3) entpuppten sich aber im techni-
4.1.5 Siri. Bei Apple gibt es in den Datenschutzhinweisen schen Detail Unklarheiten:
(Stand 4.4.2019) einen Unterpunkt namens „Wie wir personenbe-
zogene Daten nutzen“. Dort beschreibt das Unternehmen in einem Ich weiß halt vom technischen nicht, [..] ob da jetzt ir-
Vorab-Text bezüglich der Verarbeitungszwecke einen generellen gendwer mithört oder eigentlich würde ich sagen, ich
erwarte, dass da nicht mitgehört wird, selbst wenn mir
Unterschied zwischen Zwecken, die das Unternehmen selbst ver-
bewusst ist, dass es technisch natürlich möglich sein
folgt und der Notwendigkeit der „Einhaltung gesetzlicher Ver- dürfte. (W1-P2)
pflichtungen“. Außerdem behält sich Apple das „Offenlegen von
Informationen für die Verfolgung der legitimen Interessen von Auch die mediale und öffentliche Debatte über Fehlauslösungen
Apple oder Dritten“ vor ohne weiter darauf einzugehen. von Sprachassistenten spiegelte sich bei unseren TeilnehmerIn-
4.1.6 Bewertung und Konsolidierung der Zweckangaben. Insge- nen wider:
samt zeichnet sich ein relativ konsolidiertes Bild der Zweckanga- „[D]as ist halt einfach das Mikro, der analysiert die
ben (siehe Tabelle 2). Auch wenn die Anbieter leicht unterschied- Schallwelle ‚Alexa‘, [..] das ist sozusagen der Standard
liche Formulierungen nutzen und Akzente setzen sowie einige des Startbefehls. Dann würde ich halt erwarten, dass der
Dinge verschiedenartig gruppieren, finden sich doch viele der am Ende irgendwann abschaltet. [..] Aber wir haben das
Zwecke jeweils wieder. Teils wird beispielsweise von „Sicherung“ ja gehabt, da waren diese Fallberichte, die durch die Me-
(Cortana) gesprochen, teils von „Sicherheit für Samsung Electro- dien gegangen sind, dass dann mitten in der Nacht was
nics“, von „Netzwerk-Sicherheit“ (Siri) oder von „Wartung“ passiert ist. (W1-P2)
(Google), wenn von Datenspeicherung für IT-Sicherheit der Sys- Mit Bezug auf stationäre Sprachassistenten wurde zusätzliche Un-
teme die Rede war. Davon abgegrenzt versteht sich Authentifizie- sicherheit durch das Design des Produktes selbst verursacht:
rung/Identifikation als ein Sicherungsmechanismus gegenüber
NutzerInnen. Die Personalisierung, Werbung, und die Verbesse- [..] anders als ein Computer [hat der Sprachassistent]
rung und (neue) Entwicklung von Diensten war allerdings auch kein Display hat und [gibt] für mich einen sehr einge-
schränkten Einblick in was das Ding macht. [..] Ich
in der Ausdrucksweise stets vorhanden. Die Kontaktaufnahme zu
könnte von hier aus nicht ohne weiteres beantworten:
KundInnen war teils sehr unspezifisch, bei Apple aber z.B. sehr Ist das an? Ist das aus? Ist da die originale Firmware des
genau geregelt. Ein besonderer Ausreißer war bei Microsofts Herstellers drauf oder was, was mir ein Dritter zwi-
Cortana die Nutzung für die „Belegschaft“, dessen Nutzen den Au- schendurch beim Update reingeschoben hat oder nicht.
toren unklar blieb. [..] Das trifft wahrscheinlich auf den Toaster und auf die
Glühlampe mit Smart Home W-LAN-Anbindung ge-
4.2 Workshops nauso zu, aber bei den Dingern ist es ja noch einmal ein
Zacken schärfer wahrscheinlich durch die Fähigkeiten,
4.2.1 Anwendungsgebiete. Als Einstieg in die Thematik wurde
die es hat. (W1-P2)
zunächst für ein gemeinsames Verständnis unter den Teilnehme-
rInnen gesorgt. Dafür wurde versucht auf Wissen der Teilnehme- Die Probleme, bspw. des Kontrollverlustes, wurden zwar als ge-
rInnen zurück zu greifen und Fragen auch durch diese beantwor- nerell gültig für eingebettete Geräte gesehen. Da diese typischer-
ten zu lassen, um möglichst wenig Einfluss auf den Wissensstand weise Aktoren sind oder auf einige sehr spezifische Sensorik, mit
zu nehmen. Schnell kristallisierte sich aber eine gute Kenntnis und der auch nur sehr spezifische Informationen gesammelt werden,
eine sehr klare gemeinsame Vorstellung von Sprachassistenten

366
Session 6: Conversational UIs

Die nutzerInnenfreundliche Formulierung von Zwecken der Da-


MuC’20, September 6–9, 2020, Magdeburg, Germany
tenverarbeitung von Sprachassistenten

beschränkt sind, bilden Sprachassistenten dadurch eine Aus- Vertrauen spielte im Verlauf des Workshops für die Teilnehme-
nahme. rInnen stets eine große Rolle. Dieses Vertrauen mussten die Teil-
In der Nutzung der Assistenten unterschieden sich die Teilneh- nehmerInnen einerseits aufbringen, dass Sprachdaten nur gespei-
merInnen. Hierbei führen wir sowohl aktuelle Nutzungen als auch chert würden, wenn eine absichtliche Eingabe gemacht wurde,
vorstellbare Nutzungsweisen. Ein Teilnehmer wollte sie gar nicht andererseits aber auch darin, dass die Datenverarbeiter hinter
verwenden, einige nutzen sie nur auf Smartphones: dem Sprachassistenten verantwortungsvoll mit den Informatio-
nen umgehen würden. Beispielsweise gab es Orte, in denen Teil-
Ich nutze [Sprachassistenten], aber für zuhause habe ich
nehmerInnen keinen Sprachassistenten haben wollten:
keinen Bedarf gesehen. Aber ich nutze diesen Google
Maps-internen Sprachassistenten. Also wenn im Auto Also ich habe z.B. auch im Schlafzimmer kein Gerät. Das
halt irgendwie eine Adresse suche, es ist halt sicherer wäre für mich auch eben eine Grenzüberschreitung. Sol-
wenn ich einmal kurz darauf klicke und es reinspreche che Sachen wie Friseur-Termine buchen, was ja jetzt ir-
und es funktioniert eigentlich ganz gut. (W1-P4) gendwie öfter auch gemacht wird oder eine Reise oder
Im Fall der Smartphone-basierten Nutzung ging es im Wesentli- irgendwie eine Zahlung kann man ja auch theoretisch
machen - ich glaube hier in Deutschland noch nicht,
chen darum, zu navigieren, Erinnerungen einzustellen, Telefonate
aber in den USA schon - ein Zahlungstransfer. Für so-
zu tätigen, oder Nachrichten zu schreiben. was habe ich das nicht benutzt. Und benutze ich nicht.
Eine weitere Gruppe von TeilnehmerInnen hatte ein oder mehrere Kann ich mir auch nicht vorstellen. (W2-P2)
Geräte im Zuhause, teils auch mehrere Systeme parallel. Anwen-
dungsfälle waren insbesondere in der Wiedergabe von Musik, Mit Blick auf sensible Anwendungsfälle zogen die Teilnehmerin-
aber auch in der Steuerung von Smart Home Komponenten (ins- nen sehr unterschiedliche Grenzen. W2-P2 nutzt Sprachassisten-
besondere Licht) sowie simplen Web-Anfragen im Sinne von Wis- ten zwar generell und hat auch individuelle Sprach-Apps instal-
sensfragen zu finden: liert, möchte aber bspw. keine Zahlungen über den Sprachassis-
tenten abwickeln. Andere minimierten ihre Interaktion mit
Ich glaub so die Klassiker sind im Moment im Smart- Sprachassistenten unabhängig vom Themenfeld soweit es geht:
Home-Kontext so diese Licht steuern, Musik an/aus, Te-
lefonate, also so die kleinen Sachen. Kleine Suchanfra- Also ich schränke das soweit wie es eben geht ein. Weil
gen stellen, wenn ich gerade nicht tippen kann. Also es es mir besser geht, wenn meine Privatsphäre gewahrt
quasi wie ein Web-Interface benutzen mit Sprachsteue- wird, das ist mir einfach wichtig. (W1-P1)
rung. (W2-P4)
Eine Teilnehmerin hatte bereits schlechte Erfahrung im Bereich
Seltener war noch die Nutzung spezifischer Sprach-Apps, wie personalisierter Werbung gemacht und überträgt ihre Reaktion
zum Beispiel eine Unterstützung beim Kochen. Auch die darauf auch auf Sprachassistenten:
Broadcast-Funktion, die es in Geräten für Sprachassistenten gibt,
Ich hatte vor ein paar Jahren mit meiner Nichte zusam-
wurde nur von einer Person genutzt:
men nach Prada gesucht und ich kriege ständig von ir-
Beim Kochen: Rezept absprechen lassen. Quasi so nach, gendwelchen Bekleidungsgeschäften die Reklame und
nach den Schritten… so erster Schritt machst du das und ich habe X mal die ganzen Daten gelöscht und so. Ist
das, das wird dann so systematisiert abgespult. Es gibt irgendwie total egal, ich kriege immer diese blöde Re-
auch so eine Broadcast-Funktion beim Google. [..] Das klame. Ich bin so genervt, dass ich tatsächlich auch mein
habe ich mal benutzt, um meinem Freund zu sagen, dass Verhalten irgendwie geändert hab [und nicht mehr im
ich nach Hause komme. (W2-P2) Internet suche] was mich schon ein bisschen geärgert
hat, denn dafür habe ich eigentlich das Internet, dass ich
4.2.2 Gezielte Nicht-Nutzung. Neben einem Einblick in die An- so Sachen nachgucken kann. (W1-P1)
wendungsfälle, wollten wir auch genauer wissen, in welchen Kon-
texten, die TeilnehmerInnen Sprachassistenten nicht nutzen woll- Aus Ärger über vergangene Erlebnisse und aus Furcht vor neu
ten. Hier reichte das Echo von einer Egal-Haltung über differen- auftretender penetranter und schlecht personalisierter Werbung
zierte (Selbst-)Einschränkungen in der Nutzung bis hin zu grund- schränkt sich die Teilnehmerin insbesondere in der Suche ein. Am
sätzlicher Ablehnung: anderen Ende standen Teilnehmer, die in gewissen Bereichen auf-
gegeben haben, sich um ihre Privatheit zu kümmern:
Also ich würde auch deswegen ja so ein Ding überhaupt
gar nicht erst in der Wohnung haben. Weil ich würde Auf der anderen Seite habe ich für mich so irgendwann
dem nicht trauen, dass er nur dann anspringt, wenn ich entschieden, dass ich meinen Komfort sehr schätze und
dem das sage. [..] Ich finde schon zu viel, wenn ein biss- dass Google irgendwie alles von mir wissen darf. [Ich
chen was von mir aufgezeichnet wird, denn man packt habe] irgendwann gesagt, Google darf alles wissen, ist
das dann mit den anderen Sachen zusammen und insge- mir egal und ich habe immer irgendwie eine Art von
samt ist das ein großes Ganzes und das fände ich einfach AGBs bekommen, ja okay jetzt akzeptiere es doch mal.
schon viel. (W1-P1) Zack! Zack! (W1-P2)
4.2.3 Wahrgenommene Risiken. Bei den Anwendungsfällen, die
die TeilnehmerInnen jeweils nicht umsetzten, lagen Bedenken

367
Session 6: Conversational UIs

MuC’20, September 6–9, 2020, Magdeburg, Germany T. Jakobi et al.

über mögliche Folgen zu Grunde, die teils schon zuvor durch- werden. Und das ist ein Risiko, da habe ich überhaupt
schimmerten. Im dritten Schritt waren diese Folgen und wahrge- gar keinen Einfluss. Das ist jetzt vielleicht eine abstrakte
nommenen Risiken im Fokus des Interesses und zeigten vielfältige Kette aber für mich steckt die zumindest im Unterneh-
Ausprägungen (Tabelle 4). men immer da drin, dass sie Daten auswerten. (W2-P3)
Ein Risiko, das sich stärker auf das Input-Medium ‚Sprache‘ bezog, Weiter sahen die TeilnehmerInnen die Gefahr der „Verletzung der
denn auf die Datenverarbeitung, war das Mithören Dritter bei Ein- Privatheitsphäre“ und störten sich an der Datenerhebung „an
gaben in der Öffentlichkeit („Sprache im öffentlichen Raum“). sich“ – insbesondere der „Profilbildung“. Unabhängig von der Be-
Weiter wurde die generelle IT-Sicherheit angezweifelt („Hackabi- nutzung von Daten, wollten einige TeilnehmerInnen Daten per se
lity der Geräte“). nicht erhoben wissen.
Davon abgesehen war ein grundlegendes Problem in der Nutzung
von Sprachassistenten für die TeilnehmerInnen der Mangel an Ich gehe davon aus, dass es mir nicht immer bewusst
Transparenz und Vertrauenswürdigkeit der Anbieter im Hinblick sein wird, dass alle meine Sprachnachrichten in irgend-
ein Rechenzentrum gehen. [..]Also am ersten Tag weiß
darauf, was mit Daten gemacht würde und was nicht:
ich, das Gerät steht da, am 5. Tag weiß ich das Geräte
Und es stellt für mich Kontrollverlust dar. [..] Weil ich steht da, am 10. Tag ist das ein Familienmitglied so nach
gar keinen Einfluss später mehr drauf habe, egal ob das dem Motto. [..] Es gibt schon so viel Mitschnitt, dass ich
der Staat oder das Unternehmen ist, dem ich die Daten eine weitere Dimension verhindern möchte. (W1-P3)
gebe. (W2-P3) Ohne Blick auf Folgen der Erhebung, ist die Sammlung und das
Dieser „Kontrollverlust über Daten“ (Tabelle 4) war ein bei vielen Eindringen in den privaten Raum an sich bereits negativ konno-
TeilnehmerInnen präsentes Risiko. Schließlich wurde auf techni- tiert. Einige TeilnehmerInnen empfanden auch die Gegenwart
scher Ebene befürchtet, dass Algorithmen falsche Schlüsse ziehen vieler Geräte im Zuhause und insbesondere die Proaktivität von
könnten („Falschinterpretation“), von denen NutzerInnen nichts Sprachassistenten als „Belästigung“:
mitbekommen könnten oder sie diesen machtlos ausgesetzt wä-
[Ein Sprachassistent] ist ja im Smartphone zum Teil
ren: schon enthalten, das heißt ich habe unter Umständen
Es gab mal von Yellow-Strom früher so eine Werbeseite, keine Wahl oder am PC ist es Cortana, die mich ständig
wo man, Fragen eingeben konnte und die wollten natür- belästigt und sagt: “Rede doch mal mit mir”. Und das
lich am einen Stromtarif anbieten am Ende. Ich habe da macht mir eher Angst und das überwiegt und deshalb
mal glaube ich auch als Kunstprojekt irgendwie ‚Terro- nutze ich es nicht. (W2-P3)
rismus‘ und ‚Krieg‘ eingegeben, nur um zu gucken was Im Wesentlichen waren allerdings Folgen der Verarbeitung für die
da zurück kommt [..] Das war wirklich total interessant NutzerInnen der wesentliche Teil der Risiken: NutzerInnen be-
so für sich als Spiel, aber wenn ich das mit personenbe-
fürchteten bestimmte Nutzungsweisen von Daten, die für die Teil-
zogenen Daten mache und dann eine Profilbildung da-
hintersteckt, wo man das, den Kontext auch gar nicht nehmerInnen nachteilig erschienen. Nicht deckungsgleich, aber
mehr kennt: Waren die alle betrunken und haben die häufig mit der kategorischen Ablehnung einhergehend wurden
alle komische Wörter gesagt? Und jemand anderes das oft abstrakte Risiken, wie das Szenario eines nicht weiter umris-
sich anguckt und ‚Oh Gott, was ist denn das für eine senen potentiellen Missbrauchs in der Zukunft aufgezeigt:
Person‘ und dann landen wir am Ende beim Social Cre-
dit System, wo die Daten ausgewertet und bewertet Wenn, vielleicht durch politische Umwälzungen, ir-
gendjemand anderes an diese Daten kommen kann,
dann wird es wieder gekippt und andere Leute können
Tabelle 4: Gruppen der von Nutzern genannte Pri- die Daten für ganz andere, ungünstigere Zwecke benut-
vatheitsrisiken in der Nutzung von Sprachassistenten zen. Und das ist ein ganz konkretes Risiko aus meiner
Sicht. (W2-P3)
Kontrollverlust über Daten Insbesondere steht hier die Überwachung durch einen systemi-
Verletzung der Privatsphäre schen Umbruch im Vordergrund, die NutzerInnen vom Schadens-
Abstrakte Risiken potential noch einmal von der Benutzung für kommerzielle Zwe-
Personalisierte Werbung cke abgrenzten. Die Nutzung der eigenen Daten durch Unterneh-
Profilbildung men, insbesondere durch Profilbildung mit Daten aus unter-
Finanzielle Nachteile schiedlichen Quellen, wurde ebenfalls als prinzipiell und unab-
Finanzielle Ausnutzung der Daten hängig von einem weiteren Verwertungszweck als negativ ange-
Verhaltenssteuerung sehen.
Überwachung (durch Staat oder Unternehmen)
Also, im Prinzip es geht darum, dass keine Informatio-
Sprache im öffentlichen Raum nen zusammenkommen, aus dem tiefgreifendes Profil
Unsicherheit der Technologie entsteht. Was passiert dann? Genau dieses ‚Schufa‘-
Falschinterpretation Thema. Also du kriegst auf einmal keine Krankenversi-
Hackability der Geräte cherung oder deine Police geht hoch oder du kriegst
Belästigung keine Wohnung mehr. Daten sind ja so neue Gold, jeder

368
Session 6: Conversational UIs

Die nutzerInnenfreundliche Formulierung von Zwecken der Da-


MuC’20, September 6–9, 2020, Magdeburg, Germany
tenverarbeitung von Sprachassistenten

will die haben, die werden teuer verkauft also damit und nachvollziehbar, auch wenn Werbung als Zweck ambivalent
wird ja gearbeitet und das ist schon klar. (W1-P5) diskutiert wurde. Hier war das Thema der Personalisierung in
Das gebildete Profil wurde als potentiell gefährlich für jedweden Verbindung mit einer Verbesserung der Dienstleistung ein Reiz-
Anwendungsfall gesehen, der gegen die Interessen des Nutzers punkt. Einerseits gab es recht konkrete Vorstellungen davon, was
gewendet sein konnte. Ähnlich wurden auch konkret finanzielle diese Verbesserungen einschließen würde:
Nachteile befürchtet, wenn auf Basis von für sie nachteilhaften Theoretisch könnte Amazon hingehen aufgrund von
Daten ein individueller Preis für eine Dienstleistung oder ein Pro- statistischen Nutzerdaten die Seite ändern: [..]“Wir ha-
dukt berechnet werden würde. Insbesondere wurde aber persona- ben rausgekriegt, du bist Linkshänder“. Jetzt richtet es
lisierte Werbung als nächstgelegener Anwendungsfall genannt: mir das für links ein, während der andere, der Rechts-
händer ist, das rechts bekommt. So, dass mein Amazon
[..] da ist Werbung wahrscheinlich so das erste, weil es tatsächlich anders aussiehst als dein Amazon. (W1-P2)
heute schon stattfindet. Und es gibt sicherlich auch
Leute, die finden das gut, wenn sie personalisierte Wer- Die TeilnehmerInnen bezweifelten jedoch, dass Verbesserungen
bung finden, weil die für sie relevant ist. (W2-P4) von Diensten immer Verbesserungen für die KundInnen sein wür-
den, und nicht möglicherweise stärker dem Interesse des Anbie-
Eine verschärfte Version personalisierter Werbung sahen die Nut-
ters dienen könnten.
zerInnen auch in einer möglichen Verhaltenssteuerung, die aller-
dings auch positive Effekte haben könnte: Ich würde mich dann ärgern, wenn ich eigentlich was
Anderes eingegeben habe und die meinen, die wüssten
Es gibt zumindest Hinweise darauf, dass teilweise, Al- es besser und dann geben mir was Neues. Also das wäre
gorithmen uns besser verstehen können als uns selber, mir dann egal ob das jetzt aus statistischen oder sonst
dass die uns z.B. in bestimmten Situation Tipps geben irgendwelchen anderen Gründen ist, wenn ich etwas su-
können, die objektive besser sind als wenn wir uns che und dann kriege ich das nicht oder erst nachdem ich
selbst raten würden. (W1-P2) drei mehr Schritte gemacht habe, dann ist das keine Ver-
Auf der anderen Seite war die Verhaltenssteuerung insgesamt besserung. (W1-P1)
stark negativ bewertet, weil nicht angenommen wurde, dass sie Darüber fiel es den TeilnehmerInnen schwer Risiken auszuschlie-
zum Wohle der NutzerInnen angewendet werden würde: ßen, die nicht unter die Verbesserung oder Neu-Entwicklung der
Bekommt man dann sozusagen die Wohnung oder nicht. Dienste fallen würden. Vielmehr äußerten sie das Gefühl einer
Kriegt das Kind den Platz im Kindergarten oder nicht, Unschärfe und Unklarheit:
weil ich mich wohl verhalte. Verhaltensbeeinflussung, Ich finde ja diese Sachen sind immer furchtbar vage ge-
die ja auch mit sowas ausgelöst wird. (W2-P4) halten, als Jurist sieht man das vielleicht ein bisschen
4.2.4 Bewertung angegebener Zwecke. Zum Abschluss des anders, aber diese Verbesserung von Diensten und Wei-
Workshops haben wir unsere TeilnehmerInnen mit den meist-an- tergabe an Dritte, das ist halt für meinen Geschmack -
gegebenen Zwecken aus den Datenschutzhinweisen der Anbieter und das zeigt ja irgendwie die Praxis auch so bei Face-
book und Google, und ähnlichem, halt echt so ein Nebel.
der Sprachassistenten konfrontiert. Dadurch wollten wir verste-
(W2-P5)
hen, inwieweit tatsächlich genutzte Zweckspezifikationen dazu
beitragen würden, dass NutzerInnen die zuvor identifizierten Ri- Insgesamt wurde festgestellt, wie weit unternehmerische Praxis
siken ausschließen könnten. Es zeigte sich jedoch, dass einzelne von den Bedenken von NutzerInnen abweicht:
Zwecken zwar teilweise, jedoch vor allem die Gesamtheit der
[Die Zwecke sind] das Interesse der Unternehmen. Das
Zweckangaben fast gar keine eindämmende Wirkung für die Nut- ist ja, was wir dort zusammengetragen haben (zeigt auf
zerInnen zeigten. Ein erstes, bekanntes Problem führt noch einmal die wahrgenommenen Risiken), ist ja eher das gesell-
W1-P2 anschaulich vor Augen, indem er auf die häufig vorlie- schaftliche Abbild. Also es gibt ja schon einen großen
gende Intransparenz von Verarbeitungszwecken hinweist, die aus Unterschied finde ich. Das (zeigt auf die Zwecke) sind ja
seiner Sicht nicht nur bei Sprachassistenten vorliegt: Interessen, und gute Gründe vielleicht der Unterneh-
men, das zu tun, aber ich finde, da gibt es eine riesen
Ich hoffe immer, [..] wenn ich ein Captcha löse, dass die Diskrepanz. (W2-P5)
Erkennung eines LKWs nur zum Trainieren des selbst-
fahrenden Autos dient und nicht für irgendwelche Die Aussage charakterisiert treffend die Art der Abweichung,
Lenkraketen, die den dann besser treffen oder so. (W1- insofern, als dass Zweckangaben bisher nicht aus einer Sicht
P2) der BenutzerInnen, sondern aus Sicht der Verwender gedacht
Mit Blick auf die Aussagekraft der Zwecke gibt es unterschiedli- und formuliert werden.
ches Feedback. Vor allem der Punkt zur Erbringung des Dienstes
erschien im Wesentlichen angemessen und recht gut abgegrenzt
5 Diskussion
und ein logischer Zweck. Auch die Erbringung von Werbung und
IT-Sicherheit sowie die Einhaltung gesetzlicher Bestimmungen 5.1 System-Transparenz von Sprachassistenten
hielten die TeilnehmerInnen für im Wesentlichen verständlich

369
Session 6: Conversational UIs

MuC’20, September 6–9, 2020, Magdeburg, Germany T. Jakobi et al.

Die Kontrollierbarkeit der Datenerfassung und das Vertrauen in Formulierungen kommen zu können, mit denen sich auch wirt-
die Prozesse der Anbieter, das Liao et al. vor allem für Nicht-Nut- schaftliche Interessen verbinden lassen.
zerInnen identifiziert haben [25] konnten wir auch finden. Insge-
samt stellt sich jedoch vor dem Hintergrund des neuen Eingabe- 5.3 Neue Kooperationen zwischen HCI und
und Ausgabe-Mediums ‚Sprache‘ die Herausforderung, Daten- Rechtswissenschaften
schutzeinstellungen zu kommunizieren: Wie müsste eine Interak- „Privacy by Design“ nach Artikel 25 DSGVO erfordert die Umset-
tion mit Sprachassistenten aussehen, um über Datenverarbei- zung der Verarbeitungsgrundsätze, wie z.B. die Grundsätze der
tungspraktiken zu informieren? Eine Frage, die sich Forschung Zweckbindung und Transparenz in die technische und organisa-
rund um die Themen Awareness und Selbstauskunftsfähigkeit be- torische Gestaltung von Datenschutzmaßnahmen (TOM). Ge-
reits widmet [7, 14, 35]. Über Sprach-Interfaces könnten hier aber troffene TOM sollen darüber hinaus nach Artikel 25 „effektiv“ und
neue Herausforderungen der Daten-Bereitstellung entstehen: unter Berücksichtigung des „Standes der Technik“ umgesetzt sein.
Traditionell wird bei der Gestaltung von Sprachassistenten auf die Beide Begriffe sind recht innovative rechtliche Mittel und daher
möglichen Befehle und damit die Accessibility der Assistenten noch auslegungsbedürftig. Rechtlich wird diskutiert, dass unter
[51] geschaut. Im Fall der Auskunftsfähigkeit zu Datensammel- TOM auch gestalterische und UX-Maßnahmen zu fassen sind.
Praktiken bestünde die Forschungsfrage jedoch darin, wie die Da- Dies eröffnet ein großes gemeinsames Forschungsfeld von HCI
ten sinnvoll zurück kommuniziert werden könnten. und Rechtswissenschaften, dessen mögliche Ausgestaltung wir in
Neben der Transparenz in der Nutzung (bspw. durch das Recht diesem Beitrag am Beispiel des Prinzips der Zweckbindung skiz-
auf Auskunft nach DSGVO), zeigt unsere Studie aber auch deut- ziert haben. Während eine Beurteilung der Wirksamkeit von
lich, dass es schon bei der Einrichtung von Sprachassistenten an Maßnahmen nach dem Stand der Technik für Rechtswissenschaf-
Transparenz über Verarbeitungszwecke mangelt. ten aus methodologischer Sicht eine Herausforderung darstellen
mag, fallen diese Aufgaben in den primären Bereich der HCI-Ge-
5.2 Zwecke besser kommunizieren: Eine Road- meinschaft. Insbesondere vor dem Hintergrund der neuen
map DSGVO und ihrer teils neuen Rechtsbegriffe ist hier ein Gestal-
Die Zweckangaben der Anbieter waren recht ähnlich und ließen tungsraum entstanden. Die Studie liefert mit ihren Evidenzen ei-
sich, bei abweichendem Detailgrad der Beschreibungen, zu einem nen ersten Beitrag der HCI für die Rechtswissenschaften, um zu
guten Teil gemeinsamen Kategorien zuordnen. Bei aller ange- gebrauchstauglichen und dadurch „effektiven“ Interpretationen
brachten Vorsicht könnte dies auf etablierte Muster von Zweck- von Recht zu gelangen. Der Diskurs zwischen Stakeholderbedar-
angaben in der Industrie hindeuten, die rechtlich zumindest tole- fen und rechtlichen Rahmenbedingungen kann allerdings nur in
riert werden. Aus NutzerInnensicht haben einige der Zweckanga- Kooperation vorangetrieben werden.
ben, insbesondere um Dienstverbesserung und Neu-Entwicklung
kaum einschränkende Wirkung auf die Risiko-Wahrnehmung. 5.4 Limitierungen und zukünftige Arbeit
TeilnehmerInnen konnten sich zwar vorstellen, was legitime An- Unsere Studie fokussiert auf den Kontext der Sprachassistenten
wendungsfälle wären, konnten andersherum aber nicht sagen, und kann keine umfassende Analyse der Verständlichkeit von
dass diese Zwecke auch nicht erwünschte Nutzungen ausschlie- Zwecken aus Nutzersicht bieten. Ebenso wurden lediglich zwei
ßen könnten. Dies widerspricht der Ansicht der Artikel 29 Ar- Fokusgruppen durchgeführt, um Risiken und Zwecke zu explorie-
beitsgruppe zum Thema Zweckbindung [6], in der es heißt, dass ren. Auch wurden TeilnehmerInnen nicht bezahlt oder für Auf-
Zwecke so formuliert sein müssen, dass sie eine eindeutige Iden- wände entschädigt, so dass unser Sample möglicherweise in Rich-
tifizierung der Grenzen, wie gesammelte Daten verwenden kön- tung finanziell stabiler und/oder datenschutzsensibler Menschen
nen, ermöglichen. verzerrt sein könnte. Trotz Einschränkungen bei der Generalisier-
Der gegenwärtigen Praxis von Zweckformulierungen konnten barkeit zeigt unsere Studie einen Forschungsbedarf darin, das
wir in diesem Beitrag erstmals eine VerbraucherInnensicht gegen- Prinzip der Zweckbindung für NutzerInnen gebrauchstauglich
überstellen, die diesen Missstand empirisch aufzeigt. Zugleich bie- umzusetzen. Darüber hinaus demonstriert die Studie, wie die HCI
tet die Studie erste Anhaltspunkte für DesignerInnen, welche Ar- methodisch mit den Rechtswissenschaften zusammenarbeiten
ten von Informationen für NutzerInnen relevant sind. Aus der kann, um noch unklare Anforderungen der DSGVO gestalterisch
Perspektive könnten Risiken aus NutzerInnensicht [19, 22] ein auszudeuten. Entsprechend werden wir unsere Arbeit in weitere
neuer Weg für eine sinnvolle Zweckformulierung darstellen, um Anwendungsgebiete überführen, um ein breiteres Bild von Zwe-
die geforderte Eindeutigkeit wieder herzustellen. cken und Risiken zu erhalten. Ebenso zielen wir auf eine quanti-
In einem nächsten Schritt sollten die Fokusgruppen auf weitere tative Absicherung der qualitativen Erfahrungen. Vor allem steht
Technologien ausgeweitet und Risiken durch NutzerInnen kate- dabei im Fokus zu zeigen, inwieweit bestehende Zwecke Transpa-
gorisiert werden. Dadurch könnten erste Eingrenzungen für be- renz für NutzerInnen bieten und ob wahrgenommene Risiken eine
deutungsvolle Zwecke erreicht werden. Für eine rechtliche Kon- aus NutzerInnensicht gangbare Alternative wären.
trastierung sollten RechtsexpertInnen diese Risiken ebenfalls ka-
tegorisieren. Die Schemata sind zu vergleichen und im Sinne der 6 Fazit
NutzerInnen zu integrieren. Eine weitere Aufgabe wird sein, auf
inhaltlich abgrenzbare, rechtlich haltbare und gebrauchstaugliche

370
Session 6: Conversational UIs

Die nutzerInnenfreundliche Formulierung von Zwecken der Da-


MuC’20, September 6–9, 2020, Magdeburg, Germany
tenverarbeitung von Sprachassistenten

Das Zweckbindungsprinzip der DSGVO mit seiner Komponente [12] Easwara Moorthy, A. and Vu, K.-P.L. 2014. Voice Activated
der Zweckspezifizierung fordert neben Flexibilität für den Verar- Personal Assistant: Acceptability of Use in the Public
beiter auch Transparenz für VerbraucherInnen. Vor dem Hinter- Space. Human Interface and the Management of Infor-
grund dieses Interessenkonflikts sind wir der Frage nachgegan- mation. Information and Knowledge in Applications and Ser-
gen, inwieweit Verarbeitungszwecke von Sprachassistenten diese vices. S. Yamamoto, ed. Springer International Publishing.
324–334.
Anforderungen erfüllen. Für die Erhebung einer NutzerInnenper-
[13] Forgó, N., Hänold, S. and Schütze, B. 2017. The principle of
spektive haben wir Zweckangaben in Datenschutzhinweisen po- purpose limitation and big data. New Technology, Big Data
pulärer Sprachassistenten analysiert. Unsere NutzerInnenstudie and the Law. Springer. 17–42.
zeigt, dass bestehende Zweckformulierungen für VerbraucherIn- [14] Gerber, N., Reinheimer, B. and Volkamer, M. 2018. Home
nen kaum Transparenz über Folgen der Datenverarbeitung bieten sweet home? Investigating users’ awareness of smart home
und keine einschränkende Wirkung im Hinblick auf legale Daten- privacy threats. Proceedings of An Interactive Workshop on
nutzung erzielen. Unsere Ergebnisse über von NutzerInnen wahr- the Human aspects of Smarthome Security and Privacy
genommene Risiken erlauben dabei Rückschlüsse auf die anwen- (WSSP) (2018).
derInnenfreundliche Gestaltung von Verarbeitungszwecken. [15] Gerber, N., Reinheimer, B. and Volkamer, M. 2019. Investi-
Schließlich demonstriert die Studie, wie die HCI einen wertvollen gating People’s Privacy Risk Perception. Proceedings on Pri-
vacy Enhancing Technologies. 2019, 3 (2019), 267–288.
Beitrag zur Ausgestaltung von (Datenschutz-)Recht unter der Be-
[16] Gray, C.M., Kou, Y., Battles, B., Hoggatt, J. and Toombs,
dingung konfligierender Perspektiven leisten kann. A.L. 2018. The dark (patterns) side of UX design. Proceed-
ings of the 2018 CHI Conference on Human Factors in Com-
ACKNOWLEDGMENTS puting Systems (2018), 534.
Wir danken allen TeilnehmerInnen der Fokusgruppen, sowie Fa- [17] Hern, A. 2019. Apple contractors “regularly hear confiden-
tial details” on Siri recordings. The Guardian.
temeh Alizadeh und Kevin Klug für Ihre Unterstützung in der
[18] Im, I., Kim, Y. and Han, H.-J. 2008. The effects of perceived
Durchführung und Aufbereitung der Ergebnisse. risk and technology type on users’ acceptance of technolo-
gies. Information & Management. 45, 1 (Jan. 2008), 1–9.
REFERENCES DOI:https://doi.org/10.1016/j.im.2007.03.005.
[1] Abdi, N., Ramokapane, K.M. and Such, J.M. 2019. More than [19] Jakobi, T., Patil, S., Randall, D., Stevens, G. and Wulf, V.
smart speakers: security and privacy perceptions of smart 2019. It’s About What They Could Do with the Data: A
home personal assistants. Fifteenth Symposium on Usable User Perspective on Privacy in Smart Metering. ACM
Privacy and Security ({SOUPS} 2019) (2019). Trans. Comput.-Hum. Interact. 9, 4 (2019), 43.
[2] Acquisti, A. 2009. Nudging privacy: The behavioral eco- DOI:https://doi.org/10.1145/3281444.
nomics of personal information. IEEE security & privacy. 7, [20] Jakobi, T., Stevens, G., Castelli, N., Ogonowski, C., Schaub,
6 (2009), 82–85. F., Vindice, N., Randall, D., Tolmie, P. and Wulf, V. 2018.
[3] Adams, A. and Sasse, M.A. 1999. Users are not the enemy. Evolving Needs in IoT Control and Accountability: A Lon-
Communications of the ACM. 42, 12 (1999), 40–46. gitudinal Study on Smart Home Intelligibility. Proceedings
[4] Adobe 2019. State of Voice Technology for Brands. of the ACM on Interactive, Mobile, Wearable and Ubiquitous
[5] Alizadeh, F., Jakobi, T., Boldt, J. and Stevens, G. 2019. Technologies. 2, 4 (Dec. 2018), 28.
GDPR-Reality Check on the Right to Access Data: Claiming DOI:https://doi.org/10.1145/3287049.
and Investigating Personally Identifiable Data from Com- [21] Janic, M., Wijbenga, J.P. and Veugen, T. 2013. Transparency
panies. Proceedings of Mensch Und Computer 2019 (New Enhancing Tools (TETs): An Overview. 2013 Third Work-
York, NY, USA, 2019), 811–814. shop on Socio-Technical Aspects in Security and Trust
[6] Article 29 Data Protection Working Party. 2013. Opinion (STAST) (Jun. 2013), 18–25.
03/2013 on purpose limitation. Technical Report [22] Karwatzki, S., Trenz, M. and Veit, D. 2018. Yes, firms have
#00569/13/EN WP 203. my data but what does it matter? measuring privacy risks.
[7] Bellotti, V. and Edwards, K. 2001. Intelligibility and ac- (2018).
countability: human considerations in context-aware sys- [23] Kelley, P.G., Bresee, J., Cranor, L.F. and Reeder, R.W. 2009.
tems. Human–Computer Interaction. 16, 2–4 (2001), 193– A nutrition label for privacy. Proceedings of the 5th Sympo-
212. sium on Usable Privacy and Security (2009), 4.
[8] Bodenhöfer, X. 2018. Digitale Sprachassistenten als intelli- [24] Lau, J., Zimmerman, B. and Schaub, F. 2018. Alexa, Are You
gente Helfer im Alltag. eresult. Listening?: Privacy Perceptions, Concerns and Privacy-
[9] Brodie, C., Karat, C.-M., Karat, J. and Feng, J. 2005. Usable seeking Behaviors with Smart Speakers. Proceedings of the
Security and Privacy: A Case Study of Developing Privacy ACM on Human-Computer Interaction. 2, CSCW (Nov.
Management Tools. Proceedings of the 2005 Symposium on 2018), 1–31. DOI:https://doi.org/10.1145/3274371.
Usable Privacy and Security (New York, NY, USA, 2005), 35– [25] Liao, Y., Vitak, J., Kumar, P., Zimmer, M. and Kritikos, K.
43. 2019. Understanding the Role of Privacy and Trust in Intel-
[10] Brouwer, E.R. 2011. Legality and data protection law: The ligent Personal Assistant Adoption. Information in Contem-
forgotten purpose of purpose limitation. (2011). porary Society (Cham, 2019), 102–113.
[11] Day, M., Turner, G. and Drozdiak, N. 2019. Amazon Work- [26] Liu, B., Andersen, M.S., Schaub, F., Almuhimedi, H., Zhang,
ers Are Listening to What You Tell Alexa. Bloomberg.com. S.A., Sadeh, N., Agarwal, Y. and Acquisti, A. 2016. Follow

371
Session 6: Conversational UIs

MuC’20, September 6–9, 2020, Magdeburg, Germany T. Jakobi et al.

my recommendations: A personalized privacy assistant for [42] Siegle, J. 2019. Google ermittelt wegen Illegalen Sprachauf-
mobile app permissions. Symposium on Usable Privacy and zeichnungen. TechFieber.de.
Security (2016). [43] Singh, R.I., Sumeeth, M. and Miller, J. 2011. Evaluating the
[27] Mathur, A., Acar, G., Friedman, M.J., Lucherini, E., Mayer, readability of privacy policies in mobile environments. In-
J., Chetty, M. and Narayanan, A. 2019. Dark patterns at ternational Journal of Mobile Human Computer Interaction
scale: Findings from a crawl of 11K shopping websites. Pro- (IJMHCI). 3, 1 (2011), 55–78.
ceedings of the ACM on Human-Computer Interaction. 3, [44] Spagnuelo, D., Ferreira, A. and Lenzini, G. 2018. Accom-
CSCW (2019), 81. plishing Transparency within the General Data Protection
[28] Mayring, P. 2010. Qualitative inhaltsanalyse. Handbuch Regulation. 5th International Conference on Information
qualitative Forschung in der Psychologie. Springer. 601–613. Systems Security and Privacy. To appear (2018).
[29] McDonald, A.M., Reeder, R.W., Kelley, P.G. and Cranor, [45] Steinfeld, N. 2016. “I agree to the terms and conditions”:
L.F. 2009. A comparative study of online privacy policies (How) do users read privacy policies online? An eye-track-
and formats. International Symposium on Privacy Enhanc- ing experiment. Computers in Human Behavior. 55, (Feb.
ing Technologies Symposium (2009), 37–55. 2016), 992–1000.
[30] Mennicken, S. and Huang, E.M. 2012. Hacking the Natural DOI:https://doi.org/10.1016/j.chb.2015.09.038.
Habitat: An In-the-Wild Study of Smart Homes, Their De- [46] Stevens, G., Bossauer, P., Jakobi, T. and Pakusch, C. 2018.
velopment, and the People Who Live in Them. Pervasive Mehrseitiges Vertrauen bei IoT-basierten Reputationssys-
Computing. J. Kay, P. Lukowicz, H. Tokuda, P. Olivier, and temen. Mensch und Computer 2018-Workshopband. (2018).
A. Krüger, eds. Springer Berlin Heidelberg. 143–160. [47] Stevens, G., Jakobi, T. and Detken, K.-O. 2014. Mehrseitige,
[31] Milne, G.R., Culnan, M.J. and Greene, H. 2006. A longitudi- barrierefreie Sicherheit intelligenter Messsysteme. Daten-
nal assessment of online privacy notice readability. Journal schutz und Datensicherheit. 38, 8/2014 (2014), 536–544.
of Public Policy & Marketing. 25, 2 (2006), 238–249. [48] Trojer, T., Katt, B., Breu, R., Schabetsberger, T. and Mair, R.
[32] Oulasvirta, A., Pihlajamaa, A., Perkiö, J., Ray, D., Vähäkan- 2012. Scenario-based Templates supporting Usable Privacy
gas, T., Hasu, T., Vainio, N. and Myllymäki, P. 2012. Long- Policy Authoring. University of Amsterdam, Amsterdam
term effects of ubiquitous surveillance in the home. Pro- Privacy Conference (2012).
ceedings of the 2012 ACM Conference on Ubiquitous Compu- [49] Tzanou, M. 2010. The EU as an emerging surveillance soci-
ting - UbiComp ’12 (Pittsburgh, Pennsylvania, 2012), 41. ety: the function creep case study and challenges to privacy
[33] Pfitzmann, A. 2001. Multilateral security: Enabling technol- and data protection. Vienna Online J. on Int’l Const. L. 4,
ogies and their evaluation. Informatics (2001), 50–62. (2010), 407.
[34] Pfitzmann, A., Schill, A., Westfeld, A. and Wolf, G. 2000. [50] Wilson, S., Schaub, F., Liu, F., Sathyendra, K.M., Smullen,
Mehrseitige Sicherheit in offenen Netzen. Grundlagen, D., Zimmeck, S., Ramanath, R., Story, P., Liu, F. and Sadeh,
praktische Umsetzung und in Java implementierte Demonst- N. 2018. Analyzing privacy policies at scale: From
rations-Software. (2000). crowdsourcing to automated annotations. ACM Transac-
[35] Pötzsch, S. 2009. Privacy awareness: A means to solve the tions on the Web (TWEB). 13, 1 (2018), 1–29.
privacy paradox? The future of identity in the information [51] Yankelovich, N. 1996. How do users know what to say? in-
society. Springer. 226–236. teractions. 3, 6 (1996), 32–43.
[36] Pradhan, A., Mehta, K. and Findlater, L. 2018. “Accessibility
Came by Accident”: Use of Voice-Controlled Intelligent
Personal Assistants by People with Disabilities. Proceedings
of the 2018 CHI Conference on Human Factors in Computing
Systems - CHI ’18 (Montreal QC, Canada, 2018), 1–13.
[37] Rannenberg, K. 2001. Multilateral security a concept and
examples for balanced security. Proceedings of the 2000
workshop on New security paradigms (2001), 151–162.
[38] Rao, A., Schaub, F. and Sadeh, N. 2015. What do they know
about me? Contents and Concerns of Online Behavioral
Profiles. PASSAT ’14: Sixth ASE International Conference on
Privacy, Security, Risk and Trust (2015).
[39] Ravichander, A., Black, A.W., Wilson, S., Norton, T. and
Sadeh, N. 2019. Question Answering for Privacy Policies:
Combining Computational and Legal Perspectives. arXiv
preprint arXiv:1911.00841. (2019).
[40] Sadeh, N., Acquisti, A., Breaux, T.D., Cranor, L.F., McDon-
ald, A.M., Reidenberg, J.R., Smith, N.A., Liu, F., Russell, N.C.
and Schaub, F. 2013. The usable privacy policy project.
Technical report, Technical Report, CMU-ISR-13-119. (2013).
[41] Schaub, F., Balebako, R., Durity, A.L. and Cranor, L.F. 2015.
A design space for effective privacy notices. Eleventh Sym-
posium On Usable Privacy and Security (SOUPS 2015) (2015),
1–17.

372

Das könnte Ihnen auch gefallen