Sie sind auf Seite 1von 55

DES DONNEES ET DES HOMMES.

DROITS ET LIBERTES FONDAMENTAUX DANS UN MONDE DE DONNEES


MASSIVES
Rapport destination du Comit Consultatif de la Convention pour la protection
des personnes au regard du traitement automatis de donnes personnelles du
Conseil de lEurope.

TEXTE AUGMENTE

Antoinette Rouvroy*

Table des matires

Avertissement
.4
Les Big Data : description, enjeux techniques, pistmiques et socitaux ....................... 5
1.1. Volume ............................................................................................................... 5
1.2. Varit................................................................................................................ 7
1.3. Vlocit ............................................................................................................ 11
1.4. Fiabilit sans vrit : nouvelles logiques de traitement. .......................... 12
Une rationalit immanente .................................................................... 13
Personnalisation ou individualisation plutt que catgorisation. ........... 18
1.5. Conclusion de la premire partie. ............................................................... 22
La Convention 108 du Conseil de lEurope lre des Big Data. .................................. 27
1.6. Champ dapplication et dfinitions (article 2.a.) - La notion de donne
caractre personnel. ................................................................................................ 27
Les risques de ridentification des individus par croisement de
donnes anonymes. ............................................................................................. 28

*
Permanent Research Fellow of the National Fund for Scientific Research at the Research centre
Information, Law and Society (CRIDS), University of Namur, Belgium. Pour sa relecture attentive et les
commentaires judicieux dont ce travail porte les marques, mes plus sincres remerciements vont Jean-
Nol Colin, Professeur en Facult dInformatique lUniversit de Namur. Mes remerciements vont
galement Alessandro Manteloro pour ses suggestions extrmement pertinentes propos de certains
lments de la seconde partie de ce rapport.

1
Lanonymat ne garantit pas contre les possibilits de caractrisation
des comportements des individus, ni contre lanalyse prdictive de ces
comportements. .................................................................................................... 30
1.7. Principes de base : licit et bonne foi, finalit et proportionnalit,
exactitude................................................................................................................... 31
Consentement (article 52) ........................................................................ 31
Minimisation des donnes (article 5.4.c) ................................................. 34
Finalit (article 5.4.b) ................................................................................... 35
Principe de loyaut et de transparence des traitements (article 5.4.a)36
Principe de limitation dans le temps (article 5.4.e) ................................. 36
1.8. Donnes sensibles (article 6)....................................................................... 37
1.9. Scurit des donnes (Article 7) ................................................................. 41
1.10. Transparence des traitements (article 7bis) ............................................ 42
1.11. Droits des personnes concernes : dcision fonde sur des
traitements automatiss de donnes (article 8)................................................... 43
La force normative des dispositifs automatiss........................................ 43
Dcision automatise et justiciabilit des dcisions. Que mettre en
procs : les faits ou les conditions des faits ? .................................................. 46
Toute personne doit pouvoir obtenir, sa demande, connaissance du
raisonnement qui sous-tend le traitement de donnes, lorsque les rsultats
de ce traitement lui sont appliqus (article 8.c)........................................... 51
Conclusions. .................................................................................................................... 52

2
AVERTISSEMENT
Afin de mieux cerner la nouveaut des traitements de type Big Data par rapport
aux traitements de donnes caractre personnel concerns notamment par la
Convention 108 du Conseil de lEurope, mais aussi par le rglement gnral de
lUnion europenne sur la protection des donnes (destin remplacer la
directive 95/46/CE) et par la directive de lUnion europenne concernant la
protection des donnes traites des fins rpressives (destine remplacer la
dcision-cadre de 2008 sur la protection des donnes), une premire partie de
notre rapport sera consacre la description conjointe des donnes
concernes par le Big Data, des processus de traitement de ces donnes, et de
certains enjeux thiques, juridiques et politiques y affrents.
Le choix de traiter ensemble les aspects techniques et socitaux rsulte du
constat dune interdpendance inextricable entre les enjeux smiotiques,
pistmiques, thique et politique dans le contexte des Big Data. Nous verrons
par exemple que les pratiques statistiques impliques dans les analyses de
type Big Data instaurent une nouvelle manire de sous-traiter des systmes
automatiques la tche de faire surgir de la ralit numrise elle-mme, plutt
que de les instituer politiquement ou den convenir contractuellement, les
catgories (de mrite, de besoin, de dsirabilit,) prsidant la rpartition
des ressources et opportunits dans notre socit.
Comprendre la rationalit des processus algorithmiques (datamining, machine
learning,) est donc un prsuppos ncessaire toute rflexion normative
propos des Big Data en termes dEtat de droit et de droits et liberts
fondamentaux. Il nous importera de tenir compte de lvolution et de la diversit
des processus de calcul impliqus dans les traitements de type Big Data.1
Les applications des nouvelles techniques danalyse et dexploitations des Big
Data sont innombrables. La classe dapplications qui nous intressera ici sera
celui celle qui fait intervenir la modlisation des prdispositions et des
comportements humains des fins diverses sur base des donnes manant
des individus, des contextes dans lesquels ils vivent, ou produites
automatiquement. Nous aurions pu tout aussi bien ne plus distinguer entre
lhumain et le non-humain ds lors que les Big Data n'ont pas, pour "units", les
individus, ni mme les objets, mais les donnes - les notions d'individu, de
sujet, de personne, ou mme de groupe, de collectif, de communaut, sont, par
dfinition pourrait-on dire, dissoutes et exclues de l'univers des Big Data - et
ds lors que le phnomne des Big Data et des nouvelles mthodes de
corrlation des donnes clturent le rel numris sur lui-mme, laissant de la
sorte lextrieur les corps, les objets physiques, toute chose ayant une
forme rsiliente. Ce nest pas par anthropocentrisme que lon sintresse

1
Il conviendrait notamment didentifier le plus prcisment possible les processus relevant du Data
Mining, du Machine Learning, des Social Network Analysis, des Predictive Analytics, du
Sensemaking, du Natural Language Processing, de la Visualization, dans la mesure o ces processus
posent des enjeux spcifiques. Dans le prsent rapport, cependant, nous nous sommes surtout intresss
au Data Mining et au Machine Learning tout en gardant lesprit que dautres processus de traitements de
type Big Data ont des implications marginalement spcifiques en termes de protection des donnes et de
protection de la vie prive.

3
plus particulirement la modlisation des prdispositions et comportements
humains, plutt qu la modlisation des autres vnements possibles du
monde, mais parce que, davantage sans doute que les autres vivants et que
les choses inanimes certainement, les humains ragissent gnralement, et
parfois de manire anticipative, aux descriptions et inscriptions dont ils font
lobjet pour sy conformer ou pour sen carter, et parce quayant la facult de
parler, ils ont cette capacit de rcalcitrance, de rplique, dexcdance toute
nomination , toute caractrisation ou profilage - dont ils font lobjet : les
tres humains rpondent au nom dhomme, ils en sont responsables ,
alors que les autres animaux sont privs de toute possibilit de rponse
lorsquon les nomme, lorsquon les dsigne unilatralement2, mme sil nest
pas absolument exclu, quoi que douteux, qu linverse ils nous affublent dun
nom, entre eux, dans leur langage danimaux, sans que nous soyons nous-
mmes en mesure de rpliquer.
Mme si les concepts dhumain, de non humain ou mme dinhumain nont pas
cours dans la rationalit algorithmique, il nen reste pas moins que, parmi les
vivants, les tres humains ont une capacit particulire rsister aux processus
de catgorisation et de nomination dont ils font lobjet, de rester dans un
tat de relative indtermination. Cest, prcisment, cette indtermination - dans
laquelle prend racine le fond dindcidabilit dans le domaine des affaires
humaines - que visent neutraliser les processus doptimisation algorithmique
des dcisions, au profit dune plus grande efficacit, dune plus grande
oprationnalit, au point que nous pourrions bien tre amens, enfin, exposs
comme nous sommes des formes de catgorisations auxquelles il nous
devient impossible de rpondre, faire enfin cause commune avec les
animaux.

Notre rapport se compose de deux parties. La premire partie (Les Big Data :
enjeux techniques, pistmiques et socitaux) est une tentative
didentification de ce qui fait la nouveaut radicale du monde des Big Data et
des enjeux socitaux y affrents.
La seconde partie (La Convention 108 du Conseil de lEurope lre des
Big Data) sattle, conformment au mandat confi, dtecter les possibilits
de contribution du rgime de protection des donnes caractre personnel la
rsolution de tout ou partie de ces enjeux socitaux et proposer quelques
pistes de rflexion quant lvolution ventuelle de la Convention en vue de
tenir compte du phnomne des Big Data. Vu la complexit des enjeux,
induisant aussi une complexit dans leur dvoilement et leur exposition (il et
fallu pouvoir crire en trois dimensions au moins), nous avons opt pour
quelques solutions de prsentation voues faciliter la lecture. Afin de les
distinguer des autres considrations, les propositions concrtes que nous

2
Voir cet gard Jacques Derrida, Lanimal que donc je suis , in. Lanimal autobiographique. Autour
de Jacques Derrida, Galile, 1999, p. 283. Selon Jacques Derrida, mme si lon peut accorder lanimal
une aptitude au signe et la communication, toujours on lui dnie le pouvoir de rpondre, de prtendre,
de mentir, deffacer ses traces.

4
avons pu dgager sont prsentes dans des encadrs. Chaque fois que nous
faisons rfrence, sans plus de prcision mais en caractres gras des articles
numrots, il faut entendre que nous nous rfrons aux articles de la
Convention pour la protection des personnes lgard du traitement automatis
des donnes caractre personnel dans la version amende rsultant des
travaux du Comit consultatif de la Convention 108.3
Dans la mesure o le phnomne des donnes massives a vocation
concerner la quasi-totalit des secteurs dactivit et de gouvernement, il nous
sera bien entendu impossible den dresser une liste exhaustive des enjeux
actuels et futurs. Tout au plus pourrons nous fournir quelques exemples dans
lesquels se profilent des enjeux pertinents sous langle de la protection des
donnes et, plus gnralement, de la protection des droits et liberts
fondamentaux.

LES BIG DATA : DESCRIPTION, ENJEUX TECHNIQUES, EPISTEMIQUES ET SOCIETAUX

1.1. Volume

Lunivers numrique se composerait aujourdhui de plus de mille-deux-cent


milliards de milliards doctets4, dont quatre-vingt-dix pourcents auraient t
produits dans les deux dernires annes. Ce nombre, qui double tous les deux
ans, devrait tre multipli par dix dici 2020, pour atteindre 44 zettabytes5, ou 44
trillions de gigabytes.6
Le phnomne de transcription du monde physique et de ses habitants sous
forme de donnes mtabolisables par les systmes informatiques nest
dsormais plus limit, ni mme frein de manire essentielle par une
inaccessibilit technique ou conomique. Si la collecte, le transport et la
conservation des donnes ont bien un cot direct7, celui-ci dcrot en fonction
des lois de Moore (doublement de la densit des transistors sur une puce8 en
Silicium tous les 18 mois, augmentant ainsi la capacit de traitement, donc
lefficacit, en permettant, grce la multiplication des transistors, le nombre
doprations complexes prises en charge) et de Nielsen (doublement du dbit
de connexion tous les 21 mois9). On peut aussi mentionner la loi de Kryder qui

3
Draft protocol amending the Convention for the protection of Individuals with regard to Automatic
Processing of Personal Data (ETS No. 108).
4
Loctet est lunit numrique ncessaire pour coder un caractre.
5
Un zettabyte correspond 1,000 000,000,000,000,000,000 bytes, ou octets.
6
Vernon Turner, John F. Gantz, David Reinsel, Stephen Minton, The Digital Universe of
Opportunities: Rich Data and the Increasing Value of the Internet of Things , avril 2014, IDC
#IDC_1672, tude commandite par EMC. http://www.emc.com/collateral/analyst-reports/idc-digital-
universe-2014.pdf
7
Nous nvoquerons pas ici les cots indirects, pour lenvironnement et la sant, du dveloppement des
technologies numriques.
8
Ou tous les vingt quatre mois, suivant les versions. La loi de Moore se heurte logiquement, aux limites
physiques de la miniaturisation.
9
http://www.nngroup.com/articles/law-of-bandwidth/

5
prdisait en 2005 que la densit de stockage d'information sur un disque
magntique doublerait tous les 13 mois. En ajoutant cela l'apparition de
nouveaux types de stockage comme les disques SSD, on se rend compte que
l'on peut stocker de plus en plus de donnes et y accder de plus en plus vite.
On assiste donc, une augmentation exponentielle des capacits de traitement
(Moore), de stockage (Kryder) et de communications (Nielsen).
La croissance exponentielle des Big Data rsulte de la rtention par dfaut non
seulement des donnes directement utiles (dont lutilit10 est dfinie par
lutilisation effective pour une finalit dtermine11), mais aussi de celles dont
lutilit a dj t consomme (qui ne sont plus ncessaires pour la finalit
antrieurement fixe), ainsi que de celles qui nont dutilit que potentielle. Cest
la quantit (le volume) des donnes (beaucoup plus que leur qualit) qui permet
de trouver une utilit inattendue toutes sortes de donnes, y compris les
donnes a priori les moins signifiantes, oprant comme de purs signaux des
signaux individuellement trs peu informatifs (on parle parfois de signaux
faibles ) voir mme a-signifiants, en provenance du monde connect. 12
Ainsi, lutilit de chaque donne dpend de la quantit des autres donnes avec
lesquelles elle est susceptible dtre corrle, plus que de sa densit en
information. Mme des donnes trs faible densit dinformation (des
donnes anonymes qui, individuellement, sont absolument triviales et
asignifiantes), gagnent-elles en utilit lorsque leur quantit crot.13
Dans lunivers des Big Data, il nest donc peut-tre pas exagr de penser que,
par une sorte deffet de rseau14 la valeur potentielle de chaque donne croisse
jusqu surpasser, potentiellement, sa valeur actuelle, en fonction de la quantit
de donnes rcoltes. Selon certaines estimations rpercutes par la
Commission europenne, laccroissement de revenus gnrs annuellement
par les donnes caractre personnel des citoyens europens pourrait

10
Voir notamment le rapport du Groupe de travail sur l'conomie de l'informationGroupe de travail sur la
scurit de l'information et la vie prive de lOCDE, exploration de lconomie des donnes personnelles:
revue des mthodes de mesure de la valeur pcuniaire des donnes., 23 mai 2013,
DSTI/ICCP/IE/REG(2011)2/FINAL.
http://www.oecd.org/officialdocuments/publicdisplaydocumentpdf/?cote=DSTI/ICCP/IE/REG(2011)2/FI
NAL&docLanguage=Fr
11
Pour une description trs claire du phnomne, lire Pierre Delort, Le Big Data, PUF, coll.Que sais-je,
2015.
12
Ibid.
13
Cest ce qui confre dailleurs aux grandes plateformes de lInternet que sont les GAFA (Google,
Amazon, Facebook, Apple) des avantages comparatifs indniables dans lconomie des Big Data (bien
quApple ait jusquaujourdhui refuse dentrer dans le data business). Ces donnes ont bien entendu une
valeur montisable: les donnes sociodmographiques et psychographiques (styles de vie, croyances,
valeurs, personnalit) dtenues par un rseau social comme Facebook, par exemple, propos de tous ses
utilisateurs, reprsentent on une valeur conomique gigantesque en raison notamment des perspectives
quelles ouvrent dune segmentation trs fine de la clientle, ou du ciblage publicitaire.
14
Un effet de rseau est un phnomne par lequel lutilit relle dune technique ou dun produit, par
exemple - dpend de la quantit de ses utilisateurs. Transpose dans le domaine des Big data, la thorie
de leffet de rseau donnerait ceci: lutilit relle dune donne dpend de la quantit des autres donnes
rcoltes avec lesquelles elle pourrait tre agrge.

6
atteindre, en 2020, une valeur dun trillion deuros.15 Cette utilit, ou cette
valeur des donnes nest bien videmment ni perceptible ni accessible aux
individus qui ninterviennent quen tant qu metteurs et agrgats
temporaires de donnes infra-individuelles exploitables en masse,
lchelle industrielle. Quand bien mme, travers des processus
d ouverture des donnes publiques et prives les individus pourraient avoir
accs aux donnes, cet accs en lui-mme ne serait pas du tout suffisant
garantir une certaine symtrie informationnelle entre les individus et les
responsables de traitement capables dinfrer des savoirs nouveaux au dpart
de ces donnes grce lapplication de techniques danalyse inaccessibles aux
individus.16
Deux approches sopposent, ds-lors, sagissant de la philosophie gnrale des
instruments de protection des donnes et du statut des donnes
personnelles. Lapproche law and economics incite favoriser, dans la
distribution des ressources (et les donnes numriques sont des ressources),
les acteurs les plus susceptibles de les faire fructifier. Cest par lorganisation
dun march des donnes, y compris des donnes personnelles considres,
dans cette perspective, comme des biens commercialisables17 (tant donn
notamment quelles sont effectivement commercialises par les entreprises, les
courtiers de donnes,), permettant aux individus de ngocier la
communication de leurs donnes contre rtribution pcuniaire ou contre
dautres avantages (remises de prix, boni ou cadeaux , etc.) que les
partisans de lapproche law and economics entendent favoriser la
croissance et linnovation dans lconomie numrique.
A cette approche oriente march soppose celle qui consiste aborder les
donnes personnelles (et les donnes non personnelles mais susceptibles de
contribuer caractriser les comportements individuels) plutt en fonction du
pouvoir quelles confrent ceux qui les contrlent, et tenter de prvenir de
trop grandes disparits informationnelles et de pouvoir entre les responsables
de traitement et les individus. Cest, lvidence, cette seconde approche qui
prvaut en Europe.

1.2. Varit

Une seconde caractristique des Big Data est leur varit. Outre la varit des
formats (textes, images, sons, localisations, trajectoires,.), les donnes
susceptibles dtre enrles simultanment dans les analyses de type Big Data

15
European Commission, The EU Data Protection Reform and Big Data Factsheet, avril 2015,
http://ec.europa.eu/justice/data-protection/files/data-protection-big-data_factsheet_web_en.pdf
16
Mark Andrejevic, The Big Data Divide, International Journal of Communication, 2014, n.8, pp.
1673-1689.
17
Voir cet gard ltude intitule Exploring the Economics of Personal Data: A Survey of
Methodologies for Measuring Monetary Value, OECD Digital Economy Papers, 2013, No. 220, OECD
Publishing. http://dx.doi.org/10.1787/5k486qtxldmq-en

7
manent dune multitude de sources et se prsentent de manire structure ou
non18.

Les hard data sont produites par les institutions et administrations publiques
(donnes produites lors de recensements, registres de proprit, plaintes et
dcisions de justice, bilans et faillites, donnes relatives aux permis de
conduire, listes dlecteurs, registres des naissances, des mariages et des
dcs, des licences de toutes sortes,). La numrisation des documents
publics nest pas sans incidence sur la vie prive des citoyens. Des documents
publics ne relevant pas formellement de la vie prive mais accessibles
seulement sous forme darchives papier taient, de fait, couvertes par une sorte
dopacit pratique, alors que leur numrisation rend minemment plus probable
leur exposition publique. Cest notamment la raison pour laquelle louverture
des donnes publiques doit impliquer des processus danonymisation des
donnes.
Aujourdhui, lorsque nous, travaillons, consommons, nous dplaons, nous
produisons presquinvitablement de la donne.19 On qualifie de soft data
les donnes mises par les individus, soit intentionnellement, travers les
blogs, rseaux sociaux, forums de discussion, soit involontairement, dans la
mesure o une part croissante de leurs activits, interactions, trajectoires en
ligne ou hors ligne laissent des traces digitales qui sont rcoltes souvent par
dfaut travers des dispositifs de suivi des trajectoires en ligne, de
vidosurveillance, de localisation GPS, de suivi des flux de circulation,
dimagerie satellitaire, denregistrement des transactions bancaires, et
conserves diverses fins, rarement explicites au moment de la collecte.

Si la numrisation du monde ne se heurte aucune rcalcitrance significative


des individus cest en raison du fait quelle semble tre la contrepartie
invitable, indispensable, indissociable dune multitude de nouvelles
fonctionnalits des appareils numriques, de lexprience dune interactivit
sociale qui passe par la numrisation, dun enrichissement du champ perceptif
des individus par des informations personnalises, dynamiques et
contextualises, de nouveaux rapports soi, sa sant, sa productivit,
rapport dautocontrle et de prvention individuelle passant par lusage
dappareils numriques de quantified self et de sant connecte, dun certain
got, aussi, pour la surveillance lorsquelle tend la sphre de contrle de

18
Les donnes structures sont celles dont l'ensemble des valeurs possibles est dtermin et connu
l'avance. Par exemple, dans une base de donnes rassemblant les rsultats d'une enqute d'opinion, l'ge
ou la catgorie socio-professionnelle des individus interrogs sont des donnes structures, car les
tranches d'ges ou la liste des catgories socio-professionnelles possibles sont dtermines a priori. Les
rponses libres aux questions ouvertes sont des donnes non structures, car ces rponses sont
potentiellement toutes diffrentes et impossibles catgoriser a priori. Dans une base de donnes client de
mails, l'auteur ou la date sont des donnes structures, le corps du message est une donne non
structure. (Didier Bourigault, Lavnement du Big Data rvle la valeur des donnes non
structures , http://www.synomia.fr/fr/vision-et-techno/synomia-menu-la-data-non-structuree)
19 Eric Sadin, surveillance globale. Enqute sur les nouvelles formes de contrle. Climats/ Flammarion,
2009.

8
lindividu sur ses proches.20 Au-del des seuls enjeux de protection de la vie
prive et de protection des donnes caractre personnel, il sagira de prendre
en compte, en arrire-fond de nos rflexions, les reconfigurations de lespace
social induites par cette nouvelle porosit de contextes prcdemment moins
permables aux flux numriques. Dans le domaine de lenseignement, mais
aussi dans celui de lassurance, de lemploi, ou mme des relations
amoureuses, lexigence de transparence parfaite, de granularit fine et de
continuit dans le contrle, se substitue aux asymtries informationnelles
induites par les distinctions de rles, de positionnements, de situation,
dintentions entre les personnes, ou justifies par lquit ou lexigence de
solidarit (dans lassurance). Cette obsession pour la transparence, pour
laccs direct, immdiat, aux donnes, qui dispense du rcit, du rapport, du
tmoignage, saccompagne, trs paradoxalement, dun dsintrt pour la
comprhension, la matrise et lvaluation (en termes de lgitimit, dquit, de
justice), des processus (automatiss) de catgorisation mergeant des
traitements de ces donnes.

A tout cela sajoute les mtadonnes, qui sont dans le sens le plus gnral
des donnes propos des donnes cest dire des donnes, parfois
gnres automatiquement par les systmes informatiques eux-mmes, qui
permettent de dcrire et de structurer dautres donnes, indpendamment de
leur contenu. Les mtadonnes peuvent, par exemple tre des donnes
propos de la localisation de donnes, propos des types de donnes
disponibles, de la provenance des donnes,21 Ce sont, par exemple, les
donnes de trafic, voques par la Directive 2002/58/CE du Parlement
europen et du conseil du 12 juillet 2002, comme pouvant inclure des donnes
concernant le routage, la dure, le moment ou le volume d'une communication,
le protocole de rfrence, l'emplacement des quipements terminaux de
l'expditeur ou du destinataire, le rseau de dpart ou d'arrive de la
communication, ou encore le dbut, la fin ou la dure d'une connexion. Elles
peuvent galement reprsenter le format dans lequel la communication a t
achemine par le rseau. Ce sont aussi les donnes de localisation, qui
peuvent inclure, dans les termes de cette mme directive, la latitude, la
longitude et l'altitude du lieu o se trouve l'quipement terminal de l'utilisateur,
la direction du mouvement, le degr de prcision quant aux informations sur la
localisation, l'identification de la cellule du rseau o se situe, un moment
donn, l'quipement terminal, ou encore le moment auquel l'information sur la
localisation a t enregistre. Plus concrtement, relvent, par exemple, de la
catgorie des mtadonnes la date laquelle une donne a t produite ou
enregistre, les coordonnes GPS du lieu o une photographie a t prise, la
dure dune communication tlphonique, Toutes ces mtadonnes taient

20
Note intempestive: Ainsi, il arrive que, sans que cela suscite aucun dbat, les parents denfants gards
lcole maternelle exigent de linstituteur/rice qui sy plie de bonne grce quil/elle prenne, tout au long
de la journe, des photos de leurs enfants et les poste sur une page Facebook ddie quils pourront,
toute heure du jour, consulter grce leur smartphone. Les pratiques sociales numrique dapparence
ludique et convivale dissolvent les murs de lcole au profit dune ubiquit parentale, et conditionnent la
confiance due lenseignant la possibilit de contrler tout moment ltat de bien-tre des enfants.
21
Adriaans, P. et Zantinge, D. , Data mining, Harlow, England: Addison Wesley Longman, 1996.

9
vises par la directive 2006/24/CE du Parlement europen et du Conseil, du 15
mars 2006, sur la conservation de donnes gnres ou traites dans le cadre
de la fourniture de services de communications lectroniques accessibles au
public ou de rseaux publics de communications, invalide par la CJCE le 8
avril 2014.22 Quelles ne doivent plus tre obligatoirement conserves pour tre
mises, le cas chant, la disposition des autorits publiques nempche bien
videmment pas quelles soient ventuellement utilises, notamment des fins
de ridentification des personnes, ou des fins de profilage.
Enfin, une part croissante des donnes numriques provient de ce que lon
appelle dores et dj lInternet des objets23 : la mise en rseau dobjets
intelligents capables de communiquer entre eux, et donc de produire, eux
aussi, des quantits gigantesques de donnes.24 Ces objets en rseau
mettent notamment des informations relatives aux trajectoires, aux activits,
aux performances, la consommation nergtique, aux modes de vie, de
leurs usagers.25
Toutes ces donnes sont soit collectes en premire main par les
administrations ou les entreprises, soit acquises titre onreux auprs dautres
administrations ou entreprises, ou auprs de courtiers de donnes
(databrokers), aussi appels courtiers dinformations, revendeurs
dinformations, agrgateurs de donnes ou encore fournisseurs de solutions
logicielles et qui font mtier de rcolter, dagrger, de fournir des procds
danalyse et dexploitation des donnes massives.26 Comme les individus nont
aucune interaction directe avec ces courtiers de donnes, ils nont pas mme la
possibilit de connatre ltendue ni la nature des informations collectes et
vendues pour une multitude de finalits allant de la prvention des fraudes au
marketing en passant par lvaluation des risques de crdit (credit scoring).
Traiter simultanment ces diffrents types de donnes est un dfi constant pour
les praticiens du Big Data. Si les cots de rcolte, de transport et de stockage
des donnes ne cessent de dcrotre, il nen va pas de mme pour les cots
danalyse de ces donnes. Pour acqurir de la valeur, ou de lutilit les
donnes brutes nont en elles-mmes aucune valeur les donnes doivent
tre traites. Elles doivent tre extraites de leur source d'origine, nettoyes et

22
Arrt du 8 avril 2014 Affaires jointes C-293/12 et C-594/12.
23
En 2015, le nombre de capteurs devrait atteindre 50 billions. (The Internet of Things. How the Next
Evolution of the Internet Is Changing Everything, Cisco White Paper, 2011,
http://www.cisco.com/web/about/ac79/docs/innov/IoT_IBSG_0411FINAL.pdf)
24
http://france.emc.com/leadership/digital-universe/index.htm
25
cf. Opinion 8/2014 on the on Recent Developments on the Internet of Things
http://ec.europa.eu/justice/data-protection/article-29/documentation/opinion-
recommendation/files/2014/wp223_en.pdf
26
Voir notamment Data Brokers. A Look at the Canadian and American Landscape, Report prepared by
the Research Group of the Office of the Privacy Commissioner of Canada, 2014,
https://www.priv.gc.ca/information/research-recherche/2014/db_201409_e.pdf ; Data brokers. A Call for
Transparency and Accountability, Federal Trade commission (US), May 2014,
https://www.ftc.gov/system/files/documents/reports/data-brokers-call-transparency-accountability-report-
federal-trade-commission-may-2014/140527databrokerreport.pdf

10
normalises, valides avant de pouvoir tre rellement exploites. Transformer
les donnes brutes (existant sous divers formats) en savoir oprationnel
ncessite des investissements substantiels. La question conomique est donc,
chaque fois, dvaluer si la valeur des rsultats des analyses fondes sur les
Big Data est susceptible de surpasser leur cot.

1.3. Vlocit

Une troisime caractristique des Big Data est la vitesse laquelle elles sont
accumules en temps rel. Jamais les jeux de donnes nont connu une telle
flexibilit en extension. Ce qui signifie aussi que lutilit des donnes, leur
signification , leur valeur, volue en temps rel, en fonction de lafflux de
nouvelles donnes.

Vitesse daccumulation des donnes, mais aussi vitesse de traitement des


donnes qui court-circuitent et mettent hors-jeu les processus de perception et
dentendement humains, et les processus dnonciation des motivations. Ainsi
la cible des dispositifs de dtection, de classification et dvaluation anticipative
des comportements et propensions humaines (quils soient utiliss dans le
domaine de la scurit, de la lutte anti-terroriste, ou du marketing) nest pas
lexpression ni le dbut dexcution des intentions des individus, mais les
processus qui les prcdent, souvent un stade prconscient. (Nous
envisagerons, dans la partie de notre rapport consacr la surveillance
numrique et lanalyse prdictive, les enjeux de ces nouvelles capacits en
termes dautodtermination informationnelle, de droit la protection de la vie
prive en tant quelle protge lindividu contre les intrusions excessives dans les
processus de dveloppement de sa personnalit, et de garanties contre les
discriminations directes et indirectes).

On pourrait croire que tout ceci nest que science fiction. Il nen est rien. Si lon
en croit Eric Schmidt, directeur chez Google, bientt la technologie deviendra
tellement efficace quil deviendra trs difficile pour les personnes de voir ou
consommer quelque chose qui naura pas t prvu pour eux.27 Dans le
domaine du marketing, terme, lobjectif nest pas tant dadapter loffre aux
dsirs spontans (pour peu quune telle chose existe) des individus mais plutt
dadapter les dsirs des individus loffre, en adaptant les stratgies de vente
(le moment de lenvoi de la publicit, la manire de prsenter le produit, den
fixer le prix,...), le design de linterface (de manire susciter la confiance et
lenvie de consommer) au profil pulsionnel de chacun.28 Ainsi sommes-nous
peut-tre en train de passer dune conomie de lintention une conomie de la
pulsion. La librairie en ligne Amazon brevetait rcemment un logiciel qui lui
permettrait denvoyer les marchandises vers ses clients avant mme que ceux-

27
http://online.wsj.com/news/articles/SB10001424052748704901104575423294099527212
28
A ce sujet, voir Ryan Calo, Digital Market Manipulation, George Washington Law Review, 82, 2014.

11
ci naient procd lacte dachat.29 Les centres dappel tlphoniques de
certaines entreprises, plutt que dvaluer les candidats sur la base du
curriculum vitae et dun entretien dembauche, ont recours des systmes
doptimisation de la force de travail (cest lexpression employe par lindustrie
du recrutement fond sur les modlisations produites par les traitements de
type Big Data)30 qui dtectent, parmi toutes les informations disponibles sur les
rseaux sociaux notamment, non pas directement si le candidat possde les
qualits requises mais sil correspond certains points de donnes a priori sans
rapport avec les capacits requises par la nature du poste ou de lemploi
(comme le fait dtre inscrit sur deux rseaux sociaux plutt que sur trois ou sur
un seul) mais statistiquement prdictifs dune bonne performance ou dune
bonne rsilience pour le poste vacant,...31

Ces dispositifs d anticipation performative des intentions dachat (qui est


aussi un court-circuitage du processus de transformation de la pulsion en dsir
ou en intention nonable), doptimisation de la force de travail fonde sur la
dtection anticipative des performances futures sur base dindicateurs produits
automatiquement au dpart danalyses de type Big Data (qui signifie aussi une
chute vertigineuse du cours de lexprience et des mrites individuels sur le
march de lemploi), posent des questions innombrables. Lanticipation
performative des intentions et les nouvelles possibilits dactions premptives
fondes sur la dtection des intentions, mais de ces intentions - est-elle
compatible avec la poursuite de lautodtermination des personnes ? Ne faut-il
pas concevoir la possibilit dnoncer par soi-mme et pour soi-mme ses
intentions et motivations constitue un lment essentiel de lautodtermination
des personnes, contre cette utopie, ou cette dystopie, dune socit dispense
de lpreuve dun monde hors calcul, dun monde o les dcisions soient autre
chose que lapplication scrupuleuse de recommandations automatiques, dun
monde o les dcisions portent encore la marque dun engagement subjectif ?
Comment dterminer la loyaut de ces pratiques ? Loptimisation de la force de
travail fonde sur le profilage numrique est-il compatible avec le principe
dgalit et de non-discrimination ?

1.4. Fiabilit sans vrit : nouvelles logiques de traitement.

Les Big Data signifient donc surtout le franchissement dun seuil de quantit, de
complexit, de rapidit de prolifration des donnes partir duquel nous
serions contraints dautomatiser et dacclrer (pour tenir compte de
laccroissement continu, grande vitesse, des masses de donnes) les

29
Greg Bensinger, Amazon Wants to Ship Your Package Before You Buy It , The Wall Street Journal,
17 janvier 2014.
30
Voir par exemple Evolv, une entreprise qui propose ce genre de logiciel pour loptimisation de la force
de travail: http://www.evolv.net/
31
Hubert Guillaud, Lemploi lpreuve des algorithmes, InternetActu, 3 mai 2013,
http://www.internetactu.net/2013/05/03/lemploi-a-lepreuve-des-algorithmes/

12
processus de transformation des donnes numriques en informations
oprationnelles.32 Lexpression Big Data renvoie donc aux masses de donnes
numriques complexes accumulation rapide, mais aussi lensemble des
nouvelles techniques logicielles (Data Mining, Machine Learning, Social
Network Analysis, Predictive Analytics, Sensemaking, Natural Language
Processing, Visualization,) sans lesquelles les donnes resteraient
muettes , et qui prsupposent leur tour l'utilisation de capacits de
stockage et de traitement gigantesques. Cette puissance ne pouvant tre
offerte par un seul ordinateur, aussi puissant soit-il, on se tourne alors vers la
paralllisation des traitements et des donnes qui se basent sur l'utilisation
simultane d'un grand nombre de serveurs constitus en grappes (clusters) sur
lesquels les donnes sont distribues 33 et qui collaborent selon des modles
de calcul distribu 34, la dtection des relations subtiles, qui seraient
autrement restes imperceptibles, entre des donnes trs htrognes,
rcoltes dans divers contextes.

Bien sr, la fiabilit du savoir produit par lanalyse des Big Data est tout sauf
assure :

Premirement, ce nest pas parce quelle ont lair de se rcolter toutes


seules , que les donnes sont pour autant adquates et exactes. Cest que la
qualit des donnes et leur adquation dpend trs fortement de la qualit et
de la disposition des capteurs , dune part, et de la disposition des
informations pertinentes se laisser numriser dautre part. Par ailleurs, la
modlisation algorithmique peut, au lieu de neutraliser les biais et prjugs
humains, ne faire que les enregistrer et les naturaliser (les transformant en
donnes ), les rendant, en tant que biais , imperceptibles et
incontestables.

Une rationalit immanente

Plutt que de subsumer les donnes dans des catgories prconstitues


(comme les catgories statistiques, dont la construction suppose un processus
conventionnel qui peut prendre du temps), les traitements de type Big Data
consistent faire surgir les catgories de la masse des donnes elles-
mmes, quasiment en temps rel. Ces catgories algorithmiques, que lon
appelle aussi patterns, ou modles, ou encore profils (lorsquelles concernent
les comportements humains), sont des motifs (on parle dailleurs de
visualisation des donnes) volutifs, forms par les corrlations observes non
plus dans le monde physique mais entre des donnes numriques recueillies
dans des contextes htrognes, indpendamment de toute explication
causale. Pour le dire autrement, la diffrence des traitements statistiques
classiques, dans lesquelles les hypothses ou catgories statistiques prcdent

32
D. Weinberger, Too Big to Know : Rethinking Knowledge Now That the Facts Aren't the Facts, Experts
Are Everywhere, and the Smartest Person in the Room Is the Room, New York : Basis Books, 2012.
33
Comme le logiciel Hadoop.
34
Comme MapReduce.

13
et prsident la collecte des donnes, dans les traitements de type Big Data,
cest exactement linverse qui se produit : la collecte et le traitement des
donnes prcdent et font merger, des donnes massives, des hypothses ou
catgories.

Ds lors, les modles , profils ou catgories algorithmiques jouissent dune


aura dobjectivit bien suprieure celle des catgories statistiques. Comme
lexplique trs bien Alain Desrosires, 35 les statistiques classiques parce quil
faut bien se mettre daccord sur des critres rendant commensurables, et donc
susceptibles dentrer dans une mme catgorie statistique, des vnements,
performances, phnomnes, htrognes - sont le produit de conventions
sociales (ce quil appelle des conventions dquivalence, permettant de
comparer ce qui, sans elles, serait incomparable), et se prsentent donc non
comme refltant objectivement la ralit mais plutt comme des mises en forme
du monde ayant tout au plus une vise de neutralit. Les traitements
statistiques impliqus dans lanalyse des Big Data, par contre, visent
prcisment dispenser de toute opration conventionnelle, politique,
idologique, de toute discussion propos des catgories travers lesquelles
nous percevons le monde, de toute reprsentation du monde puisque les
catgories mergent spontanment des donnes elles-mmes par la grce
dalgorithmes capables de dtecter les corrlations statistiquement signifiantes.
Alors que, lorsquelles servent de rfrences au dbat publique, les objets
statistiques classiques sont toujours susceptibles dtre remis en question
(a-t-on pris assez de donnes en compte ? nen a-t-on pas pris trop ?), les
modlisations algorithmiques (patterns ou profils) semblent a priori devoir
chapper toute forme de remise en question puisquelles napparaissent plus
produites ni construites mais semblent, au contraire maner directement du
monde numris, sans que les jeux de donnes aient t slectionns sur
dautres bases que leur compatibilit technique avec les systmes danalyse de
type Big Data.
La coextension (postule par lidologie des Big Data) de la base statistique et
du rel numris est une absorption de ce qui en tait exclu par les pratiques
statistiques classiques : les point trop loigns de la moyenne (qui pouvait
faire dire que les statistiques, a ne vaut que pour les grands nombres, pas

35
Dans un entretien ralis par Christian Mouhanna, Alain Desrosires expliquait que Les statistiques
sont le produit de conventions sociales. Plutt que de se demander si elles refltent objectivement la
ralit , il est plus fcond de les voir comme des mises en forme du monde, parmi dautres, et de
sinterroger sur les procdures dobjectivation. Plutt que de neutralit , on pourrait parler de vise
de neutralit de la part de statisticiens professionnels, de mme que Jean Ricur parle de vise de
ralit propos du travail de lhistorien. La statistique nest pas neutre a priori. Seule la reconstitution
de ses chanes de production et dusage permet de porter un jugement sur sa porte relle. Les mots
objectivit et neutralit renvoient implicitement la mtrologie des sciences de la nature, alors que
les statistiques conomiques et sociales peuvent tre plus utilement rapproches du droit et des sciences
politiques, dans la mesure o leurs conventions sont des produits sociaux, rgis eux-mmes par des
mtargles, elles aussi conventionnelles. ( Entretien avec Alain Desrosires , Sociologies
pratiques 1/2011 (n 22), p. 15-18. URL : www.cairn.info/revue-sociologies-pratiques-2011-1-page-
15.htm. )

14
pour les cas individuels), ce qui nentrait pas dans les cases (contre les
objets statistiques dorigine conventionnelle, on pouvait toujours argumenter
quils navaient pas pris assez ou quils avaient pris trop en compte). Tout cela
composait un dehors pour une pense la statistique qui avait pour ambition
de reprsenter le monde en certains de ses aspects, et non de sy substituer.
Lincompltude, la slectivit de la statistique classique relativement aux
lments du monde nest pas comprendre comme une faiblesse de la
statistique mais comme une condition indispensable la pense statistique .
Dans le monde des Big Data, laura dobjectivit et dexhaustivit des
donnes numriques (les statisticiens traduisent cette vision idaliste de bases
de donnes exhaustives et non biaises par lexpression n=tout , cest--dire
un jeu de donnes qui contiendrait la totalit des informations) et lide
rpandue suivant laquelle gouverner par les donnes serait une manire de
gouverner objectivement , la perception tant que le sens produit par
lanalyse des donnes, conues comme purs signaux manant directement du
monde en temps rel, ne serait plus construit socialement, politiquement,
culturellement, mais serait lquivalent dun dvoilement automatique, hors
langage, du monde par lui-mme, non interprt, non symbolis, non
reprsent, indpendant de toute perspective idologique est probablement
lune des raisons pistmiques de lacceptation ou de la tolrance des individus
la numrisation du monde. Lidologie des Big Data, cest lutopie dun accs
immdiat, hors langage, au monde. A la crise de la reprsentativit (des
catgories statistiques notamment), la numrisation du monde apporte une
rponse radicale : il ny aurait plus rien reprsenter, puisque les donnes,
parlent delles-mmes , dune faon immanente.36 Cest donc vers une sorte
dindistinction entre le monde et ses reprsentations numriques, dindistinction,
aussi, entre la technique et la culture et donc vers une dpolitisation
quantitative - que semble nous orienter lengouement massif pour les Big Data.
Mais limmanence nest pas la vrit. Les critres de vridiction des
modlisations algorithmiques ne sont absolument pas comparables des
critres de vridiction scientifique. La rplicabilit des oprations
algorithmiques, par exemple, est quasiment impossible dans un contexte dans
lequel les jeux de donnes impliqus sont en expansion continue. Dailleurs,
ces modlisations dont on peut dire quelles sont produites mme le monde
numris plutt qu propos du monde physique ne visent aucunement
dcrire la vrit mais seulement tre oprationnelles . La question de
la validit ne se pose plus en termes de vrit mais de fiabilit -
reliability without truth , crit Eric Winsberg37, une fiabilit rpute dautant
plus grande que les processus sont automatiques et vitent lintervention
humaine - et la dispense de la recherche de la vrit, de mme que de
lhistoricit et de la causalit, est prcisment lun des moteurs de la nouvelle
rationalit algorithmique. Cest lide de la bote noire : on sait ce qui
entre dun ct, on constate ce qui sort de lautre ct, mais on ne sait pas

36
On sait pourtant que les donnes ne sont jamais donnes mais rsultent toujours dun processus
sophistiqu de transcription de la ralit sous une forme mtabolisable par les ordinateurs.
37
Eric Winsberg, Models of Success versus the Success of Models: Reliability without Truth,
SyntheseSeptember 2006, Volume 152, Issue 1, pp 1-19.

15
ce qui se passe entre les deux. Que le monde tel quil se produit effectivement
ne se conforme pas au modle produit algorithmiquement, au rel
algorithmique cest--dire, lorsque ce qui arrive dans le monde fait mentir
le profilage qui en avait t fait nest nullement un chec, ni un rat : ces
notions dchec, de rat, nont pas de sens dans une ralit numrique o tout
cart par rapport un modle statistique est immdiatement assimil dans la
base statistique pour servir affiner le modle. Cest le principe mme de
lapprentissage des machines (machine learning), supervis ou non supervis.

Lapprentissage est dit supervis lorsque lalgorithme est entran sur des
donnes d'apprentissage fournies par le superviseur humain, qui contiennent
la fois les donnes et les rsultats attendus (par exemple: des paramtres
mdicaux et des diagnostics) de manire permettre son fonctionnement
autonome sur des jeux de donnes pour lesquels les rsultats sont inconnus,
dans un processus de gnralisation. La supervision sert valider et
(re)calibrer le modle retenu par lalgorithme (ce quil aura dtect comme
bonne solution) de manire aider le systme orienter ses modlisations
dans la direction dsire.

Lapprentissage est dit non supervis , ou bottom-up, lorsquon ne fournit


pas au systme de modle connu a priori. Aucun jeu de donnes
dentrainement ne lui est fourni, aucune bonne solution ne leur est
prsente en modle. On laisse alors l'algorithme analyser les donnes et
identifier des corrlations entre celles-ci dans l'espoir de voir apparaitre des
modles sous-jacents. Un exemple d'un tel algorithme est celui de groupement,
qui permet de faire merger au sein d'une population des individus 'similaires'.

Lalgorithme auto-apprenant est capable de produire des solutions inattendues,


des patterns ou modles radicalement neufs, imperceptibles aux sens
ordinaires et, en particulier, lil humain (cf. infra, p. 51). Bien entendu,
lalgorithme doit tre entrain liminer les corrlations non pertinentes ou
absurdes.38 Par ailleurs, quil ny ait pas dhypothses ou de modles prsidant
au travail de lalgorithme ne signifie pas quil ny ait pas dassomptions,
notamment quant aux caractristiques de lenvironnement dans lequel
lalgorithme intervient. Ainsi un algorithme qui fonctionnerait sur lassomption
dun environnement stable, immuable, ne pourra-t-il pas faire face aux
changements qui pourraient survenir dans lenvironnement, ce qui lui fera
produire des solutions incorrectes, non pertinentes ou ineffectives. En
particulier, cet algorithme sera incapable de prdire les comportements futurs.

Cependant, la croyance en lobjectivit des prdictions algorithmiques, en leur


effectivit et en leur oprationnalit court-circuite bien souvent, chez ceux qui
les adoptent diverses fins (prvention de linscurit et du terrorisme,
dtection des propensions la fraude, prdiction des comportements dachat,
optimisation des ressources humaines,), le processus dvaluation critique de
ce qui se prsente, le plus souvent, comme une recommandation ou un

38
Mireille Hildebrandt, Smart Technologies and the End(s) of Law, Edward Elagar, 2015, p.24.

16
systme automatis daide la dcision. Dans la mesure o ces dispositifs
automatiques sont achets et mis en service prcisment pour acclrer et
objectiver les processus dcisionnels, leurs prdictions se traduisent
souvent quasi automatiquement en actions et interventions, lesquelles, leur
tour, modifient ltat des choses dune manire qui ne permet plus didentifier,
contrefactuellement, ce qui se serait produit si la recommandation automatique
navait pas t suivie. Ainsi, lanticipation ne fait-elle pas que dcrire lavenir,
elle le transforme de manire telle quil devient extrmement difficile par
manque de ground truths - de mettre lpreuve les algorithmes auto-
apprenants pour valuer effectivement leur validit pistmologique.

Ainsi pourrait-on dire, la limite, que le succs dun algorithme se mesure


moins la vrit des modles quil produit qu la rapidit dobtention
dinformations oprationnelles pour un cot minimum.39 La logique est celle du
rendement, de loptimisation, pas du tout de la vrit, de la validit, et encore
moins de la lgitimit.

Cette perte de contestabilit40 des critres de diffrentiation entre les individus


signifie, tant pour les individus qui font lobjet de profilages que pour ceux qui se
fondent sur ces profilages pour prendre des dcisions lgard des individus,
un dclin de la responsabilit une rarfaction des occasions de rpondre -
, allant dune dispense une impossibilit de rendre compte des raisons de ses
actes ou dcisions. Face ce phnomne, deux voies de solution se profilent :
la premire fonde sur lassomption dune superposition parfaite entre
lobjectivit/la vrit et la justice - consiste sassurer techniquement de
lobjectivit, du caractre non biais, des modlisations algorithmiques (auditing
dalgorithmes,).41 La seconde fonde sur lassomption dune
diffrence/diffrance fondamentale entre les idaux dobjectivit et de justice
consiste exiger la justiciabilit des dcisions42 affectant les individus, quelles
soient ou non fondes sur des traitements automatiss de donnes. Il ne
sagit l plus seulement tant de rpondre de lobjectivit des processus
algorithmiques que du caractre juste, quitable, lgitime, des dcisions prises

39
Jean-Paul Karsenty, Big data (mgadonnes). Une introduction, Revue du Mauss permanente
(http://www.journaldu mauss.net), 1er avril 2015)
40
Antoinette Rouvroy, The end(s) of critique: data-behaviourism vs. Due process, in Mireille
Hildebrandt, Ekatarina De Vries (eds.), Privacy, Due Process and the Computational Turn. Routledge,
2012. Available at: http://works.bepress.com/antoinette_rouvroy/44
41
Voir par exemple ltude mene par Amit Datta, Michael Carl Tschantz, et Anupam Datta, Automated
Experiments on Ad Privacy Settings A Tale of Opacity, Choice, and Discrimination, Proceedings on
Privacy Enhancing Technologies 2015 (1):92112 http://www.andrew.cmu.edu/user/danupam/dtd-
pets15.pdf Dans cette tude, les auteurs mettent par exemple en vidence que le rsultat de lintraction
entre les comportements des usagers, leur dclaration dtre de sex masculin ou feminin dans prfrences
dclares dans leurs parameters d Ad Settings et les logiciels de personnalisation des messages
publicitaires de Google est que les personnes stant dclares de sexe masculine ont une beaucoup plus
grande probabilit que celles qui se sont dclares de sexe fminin de se voir envoyer des publicits
relatives des professions fortement rmunratrices (publicits pour un coaching de cadres suprieurs).
42
Dans cette veine, lire notamment Dannielle Keats Citron, Franck Pasquale, The Scored Society: Due
Process for Automated Predictions, Washington Law Review, 2014, Vol. 89, 2014, p. 1-; U of Maryland
Legal Studies Research Paper No. 2014-8. Available at SSRN: http://ssrn.com/abstract=2376209

17
en fonction de ces processus. Autrement dit, il sagit de faire r-merger de la
non-ncessit - sans laquelle il nest pas de dcision (dcider rellement
prsuppose quaucune solution ne simpose par la ncessit), mais seulement
de lobissance ou du conformisme -, de faire droit lincalculable,
lindcidable par le calcul. Nous tenterons (cf. 2.6 ci-dessous) didentifier de
quelle manire, par exemple, linversion de la charge de la preuve dans les cas
de suspicion de discrimination indirecte induite par des recommandations
automatises, ou encore linstauration dun principe gnral de justiciabilit des
dcisions prises sur la base de traitements automatiss (audit dalgorithmes,
) pourraient contribuer restituer aux individus leurs capacits rendre
compte, noncer par eux-mmes de ce qui les fait agir ou dcider de telle ou
telle manire, cette capacit dnonciation avec toutes les capacits de
fabulation quelle suppose - tant au cur de la notion de subjectivit juridique
peut-tre mme davantage que les capacits dentendement et de volont
classiquement tenues pour occuper le centre de gravit du sujet de droit.
Personnalisation ou individualisation plutt que catgorisation.

Un second aspect des traitements de type Big data, est li la (relative) non
slectivit dans le recueil et le stockage des donnes : alors que les pratiques
statistiques classiques liminent des jeux de donnes tous les points de
donnes qui seraient trop loigns de la moyenne ou du plus probable
comme gnrateurs derreurs et de perturbations, les traitements de type Big
Data supposent au contraire de prendre tout en compte, y compris ce quil y
a de plus singulier, de plus loign des grands nombres, ces singularits
ntant plus mme rapportes aucune moyenne (la notion mme de
moyenne perdant toute pertinence). Cest ce qui permet des processus de
personnalisation , cest--dire la diffrenciation en fonction de profils (de
criminels ou fraudeurs potentiels, de consommateurs, dutilisateurs,) de plus
en plus nombreux et prcis, des interactions scuritaires, commerciales,
administratives, ducatives, mdicales,... Cela signifie notamment, en pratique
qualors que dans le contexte des traitements statistiques traditionnels, on
pouvait dire que les statistiques valaient pour les grands nombres, pas pour les
cas singuliers, lapproche Big Data, au contraire, vise une pertinence des
catgories pour les cas les plus singuliers, ou, pour le dire plus simplement,
vise remplacer la catgorisation par la singularisation ou la personnalisation.

Dans la socit actuarielle, ou dans la socit de lassurance, la charge


correspondant la part incompressible dincertitude radicale, qui dcoule de ce
quon nest jamais certains que tout ce qui est possible ou probable se ralise
effectivement, est pris en charge par des formes diverses de mutualisation,
cest--dire de prise en charge collective, du risque.43

43
Ainsi Franois Ewald expliquait-il, propos du calcul des probabilits au cur des pratiques des
assurances, quil fonctionne comme une ruse de la raison . Le calcul des probabilits est un instrument
dinvestigation vou pallier limpossibilit dexpliquer physiquement les phnomnes. Cest un
instrument dexprimentation par la raison pure. Ce nest pas seulement que nous ignorions les lois

18
Avec larrive des Big Data (mais aussi des phnomnes de quantified self),
cette mutualisation des risques tend faire place une approche beaucoup
plus individualisante, tentant de dterminer, grce notamment la granularit
des analyses de type Big Data, pour chacun, individuellement, ses risques
individuels et ses cots rels - une manire dindividualiser le risque et, du
mme coup, de dtricoter les mcanismes de solidarit devant ce que lon
appelait autrefois la providence . Plutt que de rpartir la charge des
risques, les politiques premptives consistent faire, anticipativement comme
si lvnement redout avait eu lieu et prendre immdiatement, par avance,
les mesures simposant en consquence (refus dassurance un fraudeur
potentiel, limination prventive dun terroriste potentiel, orientation
professionnalisante des enfants sur base dun profilage prcoce,...). Bien
entendu, suivant les domaines dapplication, la premption peut tre plus ou
moins justifie.
Toujours est-il que la fascination pour les Big Data et les pratiques de
datamining comme moyen dimputer anticipativement chacun dune manire
la fois trs individualisante, singularisante, qui ne passe plus par aucun
rapport aucune moyenne calcule sur une population - les cots et
opportunits rels dont il est porteur (dans le domaine de la scurit, de la
sant, du marketing, des ressources humaines, de lassurance, ), nest peut-
tre pas tant la consquence dun besoin accru de scurit que dune
transformation de la rponse faite une demande de scurit qui, elle, nest
absolument pas neuve.
Dans Le monde dhier, Stefan Zweig, situait dans les annes 1900 Vienne
lge de la scurit, lge dor des assurances. A lge de la scurit, on navait
pas vu disparatre, comme par magie, toute espce de danger, mais on avait
appris, grce la statistique, domestiquer, par le calcul des probabilits et la
mutualisation des risques, ce quautrefois on et appel la providence et quon
appellerait aujourdhui lincertitude.
Si je cherche une formule commode qui rsume lpoque antrieure
la premire guerre mondiale, dans laquelle jai t lev, jespre avoir
trouv la plus expressive en disant: Ctait lge de la scurit Ce
sentiment de scurit tait le trsor de millions dtres, leur idal de vie
commun, le plus digne defforts peu peu les grandes masses
parvinrent y accder. Le sicle de la scurit devint lge dor des
assurances les domestiques prirent sur leurs conomies une

rgissant les phnomnes que nous percevons dans leur infinie varit et dans leur infinie dispersion, nous
ignorons aussi leurs causes. Notre ignorance est telle que, si mme nous infrions quelques rgularits,
nous serions incapables de dterminer si ces rgularits seraient constitutives de lois. Le paradoxe du
calcul des probabilits rsulte du fait que cette ignorance fondamentale nest pas voue tre vaincue par
aucun savoir qui proviendrait dune dcouverte, que nous ne quitterions jamais le domaine de
lobservation. Tout lart du calcul consiste ds lors faire jouer cette ignorance contre elle-mme, de la
neutraliser, pourrait-on dire, en lutilisant contre elle-mme. (Franois Ewald, Histoire de lEtat
providence, LGF - Livre de Poche; Nouv. d. ent. ref (1 janvier 1996), p.114)

19
assurance vieillesse et payrent lavance la caisse mortuaire leur
propre enterrement.

Lindividualisation parfaite des risques et opportunits signifierait par


exemple la fin de la raison dtre des assurances, dont le rle premier nest
certainement pas dindividualiser la charge des risques mais au contraire, de
constituer des contrats sociaux restreints entre des personnes, les assurs,
qui, soumis des risques comparables, sengagent prendre en charge
collectivement les coups du sort qui sabattraient sur certains dentre eux.
Comme lexplique Franois Ewald,
Il ny a pas proprement parler de risque individuel, sans quoi lassurance se
transformerait en gageure ou en pari. Ce nest en effet que sur ltendue dune
population que le risque devient calculable. Le travail de lassureur est
prcisment de constituer cette population par slection et division des
risques. 44 Par ailleurs, explique-t-il encore, lassurance individualise, elle
dfinit chacun comme risque, mais dune individualit qui ne se rfre plus
une norme abstraite, dune individualit relative aux autres membres de la
population assure, dune individualit moyenne ou sociologique. Alors que
laccident, le dommage, la malchance et la souffrance sont toujours individuels,
sabattant sur un individu et pargnant un autre, le risque dun accident, dun
dommage, dune perte, affecte toujours en tant que risque une
population. A proprement parler, il nexiste pas de risque individuel. ; sans quoi
lassurance ne serait rien dautre quun pari. Le risque ne devient quelque
chose de calculable que lorsquil est rparti sur une population. Le travail de
lassureur consiste, prcisment, constituer cette population en slectionnant
et en divisant les risques. Lassurance ne peut jamais couvrir que des groupes ;
elle fonctionne en socialisant les risques. Elle fait de chaque individu une
portion du tout.45

Au regard de ces considrations relatives lassurance, les Big data


permettraient, semble-t-il, le passage dune socit actuarielle une socit
post-actuarielle, dans laquelle la solidarit entre personnes relevant de la mme
population dassurs, est remplace par la possibilit dune individualisation
et de la fluctuation des primes en temps rel. Ladaptation, en temps rel et en
continu, des primes dues par chaque assur en fonction de son comportement
journalier (qualit de la conduite automobile, pratique sportive, habitudes
alimentaires,) pourrait avoir des effets dincitation (ou de dissuasion)
socialement souhaitables, mais pourrait aussi en permettant par exemple
dvaluer ltat de sant futur des personnes, sur base, par exemple de
lhistorique de leurs achats de consommation courante (cf. infra) - produire des
consquences nfastes sur le plan des principes dgalit dopportunits et de
solidarit. A cet gard les enjeux de lindividualisation des primes (ou de

44
Ibid, p.138-139.
45
Franois Ewald, Insurance and Risk in Graham Burchell, Colin Gordon, Peter Miller (eds.), The
Foucault Effect: Studies in Governmentality, Chicago University Press, 1991,p. 197-210.

20
lhyper-segmentation du march des assurances en fonction dlments de plus
en plus individuels et singuliers) soulevs par le phnomne des big data ne
sont pas foncirement diffrents de ceux que soulvent la mise disposition
des assureurs, employeurs et autres acteurs intresss des donnes
gntiques individuelles indicatrices de prdispositions certaines maladies
chez des individus actuellement en bonne sant.46
Cependant, l objectivit de la constitution algorithmique des profils, ne
visant plus a priori personne en particulier, ne prsupposant plus aucune
catgorie perceptuelle, et en cela parfaitement galitaires , font aussi des
modlisations et classifications fondes sur les Big Data un phnomne en
apparence indpendant des systmes de diffrenciations juridiques ou
traditionnelles (en fonction du statut, de privilges, davantages ou
dsavantages socio-conomiques) identifis par Boltanski et Thvenot
comme ce sur quoi sappuie un modle de cit qui en justifie ou en lgitime les
tats de grandeur et dont lexistence est la fois une condition et un effet
des relations de pouvoir47. De mme, alors que le droit europen, notamment,
reconnat et protge une srie de caractristiques (le sexe, lorientation
sexuelle, le handicap, lge, lorigine ethnique, lorigine nationale, et la religion
ou les convictions) particulirement susceptibles dexposer ceux qui en sont
porteurs des phnomnes de discrimination, les discriminations
ventuellement susceptibles dmerger dans le monde des Big Data seront
probablement trs difficilement rattachables (du moins directement) ces
diffrentes caractristiques. En dautres termes, alors que, par exemple, les
directives europennes en la matire visent prvenir les distinctions de
traitement fondes sur la race ou lorigine ethnique, la religion ou les
convictions, le handicap, lge, le genre ou encore lorientation sexuelle, cette
approche catgorielle de la discrimination semble a priori exclure les
distinctions de traitement fondes sur l intelligence des donnes , et qui,
comme les machines a-signifiantes dcrites il y a prs de trente ans par
Flix Guattari, ne connaissent ni les sujets, ni les personnes, ni les rles, ni
mme les objets dlimits. Cest prcisment ce qui leur confre une sorte de
toute-puissance, elles passent travers les systmes de signification au sein
desquels se reconnaissent et salinent les sujets individus. 48

Autrement dit, aux systmes de perception et dinterprtation du monde


prcdemment fonds sur des phnomnes de reprsentation (reprsentation
statistique, tmoignage langagier, symbolisation, institutionnalisation,) et de
recognition de structures, formes, catgories (politiquement, juridiquement,
culturellement) prconstitues, lhyper-fragmentation et la croissance
exponentielle de lunivers numrique substitue la possibilit de modlisations
simultanes plutt quantcdentes aux traitements de donnes. Pour cette
raison, la reconfiguration radicale de ce que Michel Foucault appelait les

46
A cet gard, nous nous permettons de renvoyer le lecteur notre tude sur le sujet. Antoinette Rouvroy
Human Genes and Neoliberal Governance: A Foucauldian Critique, Routledge-Cavendish, 2007.
47
Luc Boltanski et Laurent Thvenot, De la justification. Les conomies de la grandeur, Gallimard, 1991,
p.162.
48
Flix Guattari, Rvolution molculaire, Recherches, coll. Encres, 1977, p. 264.

21
pratiques divisantes 49 (prsidant au distinctions de traitement opres entre
les individus) par les traitements de type Big Data dfie - plus
fondamentalement encore que les rgimes de protection de la vie priv et des
donnes personnelles - le droit de la non-discrimination, lequel a toujours t
pens en fonction de la prexistence de catgories, de groupes humains
prconstitus, clairement reconnaissables et ce titre particulirement
vulnrables aux pratiques discriminatoires. Nous verrons que les approches
Big Data questionnent lefficacit de lapproche actuelle consistant interdire et
empcher les distinctions de traitement fondes sur des caractristiques
protges ou catgories vulnrables limitativement numres par la loi (au
sens large) dune part, et en empchant faute pour elles de pouvoir identifier
et se reconnatre dans les catgories algorithmiques auxquelles elles se
retrouvent affectes - toute action collective des victimes potentielles de
discriminations fondes sur le profilage algorithmique dautre part.

1.5. Conclusion de la premire partie.

Evoquer les Big Data, cest voquer demble un changement dapproche dans
la dtection, la classification, lvaluation anticipative des vnements du
monde et des comportements et propensions de ses habitants, cest--dire,
donc, une nouvelle manire de rendre le monde prvisible 50 dfaut de le
rendre signifiant (se passant des processus dnonciation et de vridiction
classiques) articule de nouveaux modes dexercice du pouvoir : une nouvelle
gouvernementalit 51. Dans la mesure o l intelligence des donnes ,
ravivant une sorte de comportementalisme numrique, supplanterait
progressivement les formes statistiques, politiques, juridiques,- travers
lesquelles nous nous reprsentons le rel, il convient de se demander comment
le Droit serait encore en mesure de contenir, de borner, de limiter lemprise
dune gouvernementalit algorithmique, y compris sur les processus lgislatifs
et judiciaires.

49
() jai tudi lobjectivation du sujet dans ce que jappellerai des pratiques divisantes. Le sujet est
soit divis lintrieur de lui-mme, soit divis des autres. Ce processus fait de lui un objet. Le partage
entre le fou et lhomme sain desprit, le malade et lindividu en bonne sant, le criminel et le gentil
garon illustre cette tendance. (Michell Foucault, Le sujet et le pouvoir , Dits et Ecrits II,
Gallimard, 2001, p.1042.
50
Mais il faudrait trouver un autre adjectif que prvisible dans la mesure, dune part, o le rapport au
monde induit par les Big Data dispense de tout rapport sensible (de tout rapport visuel, en particulier)
au monde et, dautre part, o il ne sagit plus tant de prvoir en vue de prvenir que de dtecter dans
lactuel de pures potentialits et dagir par avance comme si celles-ci taient ralises ou
actualises. Il ne sagit donc plus tant de ragir des stimuli du monde que danticiper les
vnements du monde en produisant les stimuli adquats.
51
A propos de la notion de gouvernementalit, voir Michel Foucault, La gouvernementalit, In Dits et
crits, t.II, Paris, Gallimard, Quarto, 1994, 635657 ; Graham Burchell, Colin Gordon, Peter Miller, eds.
The Foucault Effect. Studies in Governementality, U. Chicago Press, 1991.

22
Evoquer les Big Data cest aussi voquer demble de nouvelles perspectives
dinnovation technologique, de nouveaux services, de plus en plus
personnaliss, capables danticiper plutt que de seulement ragir aux stimuli
du monde numris.
Il est dailleurs frappant de constater qu lgard de ce quil est convenu
dappeler la rvolution numrique , en raison de laccession du double
impratif de linnovation et de la croissance au statut de logique absolue, les
individus ne se trouvent plus que rarement qualifis ou interpells en tant que
citoyens , et de plus en plus en tant que consommateurs ou
utilisateurs dont on promet d amliorer lexprience : un certain type
dexprience de lutilisateur qui rencontre les exigences de lactionnariat des
plateformes, exprience travers laquelle lutilisateur devient de plus en plus
producteur de revenus pour les plateformes, en cliquant davantage sur
les liens publicitaires qui lui sont proposs, en laissant davantage de
signaux permettant de mieux le profiler , etc52.
Certaines parties prenantes soutiennent quafin de favoriser linnovation et la
ralisation du potentiel conomique que reprsentent les Big Data lapplication
de certains principes fondamentaux de la protection des donnes (les principes
de finalit, de minimisation des donnes, en particulier) devraient tre assouplis
au profit dune approche risk-based (fonde sur le risque). Lide serait de
libraliser considrablement la collecte des donnes pour en rglementer plutt
lusage dans une perspective fonde sur lanticipation des prjudices possibles
(harm-based) de nature promouvoir un usage responsable des donnes.
Pourtant, comme le dclarait rcemment le groupe de travail de l article
29 53 il nexiste pas aujourdhui de raison convaincante de penser que les
principes fondamentaux de protection des donnes ne soient plus valides et
applicables dans le contexte des Big Data, moyennant certaines amliorations
de nature les rendre plus effectifs en pratique. Le groupe article 29 explique
en outre que le respect du rgime de protection des donnes est un lment
fondamental pour crer et conserver la confiance dont toutes les parties
prenantes ont besoin pour pouvoir dvelopper des modles daffaires fonds
sur lanalyse de ces donnes. En outre, rappelle le groupe de larticle 29, le
respect des rgles de protection des donnes et le dveloppement de solutions
privacy-friendly est essentiel pour assurer une concurrence quitable et
effective entre acteurs conomiques sur les marches pertinents. En particulier,
soutenir le principe de finalit est essentiel pour viter que des entreprises en
situation de monopole ou en position dominante avant lavnement des Big

52
Franck Pasquale, Privacy, autonomy, and internet platforms in Marc Rotenberg, Julia Horwitz,
Privacy in the Modern Age. The Search for Solutions, The New Press, 2015, p.166-167.
53
Dclaration du Groupe article 29 du 16 septembre 2014 sur limpact du dveloppement des donnes
massives sur la protection des individus et gard au traitement de leurs donnes caractre personnel
dans lUnion europenne. (http://ec.europa.eu/justice/data-protection/article-29/documentation/opinion-
recommendation/files/2014/wp221_en.pdf)

23
Data ne conservent un avantage excessif au dtriment des nouveaux entrants
sur ces marchs54.

Dans un premier temps, les attentes gnres par le phnomne des Big Data
convergent vers la perspective damlioration (dans le sens dune objectivation,
dune acclration et dune optimisation) des dcisions dans une multitude de
secteurs : scurit et prvention du terrorisme, optimisation et rpartition de la
prsence policire, soins de sant, politiques nergtiques, gestion du trafic et
optimisation des frquences dans les transports en commun, prvention des
fraudes, marketing et amlioration de l exprience des utilisateurs ou des
consommateurs (pour une critique de lobjectif damlioration de lexprience
des utilisateurs, voir p.en page 23), diffrenciation des prix en fonction des
profils des consommateurs, gestion des stocks, gestion du trafic, orientation en
ducation et formation, recrutement et gestion des ressources humaines).

Les Big Data induisent par exemple de nouvelles attentes en termes de


planification des politiques publiques.58 Collectes notamment travers tous les
capteurs impliqus dans le dploiement du concept de ville intelligente et
travers les appareils de tlphonie mobile, les Big Data promettent de pouvoir
prendre la mesure objective, en temps rel, de la vie urbaine et de ses
infrastructures, au profit dun dveloppement, dune gestion, dune
rglementation et dune vie dans la ville fondes sur les donnes donc sur
une forme numrique, quantitative dvidence rationnelle. Les Big Data
pourraient par exemple permettre doptimiser la frquence, les horaires et les
trajectoires des vhicules de transports en commun en fonction des intrts
collectifs dduits de la golocalisation.

Cependant, les nouvelles capacits de surveillance numrique, danalyse


premptive et de dcision automatise accompagnant le tournant
computationnel59 ravivent aussi, crucialement, la question fondamentale de la
dfinition du pacte social existant entre les individus, les entreprises et les

54
Voir, cependant, David A. Balto, Matthew Cameron Lane, Monopolizing Water in a Tsunami: finding
Sesible Antitrust Rules for big Data (March 22, 2016),
http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2753249

58
Voir par exemple Elisabeth Grosdhomme Lulin, Gouverner lre du Big Data Promesses et prils
de laction publique algorithmique , Notes de lInstitut de lentreprise, mai 2015, ventant l action
publique algorithmique qui promettrait dtre plus personnalise, plus prdictive, plus prventive et
plus participative. . http://www.paradigmes.com/wp-
content/uploads/Gouverner_Ere_Big_Data_IDEP.pdf

59
La mtaphore du tournant computationnel voque une certaine transformation du tournant
linguistique: lunit de perception, de comprhension du monde nest plus la phrase, le mot, le signe,
toujours porteurs de significations, mais la donne, fragment individuellement asignifiant mais calculable,
transpiration plutt que transcription du monde, degr zro de lcriture si lon puis dire.

24
Etats.60 La prsentation des enjeux en termes dinnovation, de comptitivit,
dintrts individuels des consommateurs ou des utilisateurs occulte bien
souvent les enjeux thiques, juridiques, politiques, de la rvolution numrique
au risque de porter atteinte la prminence du droit ainsi que des droits de
lhomme et des liberts fondamentales, et dempcher la recherche dun juste
quilibre entre intrts privs et publics dune part, et entre ces intrts et les
droits et liberts en jeu dautre part. Cependant, les capacits nouvelles
fondes sur lintelligence des donnes , dont beaucoup restent
imperceptibles ou inaccessibles au citoyen ordinaire, peuvent aggraver
considrablement lasymtrie dinformation et/ou de pouvoirs entre ceux qui
dtiennent les donnes et ceux qui, volontairement ou non, les mettent .
Or lune des valeurs ajoutes du droit fondamental la protection des
donnes caractre personnel, par rapport au droit fondamental la protection
de la vie prive est prcisment davoir parmi ses objectifs de rduire les
asymtries de pouvoir et les asymtries dinformation entre les individus et les
personnes physiques ou morales qui collectent, conservent et traitent les
donnes qui leur sont relatives.61
Philip Agre donnait des objectifs poursuivis par les instruments de protection
des donnes dune part, et les instruments de protection de la vie prive dautre
part, une description assez convaincante :
La protection des donnes confre lindividu un certain contrle sur
lampleur et la manire dont certains aspects de son identit sont exposs
au monde, alors que la protection de la vie prive garantit la possibilit,
pour lindividu, de construire sa personnalit labri de contraintes
extrieures excessives 62.
Ainsi, afin de confrer lindividu un certain contrle sur lampleur et la
manire dont certains aspects de son identit sont exposs au monde , le droit
la protection des donnes caractre personnel garantit lindividu des
prrogatives de contrle sur les donnes qui lui sont relatives (une certaine
autodtermination informationnelle) quand bien mme leur traitement ne
constituerait pas en lui-mme une atteinte au droit la protection de la vie
prive : la notion de donne caractre personnel inclut notamment les
donnes relatives des personnes non identifies mais identifiables, quil soit
effectivement procd ou non lidentification de ces personnes (alors que la

60
Nous nvoquerons pas ici les questions relatives la transition vers une conomie du partage
(crowdsourcing) qui, elles aussi, questionnent la nature du pacte existant entre individus, entreprises et
Etat.
61
Orla Lynskey, Orla, Deconstructing data protection: the 'added-value' of a right to dataprotection in
the EU legal order. International and Comparative Law Quarterly, 63 (3), 2014, pp. 569-597.
62
Philip E. Agre, Marc Rotenberg (eds.), Technology and Privacy. The New Landscape, MIT Press,
1998, p. 3. A propos de la distinction entre le droit la protection de la vie prive et le droit la
protection des donnes caractre personnel, voir aussi Juliane Kokott et Christoph Sobotta, The
distinction between privacy and data protection in the jurisprudence of the CJEU and the ECtHR ,
International Data Privacy Law, 2013, 3 (4): 222-228. A propos de lclipse, par le droit la protection
de al vie prive, du droit la protection des donnes caractre personnel dans le droit de lUnion
europenne, Gloria Gonzlez Fuster, The Emergence of Personal Data Protection as a Fundamental
Right of the EU, Springer, 2014.

25
constatation dune violation du droit la vie prive prsupposerait au minimum
que la personne soit identifie)63.
Et gard au rle de la protection des donnes caractre personnel dans la
socit64, notamment en vue de lutter contre toutes les formes de
discrimination, compte tenu de la ncessit de concilier la protection des
donnes avec dautres droits et liberts fondamentaux et de la ncessit de
prendre en compte le caractre indivisible des droits civils et politiques et des
droits conomiques, sociaux et culturels, nous proposons dvaluer, dans une
seconde partie, la contribution que pourrait offrir la Convention 108 du Conseil
de lEurope la protection de toutes les personnes physiques lgard du
traitement de donnes impliques dans les Big Data.

63
Friedl v Austria (1996) 21 EHRR 83.
64
La Cour de Justice de lUnion europenne, se rfrant son arrt du 12 juin 2003, Schmidberger (C-
112/00, Rec. p. I-5659, point 80), rappellait juste titre, dans son arrt du 9 novembre 2000, concernant
les affaires jointes C-92/09 et C-93/09, Volker und Markus Schecke GbR et Hartmut Eifert (Rec. 2010, p.
I-0000), que le droit fondamental la protection des donnes caractre personnel, napparat () pas
comme une prrogative absolue, mais doit tre pris en considration par rapport sa fonction dans la
socit.

26
LA CONVENTION 108 DU CONSEIL DE LEUROPE A LERE DES BIG DATA.

1.6. Champ dapplication et dfinitions (article 2.a.) - La notion de


donne caractre personnel.

Les donnes caractre personnel (toute information65 concernant une


personne physique identifie ou identifiable) qui sont les seules dont les
traitements automatiss (ou non) nous ont parus suffisamment menaants pour
les droits et liberts fondamentaux pour justifier un encadrement lgislatif
ninterviennent pas toujours dans les traitements de type Big Data.

Il est des applications, qui visent par exemple lanalyse climatique ou le contrle
des plateformes ptrolires partir des donnes recueillies par les capteurs
disposs sur leurs quipements techniques, qui nimpliquent aucun moment
le traitement de donnes caractre personnel. Les applications visant, par
exemple, prdire la survenance et le dploiement dpidmies (Google Flu),
dcouvrir les effets secondaires de mdicaments ou combattre la pollution
dans les grandes villes, nimpliquent pas le traitement de donnes caractre
personnel pourvu que les donnes aient t soigneusement anonymises.

Il arrive aussi que les donnes caractre personnel interviennent de manire


vidente dans les traitements Big Data. Dans ces cas, les donnes peuvent
provenir des applications de tlphones mobiles, des smart grids, des
transpondeurs intgrs aux vhicules et servant calculer des taxes au
kilomtre ou faire varier le montant des primes dassurance en fonction des
distances parcourues, des dossiers mdicaux, des donnes de localisation, des
rseaux sociaux, des registres de passagers des transports ariens, des
registres publics, des programmes de fidlit, des squenages gnomiques,
des historiques dachats, mais aussi, de plus en plus, dune quantit dobjets
intelligents (brosses dent, rfrigrateurs, chaussures, montres,
tlvisions,) qui permettent non seulement didentifier leurs propritaires mais
sont en plus trs rvlatrices de leurs modes de vie.66

Dans ces cas, lanonymisation des donnes est prsente comme une
condition suffisante pour dispenser les responsables des traitements des
obligations qui leur sont imposes et priver les individus des prrogatives qui
leur sont garanties au titre de leur droit la protection des donnes caractre

65
A titre prliminaire, la question pourrait se poser de savoir si une donne, prise isolment, est une
information, ou si elle est seulement un signal dpourvu de signification mais quantifiable.
Linformation, en ce cas, serait le rsultat du traitement des donnes.
66
International Working Group on Data Protection in Telecommunications, Working Paper on Big Data
and Privacy. Privacy principles under pressure in the age of Big Data analytics, 55th Meeting, 5 6 May
2014, Skopje.

27
personnel. Cependant, comme le faisait remarquer le Groupe de travail article
29 dans son avis du 10 avril 2014 sur les techniques danonymisation, [L]
anonymisation constitue un traitement ultrieur des donnes caractre
personnel; ce titre, elle doit satisfaire lexigence de compatibilit au regard
des motifs juridiques et des circonstances du traitement ultrieur. De plus, si les
donnes anonymises sortent du champ dapplication de la lgislation sur la
protection des donnes, les personnes concernes peuvent nanmoins avoir
droit une protection au titre dautres dispositions (comme celles qui protgent
la confidentialit des communications).67

Deux questions, essentiellement, se posent dans le contexte des Big Data.


Premirement, la distinction entre donnes personnelles / donnes anonymes
nest plus vidente alors que les possibilits de ridentification des individus sur
base de donnes anonymes est un risque considrable. Deuximement,
lanonymat ne garantit pas contre les possibilits de caractrisation des
comportements des individus, ni contre lanalyse prdictive de ces
comportements.

Les risques de ridentification des individus par croisement de donnes


anonymes.

Dans le contexte des Big Data, comme le montre notamment une tude
rcente de chercheurs du MIT, il suffit, pour didentifier 90 pourcent des
personnes dans un jeu de mtadonnes anonymes (ne contenant aucun nom,
aucune adresse, aucun numro de carte de crdit ni rien dautre qui puisse tre
considr comme donne personnelle) concernant trois mois de transactions
effectues par 1,1 million dutilisateurs de cartes de crdit, de disposer de
quatre donnes spatiotemporelles. La connaissance du montant dune seule
transaction augmenterait le risque de ridentification de 20% montrent-ils
encore. Une tude prcdente avait montr le mme phnomne de
ridentifiabilit au dpart de donnes de localisation anonymes.68

67
Voir lAvis 05/2014 du groupe de travail de larticle 29 sur les techniques danonymisation:
http://ec.europa.eu/justice/data-protection/article-29/documentation/opinion-
recommendation/files/2014/wp216_fr.pdf
68
Yves-Alexandre de Montjoye, Unique in the shopping mall: On the reidentifiability of credit card
metadata , Science, no 347, 30 janvier 2015 ; Yves-Alexandre de Montjoye, Csar A. Hidalgo, Michel
Verleysen et Vincent D. Blondel, Unique in the Crowd: The privacy bounds of human
mobility , Nature SRep, no 3, 25 mars 2013. Voir aussi, antrieurement, Paul Ohm, Broken Promises
of Privacy: Responding to the Surprising Failure of Anonymization , 57 UCLA L. Rev. 1701 (2010);
Arvind Narayanan, Vitaly Shmatikov, Robust De-anonymization of Large Sparse Datasets ,
2008 Proc. of IEEE Symp. on Security & Privacy111; Latanya Sweeney, Simple Demographics Often
Identify People Uniquely 2 (Carnegie Mellon Univ., Data Privacy Working Paper No. 3, 2000).

28
Ces possibilits de ridentification au dpart de mtadonnes anonymes
tiennent au fait tout fait trivial que chaque individu prsente certaines
rgularits de comportement, qui, peut-tre chappent sa propre perception,
mais sont facilement reprables travers ses traces numriques pour
autant que celles-ci soient rcoltes et conserves pendant un certain temps
(trois mois pour les tudes susmentionnes). Lanonymat, dans un contexte de
Big Data, est donc une ralit toute relative, dpendante de la quantit, de la
varit et du temps de conservation des donnes beaucoup plus que de la
densit en information de chaque donne.

a) Face ces risques substantiels de ridentification existant relativement aux


donnes anonymes, faudrait-il considrer les donnes anonymes comme des
donnes caractre personnel ds lors quelles interviennent dans des
traitements de type Big Data de nature affecter les opportunits socio-
conomiques dune personne ? Cette solution se heurte une srie dobstacles
pratiques. Comment, en effet, dterminer le moment partir duquel ne
donne anonyme commence contribuer la cration dun profil ?
Comment, aussi, identifier a priori (cest--dire avant que la finalit de profilage
soit ralise) la personne physique titulaire des donnes ?
b) Une autre approche, plus praticable, consisterait contraindre les entits qui
souhaitent anonymiser des donnes procder lvaluation pralable des
risques de ridentification (en fonction de la quantit, de la varit et du temps
de conservation envisage pour les donnes rcoltes), et en communiquer
les rsultats aux individus pralablement au recueil de leur consentement mais
aussi, tout moment, en cas daccroissement du risque de ridentification.
Cette solution se place dans la perspective plus gnrale de lexigence de
ltude dimpact pralable sur la protection des donnes et la vie prive (privacy
impact assessment) et de lexigence de ladoption de mesures techniques et
organisationnelles prenant en compte les implications du droit la protection
des donnes caractre personnel tous les stades du traitement des
donnes prvues larticle 8bis2 et 3 (obligations complmentaires) de la
Convention 108 (modernise). Cette solution est loin dtre parfaite, bien
entendu. Une difficult tient notamment la dimension temporelle de la
problmatique de la ridentification. Des donnes aujourdhui anonymes
risquent de perdre ce caractre dans lavenir en raison dun possible
croisement de ces donnes avec dautres donnes, entre les mains du
responsable du traitement de ces donnes anonymes ou entre les mains de
tiers. Le risque de ridentification est minemment volutif dans le temps.
Lanalyse de risques ne peut donc tre faite une fois pour toutes, elle doit faire
lobjet dune rvaluation rgulire, ou dun monitoring constant, ce qui est
dautant plus difficile quest difficilement envisageable la ralisation dun
inventaire de toutes les donnes, actuelles et futures, susceptibles dtre
croises avec les donnes anonymes en la possession du responsable du
traitement.
Nanmoins, bien quinsuffisante, lexigence dune analyse de risques au
moment de lanonymisation, ventuellement assortie dune exigence de

29
rvaluation rgulire, offre lavantage de sensibiliser tant les personnes
concernes que les responsables de traitement au fait que lanonymat nest
jamais garanti et de les inciter des lors la prudence lorsque, pour les
premiers, ils mettent un consentement, et, pour les seconds, ils rendent
possible le croisement des donnes anonymes en leur possession avec
dautres jeux de donnes en leur possession galement ou en la possession de
tiers.
En tous les cas, le seul argument suivant lequel les donnes traites sont des
donnes anonymes ne devrait pas suffire immuniser les responsables du
traitement de toute responsabilit mais au contraire, tant donns les risques
de ridentification, ils devraient tre obligs notamment de prendre toutes les
mesures techniques susceptibles de minimiser ces risques. 69

Lanonymat ne garantit pas contre les possibilits de caractrisation des


comportements des individus, ni contre lanalyse prdictive de ces
comportements.

Comme les modles ou profils sont construits au dpart de donnes en


provenance de grandes quantits dindividus, et que les donnes relatives
lun des individus sont tout aussi (peu) signifiantes que celles dun autre pour la
modlisation, des donnes trs peu personnelles, en trs petite quantit,
suffisent produire lgard de nimporte quel individu des savoirs
nouveaux , cest dire infrer certains lments sans rapport immdiat
avec les donnes qui le concernent mais qui permettent nanmoins de le
cataloguer 70. Autrement dit, pour construire un profil - afin de pouvoir
capitaliser sur les risques et opportunits dont nous sommes porteurs - les
donnes de nos voisins sont aussi bonnes que les ntres. Faudrait-il concevoir,
des lors, que chaque individu soit titulaire des donnes relatives ses voisins
dans la mesure o leur rcolte et leur traitement risque de permettre de la
caractriser elle-mme ou de laffecter dun profil particulier ? Cela signifierait
notamment que les mmes donnes puissent tre revendiques par de
nombreuses personnes comme leurs donnes caractre personnel, ce qui
serait bien entendu absolument ingrable.
Cette ncessit de rapporter les enjeux des questions de protection des
donnes personnelles tmoigne dun individualisme mthodologique quil serait
peut-tre bon de dpasser relativement la problmatique qui nous occupe.

69
Voir galement Arvind Narayanan Joanna Huey Edward W. Felten, A Precautionary Approach to Big
Data Privacy , March 19, 2015, CPDP proceeding,
http://randomwalker.info/publications/precautionary.pdf

70
Martijn van Otterlo, Counting Sheep: Automated Profiling, Predictions and Control , contribution
lAmsterdam Privacy Conference des 7-10 octobre 2012.

30
Les formes de pouvoir qui sexercent dans le contexte des Big Data passent
peut-tre beaucoup moins par les traitements de donnes caractre
personnel et lidentification des individus que par des formes algorithmiques de
catgorisations impersonnelles, volutives en continu, des opportunits et des
risques, cest--dire des formes de vie (attitudes, trajectoires,). Un profil, ce
nest en ralit personne personne ny correspond totalement, et aucun profil
ne vise quune seule personne, identifie ou identifiable. Pourtant, tre profil
de telle ou telle manire, affecte les opportunits qui nous sont disponibles et,
ainsi, lespace de possibilits qui nous dfinit : non seulement ce que nous
avons fait ou faisons, mais ce que nous aurions pu faire ou pourrions faire dans
lavenir.71 De plus, comme nous lavons montr plus haut, la valeur de chaque
donne nest plus, dans le contexte des Big Data, contenue en elle-mme, mais
est essentiellement de nature relationnelle: ce sont les (cor)relations entre
donnes qui leur confrent une utilit, une valeur, et aussi, ventuellement, un
caractre plus ou moins sensible.
Le dfi qui serait le ntre aujourdhui pourrait donc snoncer ainsi: comment
tenir compte, dans les instruments de protection des donnes personnelles, de
la nature relationnelle, et donc aussi collective, de ce qui, travers les donnes,
mrite dtre protg ?

1.7. Principes de base : licit et bonne foi, finalit et proportionnalit,


exactitude.
Consentement (article 52)

En vertu de larticle 52 de la Convention 108 du Conseil de lEurope


(modernise), le traitement de donnes ne peut tre effectu que sur base du
consentement libre, spcifique, clair et non quivoque de la personne
concerne ou en vertu dautres fondements prvus par la loi.
Par rapport aux donnes caractre personnel impliques dans des
traitements de type Big Data, le caractre protecteur de lexigence du
consentement spcifique, libre et clair risque de perdre en effectivit72 des
lors que le consentement au recueil et au traitement de ces donnes intervient
contractuellement comme pr-condition lutilisation de certains appareils,
services ou applications (souvent prsents comme des contrats dadhsion),
ou des lors que certains appareils connects seraient offerts gratuitement
condition que leurs utilisateurs consentent la collecte et au traitement des
donnes personnelles captes par ces appareils. Cest en termes
dacceptabilit de la renonciation au droit la protection des donnes

71
A cet gard, voir Ian Hacking, Making Up People, London Review of Books, 2006, vol.26, no.16, pp.
23-26.
72
Pour une critique du principe du consentement dans le contexte de la modlisation prdictive des
comportements fonds sur les analyses de type Big Data, voir Mantelero, A. The future of consumer data
protection in the E.U. Rethinking the notice and consent paradigm in the new era of predictive
analytics. Computer Law and Security Review 2014, (30):643-660.

31
caractre personnel un droit reconnu comme fondamental - que se pose ds
lors la question plutt quen termes de consentement clair.
Outre cela, il semble que les individus, la plupart du temps, consentent sur un
mode quasiment automatique la collecte systmatique de ces soft data. Cet
tat de fait est d une srie de facteurs : largument suivant lequel qui na
rien cacher na rien craindre de la surveillance , ajout au confort de
limmdiatet, aux vertus de linteraction et la valorisation de lexposition
personnelle lemportent largement sur les rticences au dvoilement de la vie
prive et la communication des donnes personnelles. Cest dautant plus vrai
que leffacement de ses traces digitales demande lorsque les architectures
de choix impliquent des rgles denregistrement par dfaut (opt-out), comme
cest souvent le cas - de la part de lindividu, une dmarche active.

A cet gard, le succs des rgles de conservation des donnes par dfaut ou,
pour le dire autrement, le manque de succs des options permettant de droger
cette rgle de conservation des donnes tiendrait, si lon en croit Cass R.
Sunstein73, se fondant sur lconomie comportementale, la combinaison de
trois facteurs principaux. Le premier facteur est linertie des comportements des
lors queffacer ses traces demande un effort dont on ne sait au juste sil vaut
vraiment la peine, tant donn que chacune des donnes manant de nos
activits en ligne nous parat nous-mmes, a priori (indpendamment des
oprations de recoupement, de croisement, de modlisation auxquelles elles
pourraient contribuer), de peu dimportance. La rgle par dfaut, quand bien
mme nous avons la possibilit dy droger trs facilement en quelques clics
prvaudra toujours lorsque lenjeu ponctuel, actuel, napparat pas significatif
aux yeux de linternaute. Le second facteur favorisant la rgle de conservation
par dfaut consiste en ceci que, dans une situation dincertitude quant la
marche suivre, lutilisateur moyen aura tendance considrer que la rgle par
dfaut, puisquelle a t pense par dautres que lui, rputs plus experts et
puisquelle est probablement suivie par la plupart des autres personnes, est
sans doute la meilleure option pour lui aussi. Enfin, le troisime facteur consiste
dans le fait que les individus soient gnralement plus sensibles au risque de
perdre un avantage dont ils ont ou croient avoir la jouissance en se maintenant
dans la situation dans laquelle ils se trouvent qu lopportunit de gagner
quelque chose en changeant. Cest une variante du phnomne dinertie mais
travers laquelle les concepteurs, des designers , les marketeurs peuvent
avoir une prise sur les individus : ils peuvent rduire la probabilit que les
utilisateurs scartent de la rgle par dfaut dans lajustement des rgles de
confidentialit en voquant tout ce quils ont perdre dans la mesure o la
rtention des traces numriques est ce qui permet de leur offrir un service
plus personnalis, plus adapt leurs besoins en temps rel en fonction du lieu
o ils se trouvent, ou de leurs gots, un service plus rapide et efficace, et que
leffacement leur fera perdre tous ces avantages suffira gnralement viter
que lutilisateur ne scarte de la rgle par dfaut.

73
Cass R. Sunstein, Impersonal Default Rules vs. Active Choices vs. Personalized Default Rules : A
Triptych , 19 mai 2013, http://ssrn.com/abstract=2171343

32
Une tude rcente74, cependant, suggre que le consentement des
internautes la collecte et la conservation des donnes transpirant de leurs
activits en ligne ne relverait pas tant de le fait quils auraient limpression dy
trouver leur compte, en acceptant de troquer les donnes transpirant de leurs
activits en ligne en change davantages (en termes de ristournes, par
exemple), comme aiment le faire croire le secteur du marketing, que dun
sentiment de rsignation face une sentiment de perte de contrle invitable
sur les donnes, un sentiment renforc si pas induit par les proclamations de la
fin de la vie prive manant essentiellement par certains grands acteurs de
lInternet qui ont intrt cette rsignation des internautes et copieusement
amplifies par les mdias.

Toujours est-il quen raison notamment des rglages par dfaut des appareils
numriques et des logiciels dapplications (qui conservent par exemple
lhistorique des recherches sur les moteurs de recherche moins que
lutilisateur ne manifeste expressment sa volont de ne pas conserver
dhistorique), cest plutt sur le mode de ladhsion par dfaut que du
consentement libre et clair que les individus vivent cette prolifration des
donnes enregistres dans les nuages , cest--dire trs loin de lappareil de
lutilisateur, mais, contrairement ce quvoque la mtaphore nbuleuse, non
pas de faon distribue mais dans dune manire trs centralise dans de
gigantesques entrepts de donnes (datacenters).
Parce que lautonomie individuelle, pour peu quelle existe, nest pas une
capacit purement psychique, mais quelle dpend de facteurs socio-
conomiques, ducatifs, de design , les architectures du choix individuel
telles que les systmes de rgles par dfaut - fondes sur des acquis de la
psychologie sociale ou sur une dtection algorithmique du profil psychologique
de celui quon appelle lutilisateur, devraient faire lobjet dvaluations
rigoureuses, spcialement lorsquelles sont luvre dacteurs dont les intrts
ne sont pas aligns sur ceux des utilisateurs . Nous ne saurions trop insister
sur lurgence de procder une typologie des acteurs du numrique et
surtout de leurs intrts . Cette voie nous semble plus prometteuse lheure
actuelle quun arc-boutement de principe sur lexigence illusoire dun
consentement libre et clair.
Les architectures de choix construites par des acteurs dont les intrts ne sont
pas aligns sur ceux de lutilisateur, incitant, par les moyens dcrits plus haut,
lutilisateur ne pas scarter de la rgle par dfaut, dtre en pratique
incompatible avec ce quHenri Atlan, par exemple, appelle lexprience
minimale du choix qui
implique que plusieurs alternatives soient offertes et que le choix soit le
facteur dterminant par lequel lune dentre elles est ralise, passant ainsi
du statut de possible celui de rel, ou, plus prcisment, dactuel.75

74
Joseph Turow,.Michael Hennessy,.Nora Draper,.The Tradeoff Fallacy: How Marketers Are
Misrepresenting American Consumers and Opening Them Up to Exploitation, A Report from the
Annenberg School for Communication, University of Pennsylvania, June 2015.
75
Henri Atlan, Les tincelles de hasard, T. 2., Seuil, 2003, p. 77.

33
De ce qui prcde (la facilit des trade offs consistant consentir au traitement
des donnes en change davantages divers et le pouvoir des architectures
de choix sur les dcisions individuelles) il ressort que lexigence du
consentement est trs peu protectrice des intrts individuels et collectifs
ventuellement menacs par des traitements massifs de donnes personnelles.
Ds lors, il conviendrait de spcifier plus avant les conditions dun
consentement libre, spcifique, clair et non quivoque en prcisant
notamment que les responsables de traitement doivent garantir que le choix de
lindividu soit le facteur dterminant ( lexclusion des offres davantages de
toute nature en change du consentement, et lexclusion de toute
manipulation de larchitecture de choix en vue dobtenir le consentement) par
lequel il consent, ou ne consent pas au traitement des donnes qui le
concernent. Il serait utile galement, sans doute, afin de renforcer le caractre
non quivoque du consentement dinciter (ou de contraindre) les responsables
de traitement opter pour des systmes dopt-in plutt que d opt-out.

Outre lexigence du consentement libre, spcifique, clair, non quivoque, les


traitements de type Big Data semblent heurter de front les principes de
minimisation des donnes et de finalit des traitements.
Minimisation des donnes (article 5.4.c)

Dans la mesure o, comme expliqu plus haut, lutilit relle dune donne y
compris une donne caractre personnel - dpend de la quantit des autres
donnes rcoltes avec lesquelles elle pourrait tre agrge, les responsables
de traitement ont ncessairement tendance les conserver non seulement
lorsquelles sont utiles ou ncessaires la fourniture dun service dtermin,
mais aussi en excs de ce qui serait strictement ncessaire aux services dont
ils gratifient leur clientle. Ainsi, alors que la golocalisation continue des
utilisateurs par les oprateurs de tlphonie mobile ne peut tre justifie en
dehors des moments o lutilisateur utiliserait spcifiquement certaines
applications (la recommandation automatise de restaurants proximit de l
o il se trouve par exemple) ncessitant la golocalisation, il est de fait
extrmement difficile pour un utilisateur de sassurer que ses donnes sont
traites conformment aux engagements spcifiques de loprateur et en
conformit avec la lgislation en vigueur, car, bien sr, rien de tout cela ne se
voit ni ne sprouve.
Il conviendrait cet gard de renforcer leffectivit de lobligation de dclaration
des traitements de donnes (aux autorits de protection des donnes) ainsi
que, comme dj voqu plus haut, lobligation dinformation des personnes
concernes, y compris lorsque la finalit des traitements nest pas autrement

34
dfinie que de constituer des jeux de donnes suffisamment massifs que pour
constituer la base de traitements de type Big Data.
Peut-tre conviendrait-il galement de soumettre lautorisation des autorits
de protection des donnes la constitution de banques de donnes anonymises
aux fins de traitements de type Big Data.

Finalit (article 5.4.b)76

De mme, il est douteux que les utilisateurs de certains rseaux sociaux, en


donnant leur consentement formel la conservation et lexploitation de leurs
donnes des fins de recherche et damlioration des fonctionnalits du rseau
aient rellement voulu donner la permission de se servir deux comme
cobayes pour des expriences de psychologie sociale menes sur ce
rseau et consistant tenter de manipuler leurs motions en triant, pendant un
certain temps, le fil dactualits auxquels ils taient exposs de manire
tudier lincidence, sur leur humeur, dune exposition relativement prolonge
des expressions plutt pessimistes, ngatives, alarmistes, etc.
Cest, cette fois, le principe de finalit qui se trouve mis mal. Mais ce dernier
est bien sr galement incompatible avec lidologie des Big Data, en cela
soutenue par limpratif de linnovation rig au rang de logique absolue et qui
intime de ne pas brider la capacit des Big Data faire merger de nouveaux
produits et services la faveur, prcisment, de la disponibilit de quantits
massives de donnes dont la croissance ne serait bride par aucun impratif de
finalit.
Pourtant, le principe de finalit a t reconnu comme principe fondamental du
rgime europen de protection des donnes77
1. Il semble quune rflexion devrait avoir lieu propos de la distinction, qui
semble sestomper dans les esprits, entre libert de la recherche scientifique
et impratif dinnovation. Si nous nentrerons pas ici dans cette discussion
l, qui nous loignerait trop des enjeux de la protection des donnes,
constatons nanmoins que si la libert de la recherche scientifique fait partie
des valeurs prises en compte par la Convention 108 lorsquelle prvoit,
larticle 9 (drogations et exemptions), la possibilit de restreindre les droits
des personnes concernes dans le cas de traitements ne prsentant aucun
risque. Lexemple donn est celui de lutilisation des donnes des fins
statistiques, dans la mesure o il sagit de donnes prsentes sous une
forme agrge et spare des identifiants. De mme la recherche

76
A propos du principe de finalit, voir lOpinion 03/2013 on purpose limitation du groupe de travail sur
la protection des donnes de lArticle 29, http://ec.europa.eu/justice/data-protection/article-
29/documentation/opinion-recommendation/files/2013/wp203_en.pdf
77
Les conclusions de lavocat gnral M. Niilo Jskinen du 17 novembre 2011 dans laffaire Bonnier
Audio AB c. Perfect Communication Sweden AB, Affaire C-461/10, 51 le rappellent: La collecte des
donnes caractre personnel et ses modalits, ainsi que les finalits, doivent tre dcides au pralable.

35
scientifique est mentionne dans cette rubrique. Il va de soi quil convient de
distinguer les traitements de type Big Data des traitements de donnes
des fins statistiques. Nous avons expliqu plus haut en quoi les traitements
de type Big Data consistent en de nouvelles pratiques statistiques
diffrentes des pratiques statistiques classiques. Par ailleurs, la condition
dexemption des traitements statistiques est quelle ne prsente aucun
risque pour les individus (comme explicit dans le Rapport explicatif de la
Convention 108). Or, dans le cas des traitements de type Big Data, les
perspectives de profilage, y compris de profilage anticipatif, des personnes
ainsi que les perspectives de dcision automatique lgard des personnes
(voir troisime partie infra) sont loin de ne poser aucun risque pour les
personnes concernes. La libert dinnover , par contre, ne fait pas partie
des valeurs implicitement ou explicitement protges par la convention 108,
ni des droits et liberts fondamentaux consacrs par la Convention
europenne des droits de lhomme.
2. Il convient donc de raffirmer trs fermement le principe de finalit des
traitements de donnes caractre personnel, en ltendant, le cas
chant, aux donnes anonymises, conformment ce que nous avons
crit plus haut ce propos.

Principe de loyaut et de transparence des traitements (article 5.4.a)


[On peut noter une ventuelle redondance entre les exigences de transparence
prvues larticle 5.4.a et larticle 7bis de la Convention 108 rvise dune
part, et larticle 5.2. dautre part (concernant lexigence dun consentement
libre, spcifique, clair et non quivoque, la quelle exigence emporte
ncessairement, elle aussi, une exigence de transparence). Notre suggestion
serait, cet gard, de reformuler larticle 5.4.A comme suit: a. traites
loyalement lgard de la personne concerne.]
Il conviendrait peut-tre dinsister ici sur le fait que cette obligation de loyaut
stend lensemble des traitements de donnes, en ce compris la collecte (cf.
supra), lventuelle anonymisation (auquel cas lobligation de loyaut
impliquerait notamment quil soit procd une valuation des risques de
ridentification et une communication de cette valuation la personne
concerne),
Principe de limitation dans le temps (article 5.4.e)
En raison des risques de ridentification par croisement de donnes anonymes,
la seule anonymisation ne devrait pas suffire absoudre le responsable du
traitement de toute obligation lgard des personnes concernes. En outre, le
responsable de traitement devrait avoir notamment lobligation de conformer les
techniques danonymisation quil utilise ltat de lart en la matire. Dans la
mesure o le risque de ridentification augmente avec le temps et les progrs

36
des techniques de ridentification,78 il convient de raffirmer, peut-tre
davantage encore dans un contexte de donnes massives que dans dautres
contextes, le principe de limitation dans le temps, y compris, le cas chant,
pour les donnes anonymises lorsque les techniques danonymisation ne
garantissent pas contre le risque de ridentification.

1.8. Donnes sensibles (article 6)

Parmi les donnes qui nourrissent les traitements de type Big Data, les
donnes sensibles (rvlant lorigine raciale, les opinions politiques, les
convictions religieuses ou autres convictions, les donnes relatives la sant
ou la vie sexuelle, les donnes gntiques et biomtriques, les donnes
relatives lappartenance syndicale, les donnes concernant les
condamnations pnales, les infractions et autres mesures de caractre pnal)
par nature ou qui le deviennent du fait de leur utilisation79 ne sont pas une
catgorie minoritaire. Les images des personnes donnent des informations sur
leur origine ethnique, le profilage des personnes sur base de leurs prfrences
en termes de cinma et de divertissement (Netflix, tlvision la demande,)
est porteur dindications relatives aux opinions politiques des personnes ou
leurs convictions religieuses, le relev des habitudes de consommation dans
les supermarchs peut galement donner des indications relatives ltat de
sant actuel ou futur, ou aux pratiques religieuses des consommateurs.

Deloitte explique ainsi quil leur est possible, sur base de donnes de
consommation dans les supermarchs, de dterminer ltat de sant actuel et
futur dune personne avec une prcision comparable un examen mdical. Ces
profils de consommateurs suffiraient dtecter les propensions des
individus dvelopper des maladies comme le diabte, cancer fminin, cancer
corrl la consommation de tabac, maladie cardiovasculaire, dpression, etc.
)80 Alors que, classiquement, les candidats lassurance nont dclarer
lassureur que les conditions prexistantes, les maladies et handicaps dont ils
se savaient atteints, la possibilit, pour les assureurs, de dtecter des maladies
ou des propensions des maladies chez leurs clients sans mme que ceux-ci
aient connaissance de leur tat induirait une asymtrie dinformation trs
dfavorable aux assurs.

78
cf. lAvis 05/2014 du groupe de travail de larticle 29 sur les techniques danonymisation:
http://ec.europa.eu/justice/data-protection/article-29/documentation/opinion-
recommendation/files/2014/wp216_fr.pdf
79
Suivant la distinction introduite lArticle 6 de la Convention 108 par le Comit as hoc sur la
protection des donnes (3me runion, 1-3 dcembre 2014).
80
Aaron Rieke, David Robinson and Harlan Yu, Civil Rights, Big Data and our Algorithmic Future, A
September 2014 report on social justice and technology, Upturn.

37
Dans notre socit hyper-connecte, daprs les calculs dIBM, au cours dune
vie, un individu devrait produire plus dun million de gigabytes de donnes sur
sa sant. Ces donnes de sant ne sont plus seulement produites par le
mdecin, lhpital ou lassurance-maladie, mais aussi par les individus eux-
mmes, quils soient malades ou bien portants, au fur et mesure que se
rpandent les gadgets connects destins surveiller en permanence une
srie de marqueurs physiologiques (rythme cardiaque, poids calories brles
quotidiennement, ). Les donnes relatives lalimentation, les donnes de
frquentation des clubs sportifs, les donnes de connexion certains sites
dinformation ou de discussion propos de la sant, toutes ces donnes
entrent potentiellement dans la catgorie des donnes relatives la sant
actuelle ou future. Si lon ajoute cela les donnes produites par squenage
de lADN humain, qui atteignent des volumes de dizaines de terabytes par
gnome, il semble que, dans les Big Data, les donnes de sant occupant une
place importante. Au fur et mesure que saccumulent, grce aux Big Data,
des corrlations81 nouvelles entre des lments a priori sans liens avec la
sant et le dveloppement de certaines maladies ou la survenance de certains
handicaps (modes de vie, habitudes alimentaires, lments climatiques et
environnementaux, ), le champ des donnes qui deviennent sensibles du fait
de leur utilisation stend des types de donnes que lon naurait jamais pens
rattacher la catgorie des donnes sensibles. Si une attention particulire doit
tre accorde aux donnes relatives la sant, cest quelles sont, parmi les
Big Data, au nombre de celles qui croissant le plus vite, la faveur
notamment des nouveaux marchs, florissants, de la sant connecte.

Par contre, un effet des approches de type Big Data notamment dans le
domaine de la scurit et de la prvention des fraudes, est que la valeur et
lutilit des donnes visuelles comme celles qui peuvent tre rvlatrices de
lorigine ethnique, par exemple, dcroit considrablement. La visualisation
algorithmique des relations subtiles entre donnes, permet des dcouvertes
inattendues et, ce titre, nous manciperait du joug de la reprsentation, du
point-de-vue humain, toujours trop partiel et partial, toujours trop situ, empreint
de prjugs, rfractaire la nouveaut, au profit dune curiosit automatique
sans prjugs , capable dajuster en permanence ses modlisations aux
nouvelles donnes qui labreuvent en continu.

Ainsi, lentreprise Facebook justifiait-elle son approche marketing diffrentielle


visant la communaut afro-amricaine en expliquant quelle tait fonde non
pas sur lidentification directe de lorigine ethnique des personnes (approche
essentialiste de lidentit reposant sur lidentification de traits communs toutes
les personnes dune origine ethnique dtermine) mais sur leurs affinits
ethniques ( identit performative , dduite de lanalyse des comportements

81
La correlation, cest ce qui quantifie la relation statistique entre deux valeurs (la correlation est dite
forte si une valeur a de fortes chances de changer quand lautre valeur est modifie, elle est dite faible
dans le cas o une valeur a de faibles chances de changer quand lautre valeur est modifie (Jean-Paul
Karsenty, Big Data (mgadonnes). Une introduction, Revue du Mauss permanente, 1er avril 2015)

38
des personnes). Lapproche performative de lidentit suggre que les
personnes sont des collections dactions et que ce quelles font
quotidiennement est beaucoup plus rvlateur de leur identit que leur
appartenance explicite (couleur de peau, dclaration dorigine ethnique
loccasion des recensements).

Il importe ici, pour bien percevoir les enjeux, de distinguer clairement deux
manires particulires de catgoriser les individus et/ou leurs comportements.
Dans les processus classiques de classification, qui sont ceux qui taient
envisageables avant le tournant numrique et les nouvelles techniques
danalyse des donnes de type Big Data, les catgories (statistiques, sociales,
culturelles,) prexistent aux oprations de catgorisation, lesquelles
consistent examiner des catgories prexistantes afin de dterminer quelles
caractristiques peuvent tre utilises pour identifier ou prdire lappartenance
au groupe, et placer, en consquence, les individus porteurs de ces
caractristiques dans la catgorie correspondante. Dans les processus de
catgorisation, la ralit perue se trouve donc subsume dans des catgories
prexistantes, suivant une logique dductive: les individus sidentifient ou se
reconnaissent consciemment (il peut sagir dun groupe de parents dlves, par
exemple, ou dun groupe de personnes faisant partie dune association
quelconque, ou de personnes se reconnaissant comme faisant partie dun
groupe ethnique, dun mouvement politique, dune communaut religieuse, dun
mouvement gay/lesbien/queer, etc.) ou sont identifis par autrui (comme dans
le cas des recensements et des inscriptions dans des catgories statistiques),
comme faisant partie dun groupe en raison de certains attributs communs
tous les membres du groupe. Dans lUnion europenne, les directives anti-
discrimination interdisent la discrimination lorsquelle est fonde sur
lappartenance dune personne lune ou plusieurs des catgories quelles
numrent : nationalit, sexe, origine ethnique, croyance religieuse, handicap,
ge, orientation sexuelle. Ces caractristiques protges sont le fruit dune
prise de conscience de ce que les critres dappartenance qui les dfinissent
sont, plus que dautres, de nature exposer ceux qui en sont porteurs des
distinctions de traitement dfavorables.
Les processus de regroupement ou clustering, consistent plutt faire surgir
des catgories prcdemment inconnues, socialement et visuellement
imperceptibles, au dpart de lanalyse de donnes, sans rfrence aucune
information prexistante concernant ces groupes ou catgories nouvelles. Dans
les processus de regroupement ou clustering, les individus sont placs par
autrui cet autrui pouvant tre un systme de traitement automatis de
donnes - dans des catgories socialement, existentiellement asignifiantes
et imperceptibles (puisquelles surgissent en cours de route) et ce, sans quils
puissent, le plus souvent, sen rendre compte ni sy reconnatre. Si lon devait
faire une typologie des groupements humains, une premire distinction
faire serait donc, entre les catgories dans lesquels les individus se
catgorisent eux-mmes, ou peuvent tout le moins se reconnatre, cest--dire
des groupes plus ou moins auto-organiss - dans lesquels peuvent exister des
rapports de solidarit, de loyaut, d'interdpendance, ainsi que des

39
opportunits de dfense des intrts du groupe - et les groupes dans lesquels
les individus sont catgoriss par autrui et dans lesquels les individus, le plus
souvent, ignorent faire partie de la catgorie en question. Cest tout le sens
de la distinction faire entre catgorisation et regroupement.82 La
catgorisation subsume la ralit perue dans des catgories prtablies (sans
les remettre en question), lesquelles sont les rsultat de processus politiques,
culturels, esthtiques, idologiques, cest--dire toujours dj dune
perception situe et dune interprtation du monde, alors que le regroupement,
ou clustering apparat comme le rsultat automatique, quasi naturel du
traitement statistique de donnes qui prennent lallure de faits . Les
rgimes de protection contre la discrimination seront difficilement applicables
aux distinctions de traitement faites sur base de ce type de regroupement ou
clustering, puisque, par dfinition pourrait-on dire, ce nest pas en raison de
lappartenance dune personne telle ou telle catgorie protge quon lui
applique un traitement diffrent, mais en raison de modlisations
imperceptibles.
Lavantage peru des processus de regroupement sur les processus de
catgorisation, cest, donc, prcisment, une certaine innocence (sociale,
politique, idologique), et le contournement des catgories invitablement
biaises travers lesquelles nous sommes, nous, les tres humains,
prdisposs percevoir le monde. Cest dailleurs lun des arguments
frquemment voqu en faveur du remplacement des personnels de scurit et
des personnels de douane dans les aroports par des dispositifs automatiques
fonds sur un profilage inform par les Big Data. La ccit des traitements de
type Big Data relativement aux catgorisations socialement prouves, et
discriminantes, leur impartialit donc, serait, de lavis de Tal Zarsky, lune des
mauvaises raisons pour lesquelles le datamining serait si mal peru par la
majorit, en raison de son got pour la discrimination: les individus relevant de
la majorit prfrent que la charge (en termes de cots et dinconvnients)
des phnomnes de surveillance soit focalise sur des groupes minoritaires
spcifiques dpourvus de relais politiques plutt que de subir eux aussi un
systme de surveillance qui y soumettrait tout le monde de manire galitaire
(sous une sorte de voile dignorance ). Ce que promettraient les approches
fondes sur les Big Data ds lors, ce serait une plus grande galit, et la
prvention des discriminations83. Ce nest pas pour autant, comme nous le
verrons plus loin, que les approches Big Data vitent les phnomnes de
discrimination indirecte84, voir les renforce dans la mesure o les donnes

82
Bart Herman Maria Custers, The Power of Knowledge. Ethical, Legal and Technological Aspects of
Data Mining and Group Profiling in Epidemiology, Tilburg: Wolf Legal Publishers, 2004.
83
Tal Zarsky, Governmental Data Mining and its Alternatives, 2011, Penn State Law Review, Vol. 116,
No. 2: if data mining is accepted by the legislature, it might only require limited judicial review. This is
as opposed to the use of profiles and field officer discretion, which calls for greater scrutiny.
84
Le concept de discrimination indirecte permet de dtecter et dinterdire des mesures qui a priori
semblent acceptables et neutres mais qui savrent en fait particulirement dsavantageuses lgard de
certains groupes et ce, sans justification objective et raisonnable. (Frdrique Ast, La discrimination
indirecte comme outil de protection du pluralisme : enjeux et limites , Conseil de lEurope, 5me

40
sont elles-mmes le reflet assez fidle des normativits sociales luvre dans
le monde physique mais rendues indtectables dans la masse des donnes.
(Nous aborderons la question de la discrimination indirecte plus loin).
La question que se pose, des lors, est celle-ci: lapproche consistant
numrer une liste de catgories (et donc de donnes) sensibles est-elle la plus
adquate pour prvenir la discrimination dans un contexte o, dune part, les
lments les plus triviaux de la vie quotidienne deviennent potentiellement des
indicateurs de ltat de sant actuel ou future et dautres caractristiques
sensibles de lindividu, et ou, dautre part, les distinctions de traitement entre les
personnes peuvent tre ralises de plus en plus finement, sur base non plus
de leur appartenance tel ou tel groupe historiquement discrimin, mais sur
base dlments singuliers et rptitifs de leur mode de vie?
1.9. Scurit des donnes (Article 7)
Les risques de fuites de donnes caractre personnel rsultant de failles
de scurit dans les systmes de collecte, de stockage et de traitement de ces
donnes, dans la mesure notamment o ils risquent daffaiblir la confiance des
individus dans l conomie numrique et, ainsi, de rduire dautant les
opportunits et revenus des entreprises, font lobjet dinvestissements
importants de la part des acteurs et rgulateurs de lconomie numrique. Pour
autant, la scurisation des traitements de donnes est un dfi particulirement
difficile relever tant donns l'clatement de la proprit des donnes et leur
distribution spatio-temporelle, la disparit des appareils connects, la diversit
des acteurs intresss, la diversit des donnes, la gnralisation des
applications de Cloud computing, etc.
Dans le contexte des Big Data, les risques de r-identification des personnes
concernes au dpart de donnes anonymes ou anonymises justifierait que
lobligation, pour le responsable du traitement, ainsi que, le cas, chant, pour
son sous-traitant, de prendre des mesures de scurit appropries (dont des
mesures techniques de cryptographie, de contrle et denregistrement daccs,
de sauvegardes automatiques,) contre les risques tels que laccs accidentel
ou non autoris aux donnes y compris les donnes anonymes ou
anonymises leur destruction, leur perte, leur modification ou leur divulgation.
Les autorits de contrles (prvues larticle 12bis) devraient tre
encourages cooprer entre elles (sous forme dchange dinformations dans
le cadre prvu larticle 12bis7.a) pour ltablissement, la mise jour, et la
communication au public de recommandations en matire de scurisation des
traitements de donnes conformes ltat de lart. 85 Ainsi, larticle 12bis 2.e.
pourrait-il tre complt par lajout du point suivant: (iv) de fournir aux
responsables de traitement des recommandations conformes ltat de lart en
matire de scurisation des traitements de donnes. Pour ce faire, les autorits

runion du groupe de travail, Comptences interculturelles dans les services sociaux, 8 -9 Juin 2009,
Strasbourg, DGIII/DCS (2009) 19.
85
Voir cet gard, par exemple, les recommandations mises par la Commission belge pour la
protection de la vie prive:
http://www.privacycommission.be/sites/privacycommission/files/documents/recommandation_01_2013_
0.pdf

41
de contrle sont encourages changer entre-elles toutes les informations
pertinentes et utiles.

Cependant, on laura compris, les enjeux de la scurisation des traitements ne


sont pas spcifiques aux traitements de type Big Data. Dans lunivers des Big
Data, le danger majeur, pour les droits et liberts fondamentaux, en ce compris
les droits conomiques et sociaux, provient moins dventuelles actions
malintentionnes ou de ngligences coupables (induisant notamment les failles
de scurit) que dune nouvelle rationalit gouvernementale consistant fonder
la plupart des dcisions sur la seule intelligence des donnes . La
banalisation des traitements fonds sur la rationalit algorithmique, de bonne
foi, dans les administrations publiques et dans les entreprises du secteur priv,
ou le mariage de la bureaucratie bien intentionne et des algorithmes sont
porteurs denjeux beaucoup plus spcifiques et bien diffrents des enjeux lis
aux brches de scurit.

1.10. Transparence des traitements (article 7bis)

Le texte rvis de la Convention 108 prvoit, larticle 7bis, au titre du


principe de la transparence du traitement de donnes, lobligation, pour le
responsable du traitement, dinformer les personnes concernes
de son identit et de sa rsidence ou de son lieu dtablissement habituels,
de la base lgale et des finalits du traitement envisag
des catgories de donnes caractre personnel
le cas chant, des destinataires ou catgories de destinataires des
donnes caractre personnel et
des moyens dexercer les droits noncs lArticle 8 [cf. infra], ainsi que de
toute autre information complmentaire ncessaire pour garantir un
traitement loyal et transparent des donnes caractre personnel.

Il nous semblerait lgitime, dans le contexte des Big Data, que le devoir
dinformation lgard des personnes concernes inclue les informations
relatives lintention de rutilisation des donnes, mme sous forme
anonymise, des fins diffrentes des finalits explicitement dclares au
moment du recueil du consentement. De plus, comme voqu plus haut, il
pourrait tre lgitime dtendre le devoir dinformation aux risques
(quantifiables) de ridentification des individus dans les situations impliquant le
traitement de donnes anonymises. Seule la connaissance de ces risques, en
effet, permettrait de consentir en connaissance de cause.
Enfin, il semble lgitime, afin dviter de trop grandes asymtries dinformation
ainsi que des distorsions de concurrence, que lorsque des traitements de type
Big Data sont envisags afin dadapter les stratgies de marketing ou de faire

42
varier des offres commerciales (variation des prix, de la qualit des produits,
offres de bonus ,) en fonction des caractristiques comportementales, de
mode de vie, ou de toute autre caractristique individuelle dtecte grce des
analyses de type Big Data ou au tracking de lactivit et des trajectoires des
personnes, celles-ci en soient informes par une indication en marge, mais bien
visible/perceptible, dans la communication marketing et au plus tard au moment
de loffre commerciale personnalise.86 Lindication de ces finalits libelles en
termes d amlioration des services ou de lexprience utilisateur nest
souvent pas adquate et induit le consommateur en erreur ds lors que la
finalit est dadapter loffre ou les conditions commerciales son profil
(lopration nayant souvent pas pour finalit de maximiser son utilit, son bien-
tre, mais bien de maximiser les profits de lentreprise commerciale).

1.11. Droits des personnes concernes : dcision fonde sur des


traitements automatiss de donnes (article 8)

Larticle 8 prvoit notamment que


Toute personne doit pouvoir:
ne pas tre soumise une dcision laffectant de manire significative,
qui serait prise sur le fondement dun traitement automatis de donnes,
sans que son point-de-vue soit pris en compte;
()
obtenir, sa demande, connaissance du raisonnement qui sous-tend le
traitement de donnes, lorsque les rsultats de ce traitement lui sont
appliqus
La force normative des dispositifs automatiss.

La force normative du rsultat du traitement de donnes (le caractre plus ou


moins contraignant, persuasif, ou incitatif de la modlisation ou de la prdiction
comportementale qui en rsulte) dpend de plusieurs facteurs.
Des facteurs propres la finalit du dispositif, en premier lieu: sagit-il dun
dispositif daide la dcision, dun dispositif de recommandation, ou dun
dispositif se substituant la dcision humaine? La force contraignante des
rsultats du traitement de donnes dpend bien entendu de la finalit
(assistance informationnelle, recommandation ou dcision) du systme.
Des facteurs propres au fonctionnement matriel du dispositif : scarter de
la recommandation est-elle seulement techniquement possible sans ralentir ou
empcher toute action ? Ainsi peut-on imaginer une voiture intelligente qui
refuserait de dmarrer tant que tous les passagers nont pas boucl leur

86
Executive Office of the President of the United States, Big data and Differential Pricing, Fvrier 2015,
https://www.whitehouse.gov/sites/default/files/docs/Big_Data_Report_Nonembargo_v2.pdf

43
ceinture de scurit. Ce type de dispositif est porteur dune normativit
constitutive : dsobir linjonction (boucler sa ceinture) quivaut ne pas
pouvoir du tout utiliser lobjet (la voiture). Autre exemple : la dtection
automatique de comportements suspects dans des aroports qui, au lieu de
seulement lancer une alerte destination des personnels de scurit,
provoquerait larrt immdiat de tous les ascenseurs, escalators, et la fermeture
de toutes les portes des zones ouvertes au public. Ignorer lalerte, dans ce cas,
quivaut, pour les personnels concerns, un blocage complet de laroport.
Le dclenchement du dispositif les contraint donc, quasiment matriellement,
intervenir, indpendamment de lvaluation quils auraient pu faire de la
situation.
Mais, mme dans le cas de systmes ne se prsentant que comme de simples
systmes de recommandation ne se substituant pas la dcision humaine, des
facteurs relatifs lorganisation du travail, lvaluation de la productivit
professionnelle bref, au contexte managrial dans lequel intervient le processus
dcisionnel mais aussi des facteurs relatifs la psychologie de loprateur
humain ayant suivre ou scarter de la recommandation automatique (sa
plus ou moins grande aversion au risque, son sens plus ou moins aiguise de
la responsabilit individuelle, ses prdispositions se soumettre ou rsister
aux injonctions dacclration des processus dcisionnels) peuvent
augmenter considrablement la force normative de la recommandation
automatique, laquelle pourra tre, dans certains (rares) cas, ignore ou au
contraire (vraisemblablement dans la plupart des cas) quasi automatiquement
et intgralement transpose dans la dcision de loprateur humain. Ainsi peut-
on imaginer quil soit difficile, dans un certain nombre de cas, lagent humain
de scarter de la recommandation automatique, dans la mesure o cet cart,
dune part, risquerait de faire baisser son niveau de productivit, et, dautre part,
le contraindrait assumer personnellement la dcision et ses consquences, et
sen justifier en cas de consquence dfavorable, alors quune dcision
conforme la recommandation lui et permis de reporter la responsabilit sur le
systme informatique. La seule existence dune recommandation automatise
induit aussi, pour celui qui voudrait sen carter, le devoir de justifier son cart
non pas tant en son me et conscience , ou en fonction, par exemple, dune
certaine ide quil se ferait de lquit ou de la justice, et gard la situation
concrte dans laquelle il a eu dcider, mais en fonction darguments au moins
aussi quantifiables que le sont les prdictions algorithmiques. Georgio
Agamben, cet gard, articule la chute du cours de lexprience au dclin
de l autorit pour parler : Car lexprience trouve son ncessaire corrlat
moins dans la connaissance que dans lautorit, cest--dire dans la parole et le
rcit. Aujourdhui nul ne semble plus dtenir assez dautorit pour garantir une
exprience ; la dtient-on cest alors sans tre effleur par lide dtablir sur
une exprience le fondement de cette autorit. Ce qui caractrise le temps
prsent cest au contraire que toute autorit se fonde sur ce qui ne peut tre

44
expriment ; une autorit que seule lgitimerait une exprience, personne
naccorderait le moindre crdit. 87
On le voit, ce qui disparat aussi, cest la notion mme dindcidabilit,
dincertitude radicale, celle-l mme qui oblige les juges trancher alors
mme quils savent que la justice nest jamais quun idal rgulateur,
inatteignable par la seule voie du calcul. Ce qui disparat galement, ce sont les
occasions, pour les oprateurs humains, de diverger de la dcision optimale
en raison dune incitation incalculable et imprvisible la clmence, la
gnrosit ou la solidarit, toujours injustifiables par les seuls arguments
quantitatifs. Enfin, ce qui risque, terme, de smousser, force de ntre pas
utilise, cest la capacit individuelle des oprateurs humains valuer par eux-
mmes les cas et situations qui leur sont prsents. Cette nouvelle forme de
proltarisation 88 - de perte de capacits engendre par les systmes
automatiss daide la dcision rend les oprateurs humains intimement
dpendants de leurs appareils, au risque en cas de dfaillance technique de
les rendre incapables de prendre aucune dcision.
Un autre facteur drosion de lattention professionnelle et de la responsabilit
individuelle en prsence systmes de recommandation automatiss est que
lorsque les acteurs humains sont de fait relgus au rle de spectateurs ou de
contrleurs de systmes informatiques qui sont, la plupart du temps, efficaces
et donnent des recommandations correctes, ils sendorment , et perdent leur
capacit ragir lorsque le systme informatique donnent des indications
incompltes ou incorrectes, ce qui arrive de temps autres. Imaginons par
exemple le dploiement de dispositifs algorithmiques permettant dassister la
dlivrance de mdicaments dans les pharmacies. Ces dispositifs algorithmiques
auraient, sur les pharmaciens humains, lavantage de pouvoir traiter un grand
nombre de variables numrises, et dalerter les pharmaciens en cas de
prescriptions surdoses, ou dincompatibilits entre diffrents mdicaments
prescrits une mme personne. Linconvnient est qualors que le pharmacien
humain interprtera les risques pour chaque patient en fonction de son
exprience, et ragira diffremment si le risque deffet indsirable pour le
patient est de 0,01 % ou de 80%, lautomate lancera systmatiquement des
alertes en cas de dtection de surdosage ou dinteraction indsirable entre
substances, quel que soit le niveau de risque. En rsultent des alertes en trs
grand nombre, quasiment systmatiques mmes, que les pharmaciens
apprennent ignorer tant elles sont, la plupart du temps, peu significatives
pour le patient quils ont en face deux. Le Dr Robert Wachter, de lUniversit de
Californie San Francisco tmoignait en ce sens, racontant qu deux reprises,
des ordinateurs avaient lanc des alertes signalant une prescription surdose.
Mais, comme lalerte tait la mme pour un surdosage de 1% ou pour un
surdosage de 390 %, les mdecins et les pharmaciens lignorrent, tant

87
Georgio Agamben, Enfance et histoire. Destruction de lexprience et origine de lhistoire, Payot et Rivages, 2002,
p. 26.
88
Voir, propos de ce concept de proltarisation voir notamment Bernard Stiegler, La socit
automatique, 1. Lavenir du travail, Fayard, 2015, p. 43.

45
confronts quotidiennement des centaines dalertes de ce genre. Ils avaient
appris les ignorer89.

Dcision automatise et justiciabilit des dcisions. Que mettre en procs :


les faits ou les conditions des faits ?
Si lon prend acte de tout cela comme dun tat de fait, et si lon veut aussi y
voir non pas tant un danger mais un progrs (acclration et objectivation des
processus dcisionnels, vitement des bais, prjugs, erreurs dvaluation
toujours possibles dans le traitement humain des situations, diminution des
cots en personnel de scurit dans les lieux massivement ouverts au
public,), on sera tents de ne percevoir les risques potentiels pour les droits
et liberts fondamentaux quen termes derreurs ventuelles des machines,
erreurs causes soit par le caractre erron ou incomplet des donnes traites
(mais lhypothse fondamentale mais en partie idologique - des Big Data est
quelles tendent lexhaustivit, cf. p. 14), soit par linadquation de la
modlisation (comme des erreurs dassomption, cf. p.16), erreur des machines
qui prsuppose quexiste, par ailleurs, une vrit objective - vrit
quivalente aux faits eux-mmes - laquelle et t trouve ncessairement,
ntait-ce loccurrence de/des erreurs (dont on postule aussi quelles sont
dtectable et corrigibles, ce qui, nous lavons vu (p.17), est loin dtre vident.
Largumentation prsume une adquation totale entre les faits perceptibles
travers leur transcription numrique et la justice, qui nen serait que la
transposition dcisionnelle. Cest, bien entendu, oublier que comme lcrivait
Georges Canguilhem que le fait na point par lui-mme de valeur. Et mme,
du moment quil existe comme fait, cest quil porte avec lui ses conditions. Les
conditions, qui les connat les change. Aussi le fait traduit-il non pas ce quon
fait mais ce quon ne fait pas. 90 La renonciation comprendre les causes des
phnomnes au profit de la recherche de prdictions sur une base purement
statistique, inductive, ou, autrement dit, lindiffrence pour les causes des
phnomnes cest aussi la renonciation connatre et changer les conditions
des faits.
Si la rationalit algorithmique dispense de sinterroger sur les raisons pour
lesquelles, par exemple, dans les bases de donnes obtenues auprs des
employeurs dune rgion, on retrouve, parmi les employs exclus
prmaturment de la force de travail, ou nayant pas obtenu davancement,
davantage de personnes dsignes comme appartenant un certain groupe
ethnique dtermin, ou de personnes de sexe fminin,la cause (les
tendances discriminatoires dans la socit), devient imperceptible alors que se
construisent sur cette base des profils demployabilit accaparant le statut

89
Dr. Robert Wachter, interviewed by Hari Sreenivasan,Why were teaching
computers to help treat cancer, PBS NewsHour, 12 mai 2015,
http://www.pbs.org/newshour/bb/teaching-computers-diagnose-cancer/
90
Georges Canguilhem, La mobilisation des intellectuels : protestations dtudiants , Libres propos, 20
avril 1927, p.54.

46
de fait objectif : la dduction pratique, ou la recommandation automatise
destination des gestionnaires de ressources humaines sera celle-ci : les
personnes appartenant certains groupes ethniques ou de sexe fminin sont,
statistiquement, professionnellement moins performantes , sans que les
discriminations (qui ne sont pas toujours ncessairement officiellement
identifis comme telle car tout le monde ne va pas en justice pour faire
reconnatre une discrimination illgale), qui sont les conditions de ce fait ,
soient encore perceptibles comme problmatiques.
On le voit ici de faon exemplaire, et nous lavons dj voqu prcdemment :
les analyses de type Big Data prtendent une certaine forme dobjectivit91:
non pas une objectivit critique qui sappuierait sur la connaissance des
circonstances, du contexte, des causes des phnomnes, et donc sur une prise
en compte de leur contingence, mais une objectivit machinique qui sappuie
dune part sur lautomatisation des processus de traitement de donnes et la
mise lcart de la subjectivit (slectivit, point-de-vue situ92, reprsentation,
interprtation) et, dautre part, sur lapparente indpendance des modlisations
algorithmiques relativement aux catgorisations politiquement institues et
socialement prouves.
Les arguments fonds sur lobjectivit (ontologique, mcanique ou a-
perspective93), ne sont-ils pas plutt des injonctions dobissance aveugle,
dexclusion de toute forme de critique ou de problmatisation, que louverture
dune valuation quitable, juste, des personnes et des situations ?
Lobjectivit, lorsquelle dispense de la discussion, dispense du procs, des
processus dindividuation. Les oprations de datamining et de profilage
napparaissent objectives et galitaires que dans la mesure o lon ignore
quelles sont aveugles et sourdes tout ce qui, du monde les idiosyncrasies
individuelles, les raisons des actions - ne se laisse pas traduire sous une forme
numrique.
Etre objectif, cest aspirer un savoir qui ne garde aucune trace de celui
qui sait, un savoir vierge, dbarrass des prjugs et des acquis, des
fantasmes et des jugements, des attentes et des efforts. Lobjectivit est
une vision aveugle, un regard sans infrence, sans interprtation, sans
intelligence. 94

91
Une objectivit qui tient la relative non-slectivit du rapport aux donnes numriques,
lindpendance des modlisations algorithmiques relativement aux catgorisations socialement institues
et prouves, et la minimisation de lintervention humaine au profit des processus automatiques.
92
Cependant les modlisations algorithmiques ne prennent en compte que ce qui est numris ou
numrisable, indpendamment du fait que la numrisation soit toujours une transcription, et quil nexiste
pas de transcription neutre du monde et de ses vnements (ce qui est capt dpend toujours de la
localisation, de la distribution, de la sensibilit des capteurs). Les donnes brutes elles-mmes sont le
rsultat dun travail sophistiqu de dsindexation, de dcontextualisation, de suppression de tout ce qui
pouvait relier la donne ce qui fait la singularit dune vie.
93
Voir Lorraine Daston, Objectivity and the escape from perspective, Social Studies of Science, Vol. 22, 1992, p.
597-618.
94
Lorraine Daston et Peter Galison, Objectivit, traduit par Sophie Renaut et Hlne Quiniou, Les presses du rel,
2012, p.25.

47
Ds lors que lon prend acte de leurs angles morts, il devient possible de
comprendre en quoi ces catgorisations automatiques et objectives , en ce
quelles construisent une ralit en prsupposant toutes choses gales par
ailleurs, peuvent ntre pas justes sans pour autant cesser dtre objectives
et impartiales. Pourtant, dans la gouvernementalit algorithmique, lobjectivit
semble dispenser de toute opration de justification, si par justification lon
entend lactivit qui consiste chercher les raisons dune action ou des
raisons pour soutenir une dcision, une opinion ou autre expression
symbolique, sur le motif quelle est juste ou raisonnable. 95

Cependant, les algorithmes, mme, et peut-tre surtout lorsquils deviennent


auto apprenants, incorporent certaines visions du monde , notamment les
visions du monde tolrantes la discrimination, et permettent en outre doprer
des distinctions de traitement, dans le contexte de lemploi par exemple, en
fonction dlments ou de critres trs peu transparents (aux yeux mme de
ceux qui utilisent les algorithmes des fins de slection) et en eux-mmes,
individuellement, sans rapport avec les exigences de la fonction ou du poste de
travail. Mais lopacit des processus algorithmiques, leur couverture par le
secret industriel, rendent les discriminations ventuelles trs malaises
prouver, dautant que, la plupart du temps, lintention discriminatoire nest pas
du tout prsente dans le chef de la personne qui utilise ces dispositifs
automatiques afin dobjectiver ses propres dcisions. La discrimination indirecte
rsultant de lintervention du systme de recommandation automatis nest pas
tant d la personne qui dciderait de suivre la recommandation (au contraire,
pourrait-on dire : le fait pour elle de vouloir objectiver de la sorte les dcisions
peuvent attester de sa volont de neutraliser ses propres prjugs) qu la
prexistence, dans la socit, dun animus discriminatoire (un got ou une
tolrance pour la discrimination) plus ou moins rpandu, lequel se reflte
passivement dans les jeux de donnes et acquiert par l mme le statut de fait
objectif, apolitique, neutre, non problmatique.
Une solution ds lors serait peut-tre dexiger bien davantage que la seule
possibilit, pour la personne concerne par une dcision laffectant
significativement et prise sur le fondement dun traitement automatis de
donnes, de faire valoir son point-de-vue. Tout peut laisser penser que ce
point-de-vue sera de peu de poids au regard de lobjectivation algorithmique
attendue des systmes automatiques. Par ailleurs, et plus en amont dans le
processus, linfluence quun individu peut avoir sur le profilage est trs limit :
les modlisations prdictives ou profils supra-individuels qui lui sont assigns
sont construits partir de donnes infra-individuelles manant de nombreux
individus ; dans ce processus les donnes de nimporte qui sont aussi bonnes
que celles de nimporte quel autre individu your data is as good as your
neighbours ce qui fait que trs peu de donnes suffisent pour infrer un savoir
nouveau. Toute linformation statistique pertinente propos dun individu se

95
J. Wroblewski, Dfinition de la justification, Dictionnaire encyclopdique de thorie et de sociologie du droit, A.-
J. Arnaud (dir.), Paris, LGDJ, 2me edition, 1993, p.332.

48
trouve dj incluse dans le modle avant mme que celui-ci ait pu soumettre
lui-mme quelque information propos de lui-mme : les personnes sont
oublies littralement oublies dans le modle.

En plus dexiger une possibilit pour la personne concerne de faire valoir son
point-de-vue, il sagirait surtout dexiger que toute dcision affectant une
personne de manire significative et prise sur le fondement dun traitement
automatis de donnes soit dment motive au regard de la situation singulire
de la personne concerne. Cette exigence de motivation des dcisions par
exemple dans le contexte du recrutement pourrait sembler excessive dans la
mesure o elle excde lexigence de motivation pesant habituellement sur les
employeurs, lesquels sont libres de choisir leur guise, suivant les critres qui
leur semblent pertinents, les personnes embaucher, dans la mesure o ils ne
sappuient pas sur des critres illgaux (lappartenance des personnes
concernes certaines catgories vulnrables limitativement numres
par la loi et dans la mesure o les critres quils choisissent pour oprer la
slection de leur personnel na pas pour effet de dsavantager les personnes
appartenant ces catgories. Dans le cas o la dcision sappuie sur un
systme de recommandation automatis, cependant, lexigence de justification
ou de motivation explicite des dcisions vise ici remdier une vulnrabilit
spcifique des individus confronts lalgorithmisation des dcisions :
l'impossibilit, pour eux, d'argumenter ou de contester, c'est--dire de rpondre,
au "profilage" dont ils font l'objet. L'exigence de la motivation ou de la
justification de la dcision n'a d'autre but que de donner aux personnes
concernes - employeurs et candidats l'embauche, par exemple - l'occasion
de rendre compte par eux-mmes de leurs motivations respectives.

En particulier, en cas de suspicion de discrimination indirecte rsultant de


limplication, dans le processus dcisionnel, dun traitement automatis de
donnes, et en raison de lopacit flagrante et difficile vaincre - des logiques
de traitement impliqus (y compris lorsquinterviennent des dispositifs auto-
apprenants ou de machine learning), il conviendrait de mettre charge de celui
qui saide des dispositifs automatiques pour prendre la dcision, la preuve de
labsence deffets discriminatoires. Cette inversion de la charge de la preuve est
tout fait dans la ligne de lobligations mise charge du responsable de
traitement par larticle 8bis2, de concevoir le traitement de donnes de
manire prvenir ou minimiser les risques datteinte aux droits et liberts
fondamentaux.96

96
Larticle 14 de la Convention europenne des droits de lHomme stimule explicitement que la
jouissance des droits et liberts reconnus dans la prsente Convention doit tre assure, sans distinction
aucune, fonde notamment sur le sexe, la race, la couleur, la langue, la religion, les opinions politiques ou
toutes autres opinions, lorigine nationale ou sociale, lappartenance une minorit nationale, la fortune,
la naissance ou toute autre situation.

49
Cette solution se heurte pourtant aux incertitudes subsistantes quant
lapplicabilit aux relations entre particuliers de lArticle 14 de la Convention
europenne des droits de lhomme interdisant la discrimination fonde
notamment sur le sexe, la race, la couleur, la langue, la religion, les opinions
politiques ou toutes autres opinions, lorigine nationale ou sociale,
lappartenance une minorit nationale, la fortune, la naissance ou toute autre
situation. Si aucun obstacle thorique ne soppose la reconnaissance dun
effet horizontal de larticle 14 de la Convention97 la possibilit dengager la
responsabilit des Etats en raison de leurs abstentions lorsque celles-ci ne
permettent pas dviter des cas de discriminations entre personnes prives
reste tributaire de linterprtation de la Cour de Strasbourg.
Si cette incertitude pouvait tre leve, il conviendrait alors
- de remplacer le texte de l article 8 c par le texte suivant: c. obtenir, sa
demande, connaissance de la justification, au regard de sa situation
singulire, de la dcision prise sur le fondement dun traitement automatis
de donnes.
- Dajouter, la suite du texte de larticle 8bis2, la phrase suivante: En
particulier, chaque Partie prvoit que les responsables du traitement et les
destinataires dmontrent lautorit de contrle comptente que les
dcisions prises sur le fondement de traitements automatiss de donnes
ne produisent pas deffets discriminatoires incompatibles avec le droit
lgalit dopportunits tel quil se dduit de lArticle 14 de la Convention
europenne des droits de lHomme.
- Par ailleurs, la technique elle-mme peut, en certains cas et dans une certaine
mesure, prvenir la discrimination algorithmique. Une solution technique
consiste par exemple neutraliser les corrlations caches avec les attributs
sensibles protgs par la loi (lorigine ethnique, le genre, les convictions
politiques, les croyances religieuses, ltat de sant actuel ou futur, etc.) en
changeant les donnes elles-mmes.98

97
Voir cet gard Caroline Picheral, Discrimination raciale et Convention europenne des Droits de
lHomme (lapport de la jurisprudence), Rev. trim. dr. h. , 2001, pp. 517-539.

98 Michael Feldman, Sorelle Friedler, John Moeller, Carlos Scheidegger, Suresh Venkatasubramanian,
Certifying and removing disparate impact, Extended version of paper accepted at 2015 ACM SIGKDD
Conference on Knowledge Discovery and Data Mining, arXiv:1412.3756v3,
http://arxiv.org/pdf/1412.3756v3.pdf

50
Toute personne doit pouvoir obtenir, sa demande, connaissance du
raisonnement qui sous-tend le traitement de donnes, lorsque les rsultats
de ce traitement lui sont appliqus (article 8.c)
Dans le contexte de dcisions prises sur le fondement dun traitement de
donnes de type Big Data, et, a fortiori lorsque celui-ci implique des algorithmes
auto-apprenants (cf. supra, p.16), lexigence de communication, la personne
concerne, du raisonnement qui sous-tend le traitement de donnes est la
fois peu raliste et fondamentalement paradoxale.
Elle est peu raliste dans la mesure o, par dfinition pourrait-on dire, les
algorithmes (cest surtout vrai en ce qui concerne les algorithmes auto-
apprenants) fonctionnent sur des logiques inductives qui, se passant de
thories ou dhypothses, ne sont pas aisment communicables aux tres
humains ni intelligibles pour eux. Ces logiques - ne sont pas facilement
traduisibles sous forme narrative. Elles ne sont peut-tre mme pas, dans le
cas des algorithmes non superviss, tant des logiques que des visions de
lalgorithme qui repre, en fonction notamment dimpratifs doptimisation de
son propre fonctionnement, des modles ou patterns au sein de masses de
donnes relativement peu structures. Et ce que voient les algorithmes ne
nous est pas perceptible. Nous pouvons en ressentir les effets lorsque des
dcisions sont prises sur le fondement de la vision algorithmique mais ne
pouvons expliquer le processus prsident au reprage, par lalgorithme, des
corrlations susceptibles de se constituer en modle.
Cette exigence de communication du raisonnement qui sous-tend le
traitement des donnes est aussi paradoxale dans la mesure o comme
lexplique David Golumbia, des processus et des objets peroivent
continuellement, de manire computationnelle, mcanique, informatique,
physique, sans rfrence nous et suivant des modalits que nous ne pouvons
ni voir, ni enregistrer ni forcment comprendre. Exiger que nous soyons
capables de voir quelque chose qui est la fois invisible et sans relation avec
les tres humains et la perception humaine est clairement un paradoxe qui
demanderait que a et non-a fussent vrais en mme temps. 99
Si lexigence de la communication du raisonnement 100 sous-tendant le
traitement de donnes lorsque les rsultats de ce traitement sont appliqus
dans le cadre dune dcision prise lgard dune personne est effectivement
de nature amliorer la situation de la personne concerne en assurant tout
le moins une symtrie informationnelle entre elle et le responsable du

99
David Golumbia, Judging like a Machine, in. David M. Berry, Michael Dieter (eds.), Postdigital
Aesthetics: Art, Computation and Design, Palgrave Macmillan, 2015: () computational, mechanical,
informatic, physical perception of processes and objects takes place at all time, without reference to us
and in modalities we cannot see, register or necessarily understand. Demanding that we be able to see
something that is at the same time invisible to and unrelated to human being and human perception is a
clear paradox that demands both a and not-a be true at once.
100
Dailleurs, il nest pas certain que ces processus algorithmiques, ds lors quils deviennent auto-
apprenants, soient encore assimilables des raisonnements , si par raisonnement on implique une
dimension de jugement synthtique a postriori.

51
traitement ou le destinataire, cette exigence est peu raliste et invinciblement
paradoxale dans le contexte des Big Data.
Enfin, mme sil tait possible de communiquer aux personnes concernes les
raisonnements sous-tendant les traitements de donnes, cela ne serait pas
du tout suffisant, dfaut de rendre galement transparentes et
communicables lorigine et la nature des donnes traites, les caractristiques
des instruments denregistrement ou capteurs de ces donnes, les processus
de nettoyage de ces donnes, alors mme quune des caractristiques des
donnes massives est dtre amnsiques de leur contexte dorigine et des
conditions matrielles de leur production.

Dans ce contexte, davantage que la transparence hors datteinte des logiques


de traitement, cest lexigence dune motivation de la dcision au regard de la
situation singulire (irrductible au profil produit par lalgorithme) de la
personne concerne (cf.p. 49) qui nous parat constituer une garantie
importante contre lalgorithmisation excessive des processus dcisionnels.
Cette exigence de motivation singulire assure la contestabilit des dcisions et
vite la dresponsabilisation des acteurs humains qui les assument.

CONCLUSIONS.
De nos jours, ce sont, de manire de plus en plus prpondrantes, les donnes
numriques qui informent et guident laction, dans la quasi-totalit des secteurs
dactivit et de gouvernement. Les donnes, personnelles ou anonymes sont
les nouvelles coordonnes de modlisation du social. Cest partir delles,
plutt qu partir de processus institutionnels ou dlibratifs, que se
construisent les catgories travers lesquelles les individus sont classs,
valus, rcompenss ou sanctionns, ou travers lesquelles svaluent les
mrites et les besoins des personnes ou encore les opportunits ou la
dangerosit que reclent les diverses formes de vie quelles habitent. Dans
cette perspective dun gouvernement par les donnes , comment garantir la
survivance des sujets de droit ? Comment faire en sorte que les personnes ne
soient pas prises en compte seulement en tant quagrgats temporaires de
donnes numriques exploitables en masse lchelle industrielle mais comme
des sujets de droit part entire ?
Les processus de personnalisation et de profilage (au dtriment des approches
par catgories prexistantes ) propres la gouvernementalit dans le
monde des Big Data la distingue foncirement des hypothses dcrites par
Michel Foucault du biopouvoir - un pouvoir qui sexerce positivement sur
la vie, qui entreprend de la grer, de la majorer, de la multiplier 101, dont le
rle majeur est dassurer, de soutenir, de renforcer, de multiplier la vie 102 - , et
de la biopolitique de populations - qui aurait merg partir de la seconde

101
Michel Foucault, Histoire de la sexualit, t. I, La volont de savoir, Gallimard, 1976.
102
Ibid.

52
moiti du XVIII me sicle visant les multiplicits humaines comme une
masse globale, affecte de processus densemble qui sont propres la vie et
qui sont des processus comme la naissance, la mort, la production, la
maladie 103-, biopouvoir et biopolitique avec lesquelles, bien videmment, le
gouvernement par les donnes partage certain traits par ailleurs, dont le fait
de reposer de manire cruciale sur des pratiques statistiques. Mais le terrain de
la vie celle des individus en tant que corps et psychismes individuels, et celle
des populations en tant quaffectes de processus densemble propres la vie -
parat singulirement dsert au profit dun terrain numrique de plus en plus
referm sur lui-mme : comme si ce quil sagissait aujourdhui de
gouverner , ce ntait plus tant les individus en chair et en os, capables de
ptir et interpells en tant quils seraient sujets de droits et dobligations, en tant
quils auraient rendre compte de leurs actes et de leurs dcisions, que des
rseaux de donnes agrges sous forme de modles prdictifs ,
nincarnant rien dautre que la pure potentialit, lopportunit conomique
dtecte en temps rel, cest--dire de lopportunit pure, non finalise
autrement quen termes dacclration et dobjectivation des processus de
dcision eux-mmes, cest--dire, terme, dautomatisation de la dcision.
Fragment comme il lest sous forme dune myriade de donnes le reliant une
multitude de profils (de consommateur, de fraudeur potentiel, demploy plus ou
moins fiable, plus ou moins productif,) qui, tous, ne se rapportent qu lui
sans linscrire dans aucun contexte collectif ( la diffrence des modes
classiques de catgorisations, comme le profilage ethnique, ajusts sur des
catgorisations socialement prouves et donc susceptibles de donner lieux
des actions collectives), lindividu, dispens davoir encore rendre compte de
lui-mme, devient infiniment calculable, comparable, indexable,
interchangeable, mis en concurrence une concurrence absolue, qui nest plus
mme borne par, ni articule aucune norme (de mrite, de dsirabilit, de
besoin, dquit) - avec tous les autres lchelle quasi-molculaire dans une
conomie de la rputation, du risque et de lopportunit (plutt que du projet)
oprant de manire automatise lchelle subliminale de la donne infra-
personnelle. Nous aimons nous penser, individus du XXIme sicle, comme
des processus en constante volution, non clturs, peu dfinis, pour les
possibilits de nouveauts que cette absence de dfinition mnage plutt que
comme des tres finis, achevs, dfinitivement rangs dans un statut social,
une profession, une catgorie raison pour laquelle nous tenons garantir
juridiquement, travers le droit la protection de la vie prive notamment, une
forme dimmunit contre les contraintes draisonnables dans la construction
de sa propre identit .104 Mais nous voulons aussi nous prmunir de lhorreur
de n'avoir ni ombre ni reflet, d'tre rduit une existence absolument blanche,

103
Michel Foucault, Il faut defendere la socit. Cours au Collge de France, 1975-1976,
Gallimard/Le Seuil, Hautes Eetudes, 1997.
104
Philip E. Agre, Marc Rotenberg (eds.), Technology and Privacy. The New Landscape, MIT Press,
1998, p. 3. : . . . control over personal information is control over an aspect of the identity one projects to
the world, and the right to privacy is the freedom from unreasonable constraints on the construction of
one's own identity.

53
mate, devenue poreuse et comme vide de sa substance () l'pouvante
d'tre allg de mon poids d'ombre intrieure, de cette douce fourrure trouble
qui me double au-dedans et au-dehors de moi-mme."105 Clment Rosset
faisait remarquer quen franais, une personne, un certain homme, cest aussi
bien personne aucun homme: cho du lien originel qui soude le dtermin au
non-dtermin, le quelque chose au nimporte quoi, la prsence de mille
chemins labsence de tout chemin.106 Cette double face du mot
personne trahit une ambivalence motrice, au cur mme de la subjectivit,
au principe mme des processus de subjectivation : prsence en devenir, la
personne est inclturable. Dans lunivers de donnes massives, travers la
tl-objectivit des profilages prdictifs, cest dans leur double dimension de
prsence et dabsence, dans leur paradoxe ou leur pli107 constitutif que les
personnes se trouvent escamotes.
Les rgimes juridique de protection des personnes lgard des traitements
automatiss de donnes ont donc, en premier lieu peut-tre pour tche de
garantir aux personnes, aux sujets de droit, la fois une certaine prsence, un
poids, une consistence, dans un univers o seuls comptent des aggrgats
temporaires de donnes mtabolisables en masse lchelle industrielle dune
part, et, dautre part, dempcher lenfermement des personnes dans des
catgories , des profils , des personnalisations quils nauraient
loccasion ni de connatre, ni de contester. Donner consistence au sujet de
droit, ce nest pas mettre le consommateur au centre en lentourant de
dispositifs capables de dtecter avant quil ne les ait lui-mme rflchies et
nonces ses ventuelles propensions dachat, ce nest pas non plus tenir,
premptivement pour actuelles les conduites nexistant sur le mode de la
potentialit (dont la potentialit nest avre par rien dautre que des
modlisations algorithmiques), mais bien plutt tenir compte, toujours, de la
capacit quont les personnes de ne pas faire de ne pas vouloir tout ce quelles
sont statistiquement prdisposes faire ou vouloir, et de faire prvaloir,
toujours, leur droit de rendre compte par elles-mmes de leurs motivations. On
ne respecte pas le sujet si on ne respecte pas la fois sa capacit de rticence,
de rserve, de non-effectuation de ce que les algorithmes prdisent son
propos, et sa capacit dnoncer, par lui-mme, ce qui le fait agir.
Cest une revalorisation et la protection par le droit de ces deux facettes
essentielles du sujet de droit quinvitent, en filigrane, les considrations qui
prcdent. Ce quil convient ds-lors de garantir, titre de mta-droits , ou
de capacits ncessairement reconnues et protges dans un tat de droit,
cest 108

105
Michel Foucault, L'usage de la parole: deuxime srie: langages de la folie: 4 - Le corps et ses
doubles, 28 janvier 1963.
106
Clment Rosset, Le Rel. Trait de lidiotie, Minuit, 1977/2004, pp.18-19.
107
Nous renvoyons bien sr au pli deleuzien (Gilles Deleuze, Le pli. Leibniz et le baroque, Minuit, 1988).
108
Sur la notion de mta-droit par laquelle nous entendons une srie de capacits ou prrogatives
individuelles ncessairement prsupposes par ltat de droit et qui rendent possible la dbatabilit et la
contestabilit des normes, nous nous permettons de renvoyer le lecteur Antoinette Rouvroy et Thomas

54
1) la facult de dsobir, de ntre pas toujours dj l o nous sommes
attendus, de ne pas faire tout ce dont nous sommes capables daprs les
projections algorithmiques ;
2) la responsabilit de rendre compte par nous-mme de nos actes, dcisions
et intentions malgr les recommandations et profilages algorithmiques.
Cest donc repenser, et protger par le droit, le centre de gravit de la
subjectivit juridique quinvitent les dveloppements qui prcdent : non plus
tant les capacits dentendement et de volont ni la matrise des intentions,
mais une certaine propension la spontanit, limprvisibilit, une ouverture
lvnement dune part, et une capacit dnonciation, ft-elle fabulatrice,
dautre part. Ce nest quau prix de cette reconceptualisation du sujet de droit
que lon pourra imaginer le dveloppement harmonieux des applications
fondes sur lintelligence des donnes et des tres politiques et solidaires que
nous sommes. Pour le surplus, et par dfinition pourrait-on dire, nous naurons
jamais fait le tour des Big Data et des enjeux thiques, juridiques et politiques
quimplique le tournant numrique. Aussi est-ce une vigilance constante et
un examen continuellement renouvel de la pertinence et de ladquation des
instruments juridiques de protection des droits et liberts fondamentaux
quinvite la rvolution numrique .

Berns, Le nouveau pouvoir statistique Ou quand le contrle s'exerce sur un rel norm, docile et sans
vnement car constitu de corps numriques , Multitudes, 2010/1 n 40, p. 88-103.

55

Das könnte Ihnen auch gefallen