Beruflich Dokumente
Kultur Dokumente
Exploration de données
notes 1
L’exploration de données , connue aussi sous l'expression de fouille de données, forage
de données, prospection de données, data mining, ou encore extraction de
connaissances à partir de données, a pour objet l’extraction d'un savoir ou d'une connaissance à
partir de grandes quantités de données, par des méthodes automatiques ou semi-automatiques.
Elle se propose d'utiliser un ensemble d'algorithmes issus de disciplines scientifiques diverses telles
que les statistiques, l'intelligence artificielle ou l'informatique, pour construire des modèles à partir
des données, c'est-à-dire trouver des structures intéressantes ou des motifs selon des critères fixés au
préalable, et d'en extraire un maximum de connaissances.
https://fr.wikipedia.org/wiki/Exploration_de_données 1/25
16/04/2020 Exploration de données — Wikipédia
Sommaire
Histoire
Applications industrielles
Par objectifs
Par secteurs d'activités
Recherche et groupes de réflexion
Projets, méthodes et processus
Méthode CRISP-DM
D'autres méthodes
SEMMA
Six Sigma (DMAIC)
Maladresses à éviter
Planifier
Algorithmes
Méthodes descriptives
Définition
Exemples
Méthodes prédictives
Définition
Exemples
Qualité et performance
Outils informatiques
Logiciels
Informatique en nuage
Limites et problèmes
Limites
Problèmes
Fouilles spécialisées
Par types de données
Par environnements techniques
Par domaines d'activités
Dans le futur
Notes et références
Notes
Ouvrages spécialisés
Autres références
Voir aussi
Articles connexes
Statistiques
Intelligence artificielle
Aide à la décision
Applications
Bibliographie
https://fr.wikipedia.org/wiki/Exploration_de_données 2/25
16/04/2020 Exploration de données — Wikipédia
Histoire
La génération de modèles à partir d'un grand nombre de données
n'est pas un phénomène récent. Pour qu'il y ait création de
modèle il faut qu'il y ait collecte de données. En Chine on prête à
l'Empereur mythique Yao, la volonté de recenser les récoltes en
3
2238 av. J.-C. ; en Égypte le pharaon Amasis organise le
3
recensement de sa population au Ve siècle av. J.-C. Ce n'est qu'au
e
XVII siècle qu'on commence à vouloir analyser les données pour
en rechercher des caractéristiques communes. En 1662, John
Graunt publie son livre « Natural and Political Observations
Made upon the Bills of Mortality » dans lequel il analyse la Collecter les données, les analyser
mortalité à Londres et essaie de prévoir les apparitions de la et les présenter au client.
peste bubonique. En 1763, Thomas Bayes montre qu'on peut
déterminer, non seulement des probabilités à partir des
observations issues d’une expérience, mais aussi les paramètres relatifs à ces probabilités. Présenté
dans le cas particulier d'une loi binomiale, ce résultat est étendu indépendamment par Laplace,
conduisant à une formulation générale du théorème de Bayes. Legendre publie en 1805 un essai sur
la méthode des moindres carrés qui permet de comparer un ensemble de données à un modèle
mathématique. Les calculs manuels coûteux ne permettent cependant pas d'utiliser ces méthodes
hors d'un petit nombre de cas simples et éclairants.
De 1919 à 1925, Ronald Fisher met au point l'analyse de la variance comme outil pour son projet
d'inférence statistique médicale. Les années 1950 voient l'apparition de calculateurs encore onéreux
et des techniques de calcul par lots sur ces machines. Simultanément, des méthodes et des techniques
voient le jour telles que la segmentation, classification (entre autres par la méthode des nuées
dynamiques), une première version des futurs réseaux de neurones qui se nomme le Perceptron, et
quelques algorithmes auto-évolutifs qui se nommeront plus tard génétiques. Dans les années 1960
arrivent les arbres de décision et la méthode des centres mobiles; ces techniques permettent aux
chercheurs d'exploiter et de découvrir des modèles de plus en plus précis. En France, Jean-Paul
Benzécri développe l'analyse des correspondances en 1962. On reste cependant dans une optique de
traitement par lots.
4
En 1969 paraît l'ouvrage de Myron Tribus Rational descriptions, decisions and designs qui
généralise les méthodes bayésiennes dans le cadre du calcul automatique (professeur à Dartmouth, il
utilise assez logiquement le langage BASIC, qui y a été créé quelques années plus tôt, et son
interactivité). La traduction en français devient disponible en 1973 sous le nom Décisions rationnelles
dans l'incertain. Une idée importante de l'ouvrage est la mention du théorème de Cox-Jaynes
démontrant que toute acquisition d'un modèle soit se fait selon les règles de Bayes (à un
homomorphisme près), soit conduit à des incohérences. Une autre est que parmi toutes les
distributions de probabilité satisfaisant aux observations (leur nombre est infini), il faut choisir celle
qui contient le moins d'arbitraire (donc le moins d'information ajoutée, et en conséquence celle
notes 3
d'entropie maximale . La probabilité s'y voit considérée comme simple traduction numérique
d'un état de connaissance, sans connotation fréquentiste sous-jacente. Enfin, cet ouvrage popularise
la notation des probabilités en décibels, qui rend la règle de Bayes additive et permet de quantifier de
façon unique l'apport d'une observation en la rendant désormais indépendante des diverses
estimations a priori préalables (voir Inférence bayésienne).
https://fr.wikipedia.org/wiki/Exploration_de_données 3/25
16/04/2020 Exploration de données — Wikipédia
L'expression « data mining » avait une connotation péjorative au début des années 1960, exprimant
le mépris des statisticiens pour les démarches de recherche de corrélation sans hypothèses de
départ [réf. nécessaire]. Elle tombe dans l'oubli, puis Rakesh Agrawal l'emploie à nouveau dans les
années 1980 lorsqu'il entamait ses recherches sur des bases de données d'un volume de 1 Mo. Le
concept d'exploration de données fait son apparition, d'après Pal et Jain, aux conférences de l'IJCAI
5
en 1989 . Gregory Piatetsky-Shapiro chercha un nom pour ce nouveau concept dans la fin des années
1980, aux GTE Laboratories. « Data mining » étant sous la protection d'un copyright, il employa
6
l'expression « Knowledge discovery in data bases » (KDD) .
Puis, dans les années 1990, viennent les techniques d'apprentissage automatique telles que les
b1
SVM en 1998, qui complètent les outils de l'analyste.
Au début du XXIe siècle, une entreprise comme Amazon.com se sert de tous ces outils pour proposer à
7, 8
ses clients des produits susceptibles de les intéresser .
Applications industrielles
Par objectifs
Le scoring des clients dans les banques est maintenant très connu, il permet de repérer les « bons »
clients, sans facteur de risque (Évaluation des risques-clients) à qui les organismes financiers,
banques, assurances, etc., peuvent proposer une tarification adaptée et des produits attractifs, tout en
limitant le risque de non-remboursement ou de non-paiement ou encore de sinistre dans le cas des
assurances.
9 11
https://fr.wikipedia.org/wiki/Exploration_de_données 4/25
16/04/2020 Exploration de données — Wikipédia
9 11
Les centres d'appel utilisent cette technique pour améliorer la qualité du service et permettre une
réponse adaptée de l'opérateur pour la satisfaction du client.
Dans la recherche du génome humain, les techniques d'exploration de données ont été utilisées pour
12
découvrir les gènes et leur fonction .
D'autres exemples dans d'autres domaines pourraient être trouvés, mais ce qu'on peut remarquer dès
à présent, c'est que toutes ces utilisations permettent de caractériser un phénomène complexe
(comportement humain, expression d'un gène), pour mieux le comprendre, afin de réduire les coûts
de recherche ou d'exploitation liés à ce phénomène, ou bien afin d'améliorer la qualité des processus
liés à ce phénomène.
L'industrie a pris conscience de l'importance du patrimoine constitué par ses données et cherche à
l'exploiter en utilisant l'informatique décisionnelle et l'exploration des données. Les compagnies les
13
plus avancées dans ce domaine se situent dans le secteur tertiaire. Selon le site kdnuggets.com la
répartition aux États-Unis, en pourcentage du total des réponses au sondage, de l'utilisation de
l'exploration des données par secteurs d'activités s'effectue en 2010 comme ceci :
Branches et domaines dans lesquels est utilisée l'exploration des données (%).
Santé,
GRC/ analyse de la
26,8 Banque 19,2 ressources 13,1
consommation
humaines
Marketing
direct,
Détection de fraude 12,7 Finance 11,3 11,3
collecte de
fonds
Télécommunication 10,8 Assurance 10,3 Sciences 10,3
Éducation 9,9 Publicité 9,9 Web 8,9
Produits Commerce
Médical 8,0 8,0 8,0
manufacturés de détail
Notation crédit 8,0
Commerce
7,0
électronique
Moteur de
6,6
recherche
Réseaux sociaux 6,6
Gouvernement,
6,1
militaire
https://fr.wikipedia.org/wiki/Exploration_de_données 5/25
16/04/2020 Exploration de données — Wikipédia
D'autres conférences sur l'exploration de données et l'informatique sont organisées, par exemple :
18, 19, 20, 21, 22
DMIN - International Conference on Data Mining
DMKD - Research Issues on Data Mining and Knowledge Discovery
ECML-PKDD - European Conference on Machine Learning and Principles and Practice of
Knowledge Discovery in Databases
23 24, 25, 26, 27, 28, 29, 30, 31
ICDM - IEEE International Conference on Data Mining
MLDM - Machine Learning and Data Mining in Pattern Recognition
SDM - SIAM International Conference on Data Mining
EDM - International Conference on Educational Data Mining
ECDM - European Conference on Data Mining
PAKDD - The annual Pacific-Asia Conference on Knowledge Discovery and Data Mining
Ces recherches et résultats financièrement probants obligent les équipes spécialisées dans
l'exploration de données à effectuer un travail méthodique dans des projets structurés.
Méthode CRISP-DM
32
La méthode CRISP-DM découpe le processus de fouille de données en six étapes permettant de
structurer la technique et de l'ancrer dans un processus industriel. Plus qu'une théorie normalisée,
c'est un processus d'extraction des connaissances métiers.
32
Il faut d'abord comprendre le métier qui pose la question à l'analyste, formaliser le problème que
l'organisation cherche à résoudre en ce qui concerne les données, comprendre les enjeux, connaître
les critères de réussite du projet et mettre en place un plan initial pour réaliser cet objectif.
https://fr.wikipedia.org/wiki/Exploration_de_données 6/25
16/04/2020 Exploration de données — Wikipédia
La segmentation est la tâche consistant à découvrir des groupes et des structures au sein des données
qui sont d'une certaine façon similaires, sans utiliser des structures connues a priori dans les
données. La classification est la tâche de généralisation des structures connues pour les appliquer à
notes 5
des données nouvelles .
La régression tente de trouver une fonction modélisant les données continues, c'est-à-dire non
discrètes, avec le plus petit taux d'erreur, afin d'en prédire les valeurs futures. L'association recherche
les relations entre des items. Par exemple un supermarché peut rassembler des données sur des
habitudes d'achats de ses clients. En utilisant les règles d'association, le supermarché peut
déterminer quels produits sont fréquemment achetés ensemble et ainsi utiliser cette connaissance à
des fins de marketing. Dans la littérature, cette technique est souvent citée sous le nom d'« analyse du
panier de la ménagère ».
32
Il s'agit d'évaluer ensuite les résultats obtenus en fonction des critères de succès du métier et
d'évaluer le processus lui-même pour faire apparaître les manques et les étapes négligées. À la suite
de ceci, il doit être décidé soit de déployer, soit d'itérer le processus en améliorant ce qui a été mal ou
pas effectué.
32
Puis vient la phase de livraison et de bilan de fin de projet. Les plans de contrôle et de maintenance
sont conçus et le rapport de fin de projet est rédigé. Afin de déployer un modèle prédictif, le langage
PMML, basé sur le XML, est utilisé. Il permet de décrire toutes les caractéristiques du modèle et de le
transmettre à d'autres applications compatibles PMML.
D'autres méthodes
SEMMA
34
La méthodologie SEMMA (Sample then Explore, Modify, Model, Assess pour « Échantillonner,
puis Explorer, Modifier, Modéliser, Évaluer »), inventée par le SAS Institute, se concentre sur les
activités techniques de la fouille de données. Bien qu'elle soit présentée par le SAS comme seulement
35
une organisation logique des outils de SAS Enterprise miner , SEMMA peut être utilisée pour
36
organiser le processus d'exploration de données indépendamment du logiciel utilisé .
https://fr.wikipedia.org/wiki/Exploration_de_données 7/25
16/04/2020 Exploration de données — Wikipédia
Maladresses à éviter
Il faut construire l'échantillon, qui permet l'apprentissage, avec précaution et ne pas échantillonner à
b2
la légère . L'apprentissage permet de construire le modèle à partir d'un ou plusieurs échantillons.
Paramétrer l'outil d'exploration de données jusqu'à ce que le modèle renvoie 100 % des cas
recherchés revient à se concentrer sur les particularités et se détourner de la généralisation,
nécessaire, qui permet d'appliquer le modèle sur les données hors-échantillon. Des techniques
existent pour éviter le sur-ajustement ou le sur-apprentissage. Il s'agit des méthodes de ré-
40
échantillonnage telles que le bootstrap, du jackknife ou de la validation croisée .
Parfois, une seule technique (arbre de décision, réseaux neuronaux...) n'est pas suffisante pour
b2
obtenir du modèle qu'il donne de bons résultats sur toutes les données . Une des solutions, dans ce
cas, serait constituée d'un ensemble d'outils, qu'on peut utiliser les uns après les autres et comparer
les résultats sur les mêmes données ou bien unifier les forces de chaque méthode soit par
41
l'apprentissage soit par combinaison des résultats .
b2
Il faut placer les données et les résultats de la fouille en perspective dans leur contexte , et ne pas se
focaliser sur les données, sans cela des erreurs d'interprétation peuvent survenir ainsi que des pertes
de temps et d'argent.
42
Éliminer à priori les résultats qui paraissent absurdes , en comparaison avec ce qui est attendu, peut
être source d'erreurs car ce sont peut-être ces résultats qui donnent la solution à la question posée.
https://fr.wikipedia.org/wiki/Exploration_de_données 8/25
16/04/2020 Exploration de données — Wikipédia
Il est impossible d'utiliser et d’interpréter les résultats d'un modèle en dehors du cadre dans lequel il
b2
a été construit . Interpréter des résultats en fonction d'autres cas similaires mais différents est aussi
cause d'erreurs, mais ce n'est pas propre aux raisonnements liés à l'exploration de données. Enfin,
extrapoler des résultats, obtenus sur des espaces de faibles dimensions, sur des espaces de
dimensions élevées peut aussi conduire à des erreurs.
Deux citations de George Box, « Tous les modèles sont faux, mais certains sont utiles » et « Les
statisticiens sont comme les artistes, ils tombent amoureux de leurs modèles », illustrent avec
humour le fait que quelquefois certains analystes en fouille de données ont besoin de croire en leur
modèle et de croire que le modèle qu'ils travaillent est le meilleur. Utiliser un ensemble de modèles et
43
interpréter la distribution des résultats est nettement plus sûr .
Planifier
Dans un projet d'exploration de données, il est essentiel de savoir ce qui est important et ce qui ne
l'est pas, ce qui prend du temps et ce qui n'en prend pas ; ce qui ne coïncide pas toujours.
Le cœur de l'exploration de données est constitué par la modélisation : toute la préparation est
effectuée en fonction du modèle que l'analyste envisage de produire, les tâches effectuées ensuite
valident le modèle choisi, le complètent et le déploient. La tâche la plus lourde de conséquences dans
la modélisation consiste à déterminer le ou les algorithmes qui produiront le modèle attendu. La
question importante est donc celle des critères qui permettent de choisir cet ou ces algorithmes.
Algorithmes
Résoudre un problème par un processus d'exploration de données impose généralement l'utilisation
d'un grand nombre de méthodes et d'algorithmes différents plus ou moins faciles à comprendre et à
45
employer . Il existe deux grandes familles d'algorithmes : les méthodes descriptives et les méthodes
prédictives.
Méthodes descriptives
Définition
46
https://fr.wikipedia.org/wiki/Exploration_de_données 9/25
16/04/2020 Exploration de données — Wikipédia
46
Les méthodes descriptives permettent d'organiser, de simplifier et d'aider à comprendre
l'information sous-jacente d'un ensemble important de données.
Elles permettent de travailler sur un ensemble de données, organisées en instances de variables, dans
lequel aucune des variables explicatives des individus n'a d'importance particulière par rapport aux
autres. Elles sont utilisées par exemple pour dégager, d'un ensemble d'individus, des groupes
homogènes en typologie, pour construire des normes de comportements et donc des déviations par
rapport à ces normes telles que la détection de fraudes nouvelles ou inconnues à la carte bancaire ou
à l'assurance maladie, pour réaliser de la compression d'informations ou de la compression d'image,
etc.
Exemples
b 5
https://fr.wikipedia.org/wiki/Exploration_de_données 10/25
16/04/2020 Exploration de données — Wikipédia
b 5
qualitatives initiales , que deux individus soient proches s'ils possèdent à peu près les mêmes
valeurs des variables qualitatives et que les valeurs de deux variables qualitatives soient proches si ce
b5
sont pratiquement les mêmes individus qui les possèdent .
On peut aussi utiliser des méthodes nées dans le giron de l'intelligence artificielle et plus
48
particulièrement dans celui de l'apprentissage automatique. La classification non supervisée est
une famille de méthodes qui permettent de regrouper des individus en classes, dont la caractéristique
est que les individus d'une même classe se ressemblent, tandis que ceux de deux classes différentes
sont dissemblables. Les classes de la classification ne sont pas connues au préalable, elles sont
découvertes par le processus. D'une manière générale, les méthodes de classification servent à rendre
homogènes des données qui ne le sont pas à priori, et ainsi permettent de traiter chaque classe avec
des algorithmes sensibles aux données aberrantes. Dans cette optique, les méthodes de classification
forment une première étape du processus d'analyse.
Le recouvrement à logique floue est une forme de recouvrement de l'ensemble des individus
représentés par les lignes d'une matrice où certains d'entre eux possèdent une probabilité non nulle
d'appartenir à deux classes différentes. L'algorithme le plus connu de ce type est le FCM (Fuzzy c-
50
means) .
Il faut aussi mentionner l’ Iconographie des corrélations associée à l’utilisation des Interactions
logiques, méthode géométrique qui se prête bien à l’analyse des réseaux complexes de relations
multiples.
Pour rendre compte de l'utilité de ces méthodes de recouvrement, il faut se rappeler que la
classification est un problème dont la grande complexité a été définie par Eric Bell. Le nombre de
partitions d'un ensemble de objets est égal à : . Il vaut donc mieux avoir des
méthodes efficaces et rapides pour trouver une partition qui répond au problème posé plutôt que de
parcourir l'ensemble des solutions possibles.
Enfin, quand l'analyse se porte non pas sur les individus, les items ou les objets, mais sur les relations
qui existent entre eux, la recherche de règles d'associations est l'outil adapté. Cette technique est, à
l'origine, utilisée pour faire l'analyse du panier d'achats ou l'analyse de séquences. Elle permet, dans
ce cas, de savoir quels sont les produits achetés simultanément, dans un supermarché par exemple,
par un très grand nombre de clients ; elle est également appliquée pour résoudre des problèmes
d'analyse de parcours de navigation de sites web. La recherche de règles d'association peut être
utilisée de manière supervisée ; les algorithmes APriori, GRI, Carma, méthode ARD ou encore
51
PageRank se servent de cette technique .
https://fr.wikipedia.org/wiki/Exploration_de_données 11/25
16/04/2020 Exploration de données — Wikipédia
Méthodes prédictives
Définition
Exemples
59 60
https://fr.wikipedia.org/wiki/Exploration_de_données 12/25
16/04/2020 Exploration de données — Wikipédia
59, 60
Quant à l'inférence bayésienne et plus particulièrement les réseaux bayésiens , ils pourront être
utile à l'analyste si celui-ci cherche les causes d'un phénomène ou bien cherche la probabilité de la
61, 62
réalisation d'un évènement .
S'il souhaite compléter les données manquantes, la méthode des k plus proches voisins (K-nn) reste à
63
sa disposition .
La liste des algorithmes évolue chaque jour, car ils n'ont pas tous
le même objet, ne s'appliquent pas aux mêmes données en entrée
et aucun n'est optimal dans tous les cas. En outre, ils s'avèrent
complémentaires les uns aux autres en pratique et en les
combinant intelligemment en construisant des modèles de
modèles ou métamodèles, il est possible d'obtenir des gains en
performance et en qualité très significatifs. L'ICDM-IEEE a fait
51
en 2006 un classement des 10 algorithmes ayant le plus
d'influence dans le monde de l'exploration de données : ce
classement est une aide efficace au choix et à la compréhension
de ces algorithmes.
Qualité et performance
Un modèle de qualité est un modèle rapide, dont le taux d'erreur doit être le plus bas possible. Il ne
doit pas être sensible aux fluctuations de l'échantillon pour ce qui concerne les méthodes supervisées,
il doit être robuste et supporter des changements lents intervenants sur les données. En outre, le fait
d'être simple, compréhensible et produire des résultats interprétables facilement, augmente sa
65
valeur. Enfin, il est paramétrable pour être réutilisable .
Plusieurs indicateurs sont utilisés pour évaluer la qualité d'un modèle, et parmi ceux-ci les courbes
ROC et lift, l'indice de Gini et l'erreur quadratique moyenne montrent où se situe la prédiction par
rapport à la réalité et donnent ainsi une bonne idée de la valeur de cette composante de la qualité du
modèle.
b 9 notes 10
https://fr.wikipedia.org/wiki/Exploration_de_données 13/25
16/04/2020 Exploration de données — Wikipédia
b 9, notes 10
La robustesse et la précision sont deux autres facettes de la qualité du modèle. Pour obtenir
un modèle performant, la technique consiste à limiter l'hétérogénéité des données, optimiser
l’échantillonnage ou combiner les modèles.
Avec l'agrégation de modèles, l'analyste applique le même modèle à des échantillons légèrement
différents issus de l'échantillon initial, pour ensuite associer les résultats. Le bagging et le boosting
66
étaient les deux techniques les plus efficaces et les plus populaires en 1999 . En marketing par
exemple, l'algorithme Uplift utilise la technique du bagging pour produire un modèle d'identification
de groupes de personnes pouvant répondre à une offre commerciale après sollicitation.
Enfin, la combinaison de modèles conduit l'analyste à appliquer plusieurs modèles sur une même
population et à combiner les résultats. Des techniques telles que l'analyse discriminante et les réseaux
de neurones par exemple, se marient aisément.
Outils informatiques
Logiciels
La fouille de données n'existerait pas sans outil. L'offre informatique est présente sous la forme de
67 68
logiciels et aussi sur quelques plateformes spécialisées . De nombreux logiciels sont présents dans
la sphère des logiciels commerciaux, mais il en existe aussi dans celle des logiciels libres. Il n'y a pas
69
de logiciels meilleurs que d'autres, tout dépend de ce qu'on veut en faire . Les logiciels commerciaux
sont plutôt destinés aux entreprises, ou aux organismes ayant de gros volumes de données à
b 10
explorer , tandis que les logiciels libres sont destinés plus particulièrement aux étudiants, à ceux
b 10 70
qui veulent expérimenter des techniques nouvelles, et aux PME . En 2009 , les outils les plus
utilisés sont, dans l'ordre, SPSS, RapidMiner (en), SAS, Excel, R, KXEN (en), Weka, Matlab, KNIME,
Microsoft SQL Server, Oracle DM (en), STATISTICA et CORICO (Iconographie des corrélations). En
71
2010, R est l'outil le plus utilisé parmi les utilisateurs ayant répondu au sondage de Rexer
72
Analytics et STATISTICA apparaît comme l'outil préféré de la plupart des prospecteurs de données
(18 %). STATISTICA, IBM SPSS Modeler, et R ont reçu les taux de satisfaction les plus élevés à la fois
en 2010 et 2009 dans ce sondage de Rexer Analytics.
Informatique en nuage
L’informatique en nuage (cloud computing) n’est pas un outil d’exploration de données, mais un
ensemble de services web, délivrés par des fournisseurs via l'internet, permettant d’accueillir et/ou
73
d’utiliser des données et des logiciels . Néanmoins, il existe des services qui peuvent être utilisés
dans le domaine de l’exploration de données. Oracle Data mining s’expose sur l’IaaS
notes 11 74
d’Amazon en proposant aux clients une Amazon Machine Image contenant une base de
données Oracle incluant une IHM pour la fouille de données ; une image pour R et Python est
75
disponible aussi sur Amazon Web Services . Des acteurs présents exclusivement dans le nuage et
76
spécialisés dans le domaine de la fouille de données proposent leurs services comme Braincube ,
77 78 79
In2Cloud , Predixion et Cloud9Analytics entre autres.
Limites et problèmes
80
L'exploration des données est une technique ayant ses limites et posant quelques problèmes .
https://fr.wikipedia.org/wiki/Exploration_de_données 14/25
16/04/2020 Exploration de données — Wikipédia
Limites
Les logiciels ne sont pas auto-suffisants. Les outils d'exploration des données ne proposent pas
d'interprétation des résultats, un analyste spécialiste de la fouille de données et une personne
connaissant le métier duquel sont extraites les données sont nécessaires pour analyser les livrables du
logiciel.
En outre, les logiciels d'exploration de données donnent toujours un résultat, mais rien n'indique
qu'il soit pertinent, ni ne donne une indication sur sa qualité. Mais, de plus en plus, des techniques
d'aide à l'évaluation sont mises en place dans les logiciels libres ou commerciaux.
Les relations entre les variables ne sont pas clairement définies. Les outils d'exploration des données
indiquent que telles et telles variables ont une influence sur la variable à expliquer, mais ne disent
rien sur le type de relation, en particulier il n'est pas dit si les relations sont de cause à effet.
De plus, il peut être très difficile de restituer de manière claire soit par des graphes, des courbes ou
des histogrammes, les résultats de l'analyse. Le non-technicien aura quelquefois du mal à
comprendre les réponses qu'on lui apporte.
Problèmes
Pour un francophone, néophyte de surcroit, le vocabulaire est une difficulté voire un problème. Pour
s'en rendre compte, il est intéressant de préciser le vocabulaire rencontré dans les littératures
b 11
française et anglo-saxonne. En prenant comme référence le vocabulaire anglo-saxon , le clustering
est compris en exploration de données comme une segmentation, en statistiques et en analyse des
données comme une classification. La classification en anglais correspond à la classification en
exploration de données, à l'analyse discriminante ou au classement en analyse de données à la
française et à un problème de décision en statistique. Enfin, les decision trees sont des arbres de
décision en exploration de données, et on peut entendre parler de segmentation dans ce cas dans le
domaine de l'analyse des données. La terminologie n'est pas claire.
La qualité des données, c'est-à-dire la pertinence et la complétude des données, est une nécessité
pour l'exploration des données, mais ne suffit pas. Les erreurs de saisies, les enregistrements
doublonnés, les données non renseignées ou renseignées sans référence au temps affectent aussi la
qualité des données. Les entreprises mettent en place des structures et des démarches d'assurance
qualité des données pour pouvoir répondre efficacement aux nouvelles réglementations externes, aux
audits internes, et augmenter la rentabilité de leurs données qu'elles considèrent comme faisant
81
partie de leur patrimoine .
L'interopérabilité d'un système est sa capacité à fonctionner avec d'autres systèmes, créés par des
éditeurs différents. Les systèmes d'exploration de données doivent pouvoir travailler avec des
données venant de plusieurs systèmes de gestion de bases de données, de type de fichier, de type de
données et de capteurs différents. En outre, l’interopérabilité a besoin de la qualité des données.
Malgré les efforts de l'industrie en matière d'interopérabilité, il semble que dans certains domaines ce
82
ne soit pas la règle .
Les données sont collectées dans le but de répondre à une question posée par le métier. Un risque de
l'exploration de données est l'utilisation de ces données dans un autre but que celui assigné au
départ. Le détournement des données est l'équivalent d'une citation hors de son contexte. En outre,
elle peut conduire à des problèmes éthiques.
La vie privée des personnes peut être menacée par des projets d'exploration de données, si aucune
précaution n'est prise, notamment dans la fouille du web et l'utilisation des données personnelles
collectées sur Internet où les habitudes d'achats, les préférences, et même la santé des personnes
peuvent être dévoilées. Un autre exemple est fourni par l'Information Awareness Office et en
83
https://fr.wikipedia.org/wiki/Exploration_de_données 15/25
16/04/2020 Exploration de données — Wikipédia
83
particulier le programme Total Information Awareness (TIA) qui exploitait pleinement la
technologie d'exploration de données et qui fut un des projets « post-11 septembre » que le Congrès
des États-Unis avait commencé à financer, puis qu'il a abandonné à cause des menaces
particulièrement importantes que ce programme faisait peser sur la vie privée des citoyens
américains. Mais même sans être dévoilées, les données des personnes recueillies par les entreprises,
via les outils de gestion de la relation client (CRM), les caisses enregistreuses, les DAB, les cartes
santé, etc., peuvent conduire, avec les techniques de fouille de données, à classer les personnes en une
hiérarchie de groupes, de bons à mauvais, prospects, clients, patients, ou n'importe quel rôle que l'on
joue à un instant donné dans la vie sociale, selon des critères inconnus des personnes elles-
84, 85
mêmes . Dans cette optique, et pour corriger cet aspect négatif, Rakesh Agrawal et
Ramakrishnan Sikrant s'interrogent sur la faisabilité d'une exploration de données qui préserverait la
86, notes 12
vie privée des personnes . Le stockage des données nécessaire à la fouille pose un autre
problème dans la mesure où les données numériques peuvent être piratées. Et dans ce cas
87
l'éclatement des données sur des bases de données distribuées et la cryptographie font partie des
réponses techniques qui existent et qui peuvent être mises en place par les entreprises.
Fouilles spécialisées
Certaines entreprises ou groupes se sont spécialisés, avec par exemple Acxiom, Experian Information
Solutions, D & B, et Harte-Hanks pour les données de consommation ou Nielsen N.V. pour les
données d'audience.
Outre l'exploration de données (décrite plus haut) qu'on peut maintenant qualifier de classique, des
spécialisations techniques de l'exploration de données telles que la fouille d'images (image mining),
la fouille du web (web data mining), la fouille de flots de données (data stream mining) et la fouille
de textes (text mining) sont en plein développement dans les années 2010 et concentrent l'attention
de nombreux chercheurs et industriels, y compris pour les risques de diffusion de données
personnelles qu'elles font courir aux individus.
Des logiciels de catégorisation des individus selon leur milieu social et leurs caractérisations de
consommateurs sont utilisés par ces entreprises (ex : Claritas Prizm (créé par Claritas Inc. et racheté
par Nielsen Company.
La fouille audio, technique récente, parfois apparentée à la fouille de données, permet de reconnaître
des sons dans un flux audio. Elle sert principalement dans le domaine de la reconnaissance vocale
et/ou s'appuie sur elle.
88
La fouille d'images est la technique qui s’intéresse au contenu de l'image. Elle extrait des
caractéristiques dans un ensemble d'images, par exemple du web, pour les classer, les regrouper par
type ou bien pour reconnaître des formes dans une image dans le but de chercher des copies de cette
image ou de détecter un objet particulier, par exemple.
La fouille de textes est l'exploration des textes en vue d'en extraire une connaissance de haute qualité.
Cette technique est souvent désignée sous l'anglicisme text mining. C'est un ensemble de traitements
informatiques consistant à extraire des connaissances selon un critère de nouveauté ou de similarité,
dans des textes produits par des humains pour des humains. Dans la pratique, cela revient à mettre
en algorithmes un modèle simplifié des théories linguistiques dans des systèmes informatiques
d'apprentissage et de statistiques. Les disciplines impliquées sont donc la linguistique calculatoire,
l'ingénierie du langage, l'apprentissage artificiel, les statistiques et l'informatique.
Il s'agit d'exploiter, avec la fouille du web, l'énorme source de données que constitue le web et trouver
des modèles et des schémas dans l'usage, le contenu et la structure du web. La fouille de l'usage du
web (Web usage mining ou Web log mining) est le processus d'extraction d'informations utiles
stockées dans les journaux des serveurs. Cette fouille exploite la fouille de textes pour analyser les
documents textes. La fouille de la structure du web est le processus d'analyse des relations, inconnues
à priori, entre documents ou pages stockés sur le web.
89
La fouille de flots de données (data stream mining) est la technique qui consiste à explorer les
90
données qui arrivent en un flot continu , illimité, avec une grande rapidité, et dont certains
paramètres fondamentaux se modifient avec le temps : par exemple, l'analyse des flots de données
91
émis par des capteurs automobiles . Mais des exemples d'applications peuvent être trouvés dans les
domaines des télécommunications, de la gestion des réseaux, de la gestion des marchés financiers, de
la surveillance, et dans les domaines d'activités de la vie de tous les jours, plus proches des personnes,
comme l'analyse des flux de GAB, des transactions par cartes de crédit, etc.
Dans le futur
L’avenir de l'exploration de données dépend de celui des données numériques. Avec l’apparition du
94
Web 2.0, des blogs, des wikis et des services en nuages , il y a une explosion du volume des données
numériques et les gisements de matière première pour la fouille de données sont donc importants.
De nombreux domaines exploitent encore peu la fouille de données pour leurs besoins propres.
L’analyse des données venant de la blogosphère n’en est qu’à son début. Comprendre l’« écologie de
notes 13, b 12
l’information » pour analyser le mode de fonctionnement des médias de l’Internet par
exemple ne fait que commencer.
b 13, b 14
Pour peu que les problèmes liés à la vie privée des personnes soient réglés, la fouille de
b 15
données peut aider à traiter des questions dans le domaine médical , et notamment dans la
b 15
prévention des risques hospitaliers .
https://fr.wikipedia.org/wiki/Exploration_de_données 17/25
16/04/2020 Exploration de données — Wikipédia
Sans aller jusqu'à la science-fiction de Minority Report, les techniques de profilage sans a priori sont
95
rendues possibles par l'exploration de données , pouvant poser quelques problèmes éthiques
96 97
nouveaux . Un documentaire de BBC Horizon résume une partie de ces questions.
Enfin, avec l’apparition de nouvelles données et de nouveaux domaines, les techniques continuent de
b 16
se développer .
Notes et références
(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé
« Data mining (https://en.wikipedia.org/wiki/Data_mining?oldid=429457682) » (voir la liste des
auteurs (https://en.wikipedia.org/wiki/Data_mining?action=history)).
Notes
1. Terme recommandé au Canada par l'OQLF, et en France par la DGLFLF (Journal officiel du 27
février 2003) et par FranceTerme
2. en suivant le même exemple, il permet de répondre à la question : « Quel pourrait être le chiffre
d'affaires dans un mois ? »
3. . Ces distributions sont faciles à calculer, et on trouve parmi elles des lois déjà largement utilisées
(loi normale, distribution exponentielle négative, lois de Zipf et de Mandelbrot...), par des
méthodes sans rapport avec celles qui les ont établies. Le test de fitness d'une distribution au
modèle du « test Psi » de calcul de l'entropie résiduelle, est asymptotiquement équivalent à la Loi
du χ².
4. Voir dans ce document les efforts de standardisation et d'interopérabilité effectués par l'industrie :
(en) Arati Kadav, Aya Kawale et Pabitra Mitra, « Data Mining Standards » (http://www.dataminingg
rid.org/wdat/works/att/standard01.content.08439.pdf) [PDF], sur datamininggrid.org (consulté le
13 mai 2011)
5. Par exemple, un programme gestionnaire de messages électroniques pourrait tenter de classer
un e-mail dans la catégorie des e-mails légitimes ou bien dans celle des pourriels. Les
algorithmes généralement utilisés incluent les arbres de décision, les plus proches voisins, la
classification naïve bayésienne, les réseaux neuronaux et les séparateurs à vaste marge (SVM)
6. Dont on peut trouver, pour certaines, la description ici : Guillaume Calas, « Études des principaux
algorithmes de data mining » (http://guillaume.calas.free.fr/data/Publications/DM-Algos.pdf) [PDF],
sur guillaume.calas.free.fr, 2009 (consulté le 14 mai 2011)
7. Comme CART, CHAID, ECHAID, QUEST, C5, C4.5 et les forêts d'arbres décisionnels
8. Tels que les perceptrons mono ou multicouches avec ou sans rétropropagation des erreurs
9. Telles que la régression linéaire, linéaire multiple, logistique, PLS, ANOVA, MANOVA, ANCOVA
ou MANCOVA.
10. Voir Glossaire du data mining pour la définition de « robustesse » et « précision ».
11. IaaS signifiant Infrastructure as a service dénommé Amazon Elastic Compute Cloud chez
Amazon
12. Puisque les modèles de l'exploration de données concernent les données agrégées d'où sont
éliminées les données personnelles.
13. Selon Tim Finin, Anupam Joshi, Pranam Kolari, Akshay Java, Anubhav Kale et Amit Karandikar,
« The information ecology of social media and online communities » (http://aisl.umbc.edu/resourc
es/376.pdf), sur aisl.umbc.edu (consulté le 19 juin 2011).
Ouvrages spécialisés
1. Tufféry 2010, p. 506
2. Nisbet, Elder et Miner 2009, p. 733
3. Tufféry 2010, p. 44
https://fr.wikipedia.org/wiki/Exploration_de_données 18/25
16/04/2020 Exploration de données — Wikipédia
Autres références
1. « Atelier de travail Etalab du 13 octobre 2011 : Datajournalisme » (http://www.etalab.gouv.fr/page
s/atelier-de-travail-du-13-octobre-2011-datajournalisme-5913723.html) (4e Workshop d'Etalab, 70
participants le 13 octobre 2011), avec vidéos en ligne, consulté 8 octobre 2013.
2. (en) Kurt Thearling, « An Introduction to Data Mining » (http://www.thearling.com/text/dmwhite/dm
white.htm), sur thearling.com (consulté le 2 mai 2011).
3. Jean-Claude Oriol, « Une approche historique de la statistique » (http://www.statistix.fr/IMG/pdf/U
ne_approche_historique_de_la_statistique_v3.pdf) [PDF], sur statistix.fr (consulté le 12 mai 2011)
4. (en) Myron Tribus, Rational descriptions, decisions, and designs, 1969, 478 p. (lire en ligne (http
s://books.google.fr/books?id=fW1bAAAAMAAJ&q=Cox-Jaynes)).
5. (en) Nikhil Pal et Lakhmi Jain, Advanced techniques in knowledge discovery and data mining,
Springer, 2005, 254 p. (ISBN 978-1-85233-867-1)
6. (en) Carole Albouy, « Il était une fois ... le data mining » (http://lafouillededonnees.blogspirit.com/3
_-_dm_un_peu_d_histoire/), sur lafouillededonnees.blogspirit.com (consulté le 23 octobre 2011)
7. (en) Patricia Cerrito, « A Data Mining Applications Area in the Department of Mathematics » (htt
p://www.math.louisville.edu/people/faculty/Cerrito/DataMine.pdf) [PDF], sur math.louisville.edu
(consulté le 31 mai 2011)
8. (en) Maryann Lawlor, « Smart Companies Dig Data » (http://www.afcea.org/signal/articles/anmvie
wer.asp?a=1417&print=yes), sur afcea.org (consulté le 31 mai 2011)
9. Christine Frodeau, « Data mining, Outil de Prediction du Comportement du Consommateur » (htt
p://www.creg.ac-versailles.fr/IMG/pdf/data_mining.pdf) [PDF], sur creg.ac-versailles.fr (consulté le
12 mai 2011)
10. (en) Colleen McCue, Data Mining and Predictive Analysis : intelligence gathering and crime
analysis, Amsterdam/Boston, Elsevier, 2007, 313 p. (ISBN 978-0-7506-7796-7)
11. Frank audet et Malcolm Moore, « Amélioration de la qualité dans un centre d’appel » (http://www.j
mp.com/fr/software/success/pdf/qualite_et_management.pdf) [PDF], sur jmp.com (consulté le
12 mai 2011)
12. (en) Henry Abarbanel, Curtis Callan, William Dally, Freeman Dyson, Terence Hwa, Steven Koonin,
Herbert Levine, Oscar Rothaus, Roy Schwitters, Christopher Stubbs et Peter Weinberger, « Data
mining and the human genome » (http://www.fas.org/irp/agency/dod/jason/genome.pdf) [PDF], sur
fas.org (consulté le 12 mai 2011), p. 7
13. (en) « Industries / Fields for Analytics / Data Mining in 2010 » (http://www.kdnuggets.com/polls/201
0/analytics-data-mining-industries-applications.html), sur kdnuggets.com, octobre 2010 (consulté
le 12 mai 2011)
https://fr.wikipedia.org/wiki/Exploration_de_données 19/25
16/04/2020 Exploration de données — Wikipédia
14. (en) Yi Peng, Gang Kou, Yong Shi et Zhengxin Chen, « A Descriptive Framework for the Field of
Data Mining and Knowledge Discovery », International Journal of Information Technology and
Decision Making, vol. 7, no 4, 2008, p. 639 à 682 (10.1142/S0219622008003204)
15. (en) « SIGKDD : Site officiel » (http://www.sigkdd.org/index.php), sur sigkdd.org (consulté le
13 mai 2011)
16. (en) « ACM SIGKDD : Conferences » (http://www.kdd.org/conferences.php), sur kdd.org (consulté
le 13 mai 2011)
17. (en) ACM, New York, « SIGKDD Explorations » (http://www.kdd.org/explorations/about.php), sur
kdd.org (consulté le 13 mai 2011)
18. (en) « 5th (2009) » (http://www.dmin--2009.com/), sur dmin--2009.com (consulté le 13 mai 2011)
19. (en) « 4th (2008) » (http://www.dmin-2008.com/), sur dmin-2008.com (consulté le 13 mai 2011)
20. (en) « 3rd (2007) » (http://www.dmin-2007.com/), sur dmin-2007.com (consulté le 13 mai 2011)
21. (en) « 2d (2006) » (http://www.dmin-2006.com/), sur dmin-2006.com (consulté le 13 mai 2011)
22. (en) « 1st (2005) » (http://www.informatik.uni-trier.de/~ley/db/conf/dmin/dmin2005.html), sur
informatik.uni-trier.de (consulté le 13 mai 2011)
23. (en) « ICDM : Site officiel » (http://www.cs.uvm.edu/~icdm/), sur cs.uvm.edu (consulté le
13 mai 2011)
24. (en) « IEEE International Conference on Data Mining » (http://www.informatik.uni-trier.de/~ley/db/c
onf/icdm/index.html), sur informatik.uni-trier.de (consulté le 13 mai 2011)
25. (en) « ICDM09, Miami, FL » (http://www.cs.umbc.edu/ICDM09/), sur cs.umbc.edu (consulté le
13 mai 2011)
26. (en) « ICDM08, Pisa (Italy) » (http://icdm08.isti.cnr.it/), sur icdm08.isti.cnr.it (consulté le
13 mai 2011)
27. (en) « ICDM07, Omaha, NE » (http://www.ist.unomaha.edu/icdm2007/), sur ist.unomaha.edu
(consulté le 13 mai 2011)
28. (en) « ICDM06, Hong Kong » (http://www.comp.hkbu.edu.hk/iwi06/icdm/), sur comp.hkbu.edu.hk
(consulté le 13 mai 2011)
29. (en) « ICDM05, Houston, TX » (http://www.cacs.ull.edu/~icdm05/), sur cacs.ull.edu (consulté le
13 mai 2011)
30. (en) « ICDM04, Brighton (UK) » (http://icdm04.cs.uni-dortmund.de/), sur icdm04.cs.uni-
dortmund.de (consulté le 13 mai 2011)
31. (en) « ICDM01, San Jose, CA. » (http://www.cs.uvm.edu/~xwu/icdm-01.html), sur cs.uvm.edu
(consulté le 13 mai 2011)
32. (en) « CRoss Industry Standard Process for Data Mining : Process Model » (http://www.crisp-dm.o
rg/Process/index.htm), sur crisp-dm.org, 2007 (consulté le 14 mai 2011)
33. (en) Usama Fayyad, Gregory Piatetsky-Shapiro et Padhraic Smyth, « From Data Mining to
Knowledge Discovery in Databases » (http://www.kdnuggets.com/gpspubs/aimag-kdd-overview-1
996-Fayyad.pdf) [PDF], sur kdnuggets.com, 1996 (consulté le 14 mai 2011)
34. (en) « STATISTICA, Statistics Glossary, Models for Data Mining » (http://www.statsoft.com/textboo
k/statistics-glossary/m/button/m/), sur statsoft.com (consulté le 13 mai 2011)
35. (en) « SAS SEMMA » (http://www.sas.com/offices/europe/uk/technologies/analytics/datamining/mi
ner/semma.html), sur sas.com (consulté le 13 mai 2011)
36. (en) Ana Azevedo et Manuel Filipe Santos, « KDD, SEMMA and CRISP-DM: a parallel overview »
(http://www.iadis.net/dl/final_uploads/200812P033.pdf) [PDF], IADIS, 2008
(ISBN 978-972-8924-63-8, consulté le 14 mai 2011), p. 184
37. isixsigma, « What Is Six Sigma? » (http://www.isixsigma.com/index.php?option=com_k2&view=ite
m&id=1463:what-is-six-sigma?&Itemid=155), sur isixsigma.com (consulté le 15 mai 2011)
38. StatSoft, « Six Sigma DMAIC » (http://www.statsoft.com/textbook/statistics-glossary/s/button/s/#Si
x%20Sigma%20DMAIC), sur statsoft.com (consulté le 15 mai 2011)
39. (en) « Six Sigma on line » (http://www.sixsigmaonline.org/services.html), Aveta Business Institute
(consulté le 15 mai 2011)
https://fr.wikipedia.org/wiki/Exploration_de_données 20/25
16/04/2020 Exploration de données — Wikipédia
https://fr.wikipedia.org/wiki/Exploration_de_données 21/25
16/04/2020 Exploration de données — Wikipédia
https://fr.wikipedia.org/wiki/Exploration_de_données 22/25
16/04/2020 Exploration de données — Wikipédia
Voir aussi
Analyse multivariée
Analyse des données
Big data
Segmentation (marketing)
Nielsen PRIZM (système de catégorisation des consommateurs)
Intelligence artificielle
Apprentissage automatique
Traitement automatique du langage naturel
Linguistique calculatoire
Carte auto adaptative (exemple de Réseau de neurones : carte de Kohonen (SOM/TOM))
Aide à la décision
Informatique décisionnelle
Aide à la décision
Datawarehouse, Datamart, Lac de données
Applications
Recherche d'information
Fuite d'information
Journalisme de données
Bibliographie
(en) Robert Nisbet, John Elder et Gary Miner, Handbook of Statistical Analysis & Data Mining
Applications, Amsterdam/Boston, Academic Press, 2009, 823 p. (ISBN 978-0-12-374765-5)
(en) Hillol Kargupta, Jiawei Han, Philip Yu, Rajeev Motwani et Vipin Kumar, Next Generation of
Data Mining, CRC Press, 2009, 3e éd., 605 p. (ISBN 978-1-4200-8586-0)
Stéphane Tufféry, Data Mining et statistique décisionnelle : l'intelligence des données, Paris,
éditions Technip, 2010, 705 p. (ISBN 978-2-7108-0946-3, lire en ligne (https://books.google.com/books?id=A
yIYAAn4a2kC&printsec=frontcover))
(en) Phiroz Bhagat, Pattern Recognition inndustry, Amsterdam/Boston/London, Elsevier, 2005,
200 p. (ISBN 978-0-08-044538-0)
(en) (en) Richard O. Duda, Peter E. Hart, David G. Stork, Pattern Classification, Wiley-
interscience, 2001 (ISBN 0-471-05669-3) [détail des éditions]
(en) Yike Guo et Robert Grossman, High Performance Data Mining : Scaling Algorithms,
Applications and Systems, Berlin, Springer, 200, 112 p. (ISBN 978-0-7923-7745-0, lire en ligne (https://b
ooks.google.com/books?id=ms0EDZPYK3gC&printsec=frontcover))
(en) Ingo Mierswa, Michael Wurst, Ralf Klinkenberg, Martin Scholz et Tim Euler, « YALE: Rapid
Prototyping for Complex Data Mining Tasks », Proceedings of the 12th ACM SIGKDD
International Conference on Knowledge Discovery and Data Mining (KDD-06), ACM, 2006,
p. 935-940 (ISBN 1595933395,
DOI 10.1145/1150402.1150531 (https://dx.doi.org/10.1145%2F1150402.1150531), présentation en ligne (http://ww
w.mendeley.com/research/yale-rapid-prototyping-for-complex-data-mining-tasks/))
Daniel Larose (trad. Thierry Vallaud), Des données à la connaissance : Une introduction au
data-mining (1Cédérom), Vuibert, 2005, 223 p. (ISBN 978-2-7117-4855-6)
https://fr.wikipedia.org/wiki/Exploration_de_données 24/25
16/04/2020 Exploration de données — Wikipédia
René Lefébure et Gilles Venturi, Data Mining : Gestion de la relation client : personnalisations
de site web, Eyrolles, 2001, 392 p. (ISBN 978-2-212-09176-2)
(en) Pascal Poncelet, Florent Masseglia et Maguelonne Teisseire, Data Mining Patterns : New
Methods and Applications, Idea Group Reference, 2007, 307 p. (ISBN 978-1-59904-162-9)
(en) Pang-Ning Tan, Michael Steinbach et Vipin Kumar, Introduction to Data Mining, Pearson
Addison Wesley, 2007, 769 p. (ISBN 978-0-321-32136-7 et 0-321-32136-7,
OCLC 58729322 (https://worldcat.org/oclc/58729322&lang=fr))
Ian Witten et Eibe Frank, Data Mining : Practical Machine Learning Tools and Techniques,
(en)
Morgan Kaufmann, 1999, 371 p. (ISBN 978-1-55860-552-7, lire en ligne (https://books.google.com/books?id
=6lVEKlrTq8EC&printsec=frontcover))
(en) Stéphane Tufféry, Data Mining and Statistics for Decision Making, John Wiley & Sons,
2011, 716 p. (ISBN 978-0-470-68829-8)
(en) B. Efron, The Annals of Statistics : Bootstrap methods: Another look at the jackknife,
Institute of Mathematical Statistics, 1973 (ISSN 0090-5364 (http://worldcat.org/issn/0090-5364&lang=fr))
(en) Leo Breiman, Machine Learning : Bagging predictors, Kluwer Academic Publishers
Hingham, 1996 (ISSN 0885-6125 (http://worldcat.org/issn/0885-6125&lang=fr))
La version du 13 juin 2011 de cet article a été reconnue comme « bon article », c'est-
à-dire qu'elle répond à des critères de qualité concernant le style, la clarté, la
pertinence, la citation des sources et l'illustration.
Droit d'auteur : les textes sont disponibles sous licence Creative Commons attribution, partage dans les mêmes
conditions ; d’autres conditions peuvent s’appliquer. Voyez les conditions d’utilisation pour plus de détails, ainsi que les
crédits graphiques. En cas de réutilisation des textes de cette page, voyez comment citer les auteurs et mentionner la
licence.
Wikipedia® est une marque déposée de la Wikimedia Foundation, Inc., organisation de bienfaisance régie par le
paragraphe 501(c)(3) du code fiscal des États-Unis.
https://fr.wikipedia.org/wiki/Exploration_de_données 25/25