Beruflich Dokumente
Kultur Dokumente
Résumé : ce chapitre donne les bases des principaux algorithmes de traitement et d’analyse d’images
numériques niveaux de gris et couleur, tout au long d’une chaîne traditionnelle de traitements de
telles données. On trouvera sur le site de Pandore1 une bibliothèque d’algorithmes pour tester ces
traitements.
Le xxie siècle est celui de l’image numérique, vecteur intégrant de la connaissance a priori sur les contenus
d’information pour la presse, les artistes, le monde et surtout sur la finalité de l’exploitation des données.
médical mais aussi celui de l’industrie. Le traitement Le traitement d’images est donc une science en pleine
d’images est une science récente qui a pour but d’of- évolution qu’il n’est pas possible de décrire pleinement
frir aux spécialistes de différents domaines, comme au dans ces quelques pages. Nous allons tenter de donner
grand public, des outils de manipulation de ces don- les bases de cette science qui a pour objectifs princi-
nées digitales issues du monde réel. L’histoire com- paux (cf. figure 1) :
mence dans les années cinquante avec les rayons X. – de saisir une scène réelle pour constituer un fi-
Puis vint l’étude de méthodes d’extraction automa- chier informatique, c’est l’étape d’acquisition ;
tique d’informations avec de nombreuses applications – de mettre en évidence les informations intéres-
en reconnaissance de caractères et en contrôle qua- santes : c’est l’étape de traitement dans laquelle
lité. Dans les années quatre-vingt, les efforts se pour- on distinguera tout particulièrement les étapes de
suivirent avec l’introduction des systèmes experts qui débruitage puis la segmentation ;
devaient remplacer l’homme dans ses différents diag- – d’interpréter ces informations pour décider d’un
nostics ! Enfin dans le courant des années quatre-vingt diagnostic ou d’une action à engager : c’est l’étape
et quatre-vingt-dix, le traitement d’images passe du 2D d’analyse ;
au nD grâce aux nouvelles possibilités technologiques.
Les supports de stockage, les processeurs permettent
désormais de traiter des informations multidimension-
nelles de couleur et de mouvement.
– sans oublier les étapes de stockage des informa- grille de L lignes et C colonnes puis une quantification
tions, à différentes étapes de la chaîne, et de vi- qui permet d’associer un codage numérique à la quan-
sualisation et/ou d’impression des résultats. tité d’énergie captée par chaque élément de cette grille.
Dans la suite de ce chapitre, nous allons expliciter Le nombre b de bits de codage définit la dimension de
ces différents stades de manière succincte. Le lecteur l’espace de représentation et le nombre N de valeurs
pourra se référer à (Cocquerez et Philipp, 1995; Bon- possibles (N = 2b ).
ton et al., 2004) pour aller plus loin. Soit I une image numérique :
1 Acquisition I = {(i, j) ∈ 0, . . . , m − 1} × {0, . . . , n − 1}
(1.1)
1.1 Généralités
La première étape d’une chaîne de traitement et d’ana- Chaque élément I(i, j) de la matrice est appelé pixel
lyse des images numériques est celle de l’acquisition (contraction de picture element). Lorsque le nombre de
d’une scène. Les objets de cette scène peuvent émettre bits b de codage vaut 1, l’image est dite binaire. Les
de l’énergie, on parle alors d’imagerie en émission, images en niveaux de gris sont généralement codées
comme l’imagerie infrarouge. Mais le plus souvent ils sur 8 bits, la valeur 0 codant le noir et la valeur maxi-
reçoivent une énergie lumineuse qu’ils vont en partie mum 255 (28 − 1) codant le blanc. Dans le cas des
absorber et en partie réfléchir. L’analyse de l’énergie images couleurs, à chaque pixel est associé un vecteur
absorbée est le fait de l’imagerie en absorption, comme à trois composantes codées classiquement chacune sur
dans le cas de l’imagerie ultrasonore (échographie par 8 bits. L’espace de représentation choisi définit la si-
exemple). L’analyse de l’énergie réfléchie concerne la gnification des composantes (RGB, HLS, . . . ).
majorité des applications de traitement d’images, où
un capteur se substitue à l’œil d’un observateur. Un 1.2 Les représentations numériques
objet n’est alors visible que s’il est éclairé. Plus un ob- de la couleur
jet réfléchit l’énergie lumineuse qu’il reçoit, plus il sera
Un espace couleur, ou système de représentation, se
clair. Ce sont par ailleurs les différences d’absorption
définit par le choix des primaires utilisées et du blanc
et donc de réflexion, des différentes longueur d’ondes
de référence qui fixe leurs valeurs unitaires. Il peut être
d’un spectre lumineux qui vont donner la couleur d’un
défini quatre familles de systèmes de représentation :
objet.
les systèmes de primaires, les systèmes luminance-
chrominance, les systèmes liées à la perception hu-
maine et les systèmes d’axes indépendants. Des ver-
sions normalisées de ces systèmes sont proposées par
la CIE (Commission international de l’éclairage).
Les systèmes de primaires
Figure 2 Le spectre visible Le principe de la trivariance visuelle est un principe
selon lequel toute couleur peut être reproduite visuel-
Les longueurs d’onde perceptibles par le système de lement à l’identique1 par le mélange algébrique, en
vision humaine sont comprises environ entre 380 nm proportions définies de manière unique, de trois cou-
pour le violet et 780 nm pour le rouge (figure 2). Le leurs, appelées primaires, choisies sous réserve qu’au-
spectre visible correspond à cette plage de longueurs cune d’entre elles ne puisse être reproduite par un mé-
d’onde. Dans l’étape d’acquisition d’une image numé- lange des deux autres. L’ensemble des couleurs repro-
rique, un capteur électronique va remplacer le capteur ductibles est appelé espace des couleurs : espace RVB par
biologique. Si l’on reste dans le domaine du visible, il exemple. Il existe autant d’espaces RVB qu’il y a de
existe aujourd’hui deux principales technologies basées primaires R, V et B et de blancs de référence. L’es-
respectivement sur les CCD (Charge Coupled Devices) et pace des couleurs forme un cube selon les primaires
la technologie CMOS (Berry, 2005). Pour passer en- conservées (figure 3). L’espace RVB présente quelques
suite de ce phénomène continu à une image numé- inconvénients, d’où la proposition de la CIE qui a dé-
rique, la première étape est celle de la discrétisation. fini un espace de représentation basé sur trois primaires
Elle s’opère en deux temps : une discrétisation spatiale virtuelles X , Y et Z (figure 4).
qui organise l’image continue généralement selon une
2 Traitement
1 Traitement marginal : traitement séparé et indépendant sur chacun des axes de représentation.
“chapitre_TI_version_finale” — 2006/10/15 — 18:51 — page 377 — #4
2.2 L’amélioration
Le problème de l’amélioration est quant à lui lié à la
perception humaine. C’est donc un problème subjec-
tif. Le système visuel humain étant particulièrement
Figure 7 Modifications de l’échelle des niveaux de gris ou
sensible aux forts contrastes, les techniques d’amélio- de couleur
ration tentent d’augmenter ceux-ci pour accroître la sé-
parabilité des régions composant une scène (figure 6).
Il existe deux grandes familles de méthodes : les mé- Modification de l’histogramme
thodes dites globales ou ponctuelles et les méthodes
locales ou dites de voisinage. L’histogramme de l’image I est une fonction H définie
sur l’ensemble des entiers naturels par :
H(x) correspond au nombre d’occurrences de la Dans le cadre des images couleur, la taille de l’histo-
couleur (ou du niveau de gris) x dans l’image I 1 . L’his- gramme pose de nombreux problèmes (aspect vectoriel
togramme résume une image à l’ensemble des couleurs induisant une dimension trois), souvent résolus au tra-
présentes et offre un moyen simple d’appréhender le vers d’une réduction du nombre de couleurs (quantifi-
contenu numérique. Il ne contient néanmoins aucune cation), ou d’un traitement marginal après changement
information quant à la répartition spatiale des niveaux d’espace.
de gris ou de couleur. Pour améliorer ou normaliser
Débruitage par méthodes locales
une image, il est utilisé une linéarisation, afin de répar-
tir uniformément les valeurs des pixels sur l’ensemble Plutôt que de travailler sur des informations glo-
de l’histogramme. Soit g l’image de départ, g l’image bales, certaines méthodes travaillent localement sur
après linéarisation et T la transformation appliquée des pixels ou sur un voisinage de pixels. Les techniques
(équation 1.7). Dans ce contexte, T est une fonction employées sont de type filtrage avec des approches
de distribution cumulative représentée par la figure 9. de type fréquentielles et son corollaire dans l’espace
pixel : le filtrage linéaire. Le traitement d’images a éga-
g = (gmax − gmin ) T (g(x, y)) + gmin (1.7) lement développé des méthodes spécifiques de filtrage
non linéaire dont le filtre médian est un cas particulier.
Le filtrage fréquentiel
Il consiste à calculer la transformée de Fourier d’une
image numérique, puis à multiplier cette transformée
par une fonction de fenêtrage, dans laquelle l’infor-
mation pertinente est supposée contenue. Le retour
à l’espace pixel s’effectue par transformation inverse.
Figure 9 Transformation d’histogramme : (1) FDC2 de La transformée de Fourier F (u, v) d’une image I(l, c)
l’histogramme initial,(2) FDC du nouvel histogramme
est donnée par la formule 1.10, le retour dans l’espace
Un exemple de ces méthodes, dite d’égalisation pixel exploite l’équation 1.11.
d’histogramme, est donné par les formules3 1.8 et 1.9.
La figure 10 illustre les résultats obtenus sur une image 1 2jπ(lu+cv)
niveaux de gris. F (u, v) = I(l, c)e− N
N2 l c
u (1.10)
v = H(i) (1.8) 2jπ(lu+cv)
i=0 I(l, c) = F (u, v)e N
v − vmin u v
v = Ent (N − 1) + 0.5 (1.9) (1.11)
1 − vmin
Le filtrage linéaire
Comme multiplier dans le domaine fréquentiel revient
à convoluer dans le domaine temporel, la fenêtre fré-
quentielle se transforme en un masque dans l’espace
pixel. Il est alors appliqué à une image selon la formule
de convolution discrète suivante :
l−1 c−1
g (p, q) = g(p − i, q − j) · h(i, h) (1.12)
i c
Dans les deux cas, le principal problème est le choix – Filtre max : cj = 0 si j = N et N = 1
de l’opérateur de lissage qui doit être lié à la nature – Filtre min : cj = 0 si j = 1 et c1 = 1
du bruit. Attention au fait que, sur une image cou- – Filtre médian : cj = 0 si j = n + 1 et cn+1 = 1
leur, le flou d’un filtrage linéaire en niveaux de gris – Filtre de rang k : cj = 0 si j = k et ck = 1
se traduit, en application marginale, par l’apparition – Filtre milieu : cj = 0 si j = 1 et j = N et
de fausses couleurs. Généralement, le bruit se situe c1 = cN = 0.5
dans les hautes fréquences et un simple filtre passe- C’est le filtre médian qui est utilisé généralement à
bas peut l’atténuer. Dans ce cas, l’opérateur W pourra la place du moyenneur pour éliminer les problèmes de
être un filtre moyenneur simple sur un voisinage 3 × flou, au prix d’une complexité et d’un temps de calcul
3 (tableau 1). Ainsi, chaque pixel est remplacé par la un peu plus élevé. Les voisinages de travail choisis sont
moyenne pondérée de ses voisins. On remarquera que là encore le plus souvent des voisinages symétriques de
la convolution ne peut être effectuée sur les bords de taille impaire (3 × 3, 5 × 5, etc.). Un résultat compa-
l’image. Ainsi, si l’image originale est de taille N × M ratif de ces différents filtres est donné par la figure 11.
et que le filtre est un masque de taille l × c, l’image
filtrée sera de taille (N − (l − 1)) × (M − (c − 1)).
Figure 12 Variation de niveau de gris ou de couleur Tableau 2 Dérivées selon y (colonne de gauche) et selon x
provoquant l’apparition d’un contour (colonne de droite), filtres Prewit (en haut) et Sobel (en bas)
L’approche laplacien les ombres (figure 15). L’ensemble des méthodes est
L’approximation des dérivées secondes peut être effec- détaillé dans (Bonton et al., 2004). Il peut être néces-
tuée de la même manière par un développement limité saire d’opérer un suivi de contours afin d’obtenir des
(équations 1.19, 1.20), à partir duquel il est possible de régions fermées interprétables comme projections des
proposer les masques des filtres (tableaux 4). objets de la scène, ce qui peut nécessiter des techniques
d’exploration des graphes (IA, programmation dyna-
mique) ou des méthodes neuromimétiques (réseaux de
∂ 2 f 1 neurones). Ces techniques se retrouvent dans (Coc-
≈ [f (p + 1, q) − 2f (p, q) + f (p − 1, q)]
∂x2 p,q 4λ2x querez et Philipp, 1995). La description du contour
(1.19) passe par une modélisation de celui-ci ou un codage tel
que celui de Freeman (figure 16) qui caractérise le pas-
∂ 2 f 1
≈ [f (p, q + 1) − 2f (p, q) + f (p, q − 1)]
∂y 2 p,q
sage d’un pixel à son voisin. La suite des codes locaux
4λ2y
donne le codage du contour (exemple : 00564412).
(1.20)
0 -1 0 -1 -1 -1
-1 4 -1 -1 8 -1
0 -1 0 -1 -1 -1
Tableau 4 Filtres laplaciens Figure 15 Image originale, filtrée par un Sobel sur la
luminance et un Sobel «teinte»
Conformément aux propos précédents (figure 13),
l’extraction des contours grâce aux dérivées secondes
se fait à partir d’une seule convolution et n’exploite
pas les maxima mais les passages par zéro de la fonc-
tion bidimensionnelle. À la différence du gradient, la
détection du contour produit une ligne double (fi-
Figure 16 Codage de l’orientation du contour (codage de
gure 14). Néanmoins ces lignes de contours sont fer-
Freeman)
mées et d’épaisseur 1 pixel, alors qu’avec un gradient
le seuillage introduit des coupures dues aux effets du
3.2 Segmentation en région
seuillage. Cependant l’opérateur laplacien est sensible
au bruit et ne donne aucune indication quant à la di- La segmentation en régions homogènes vise à parti-
rection des contours. tionner l’image en se basant sur des propriétés intrin-
sèques des régions. Un critère simple est celui du ni-
veau de gris ou de la couleur identique à près pour
tous les pixels d’une même région. Mais les critères
peuvent s’appuyer sur des statistiques beaucoup plus
complexes de l’image, comme ceux décrivant la tex-
ture (voir section 4). Il est courant de visualiser le par-
titionnement d’une image en régions en leur associant
à chacune une couleur différente.
Figure 14 Extraction de contours par le laplacien
(zero-crossing)
– ∀(i, j), Ri Rj = ∅ ssi i = j – d 2 (−c→ −→
p , μR ) < s3
– ∀i, P (Ri ) = Vrai avec μV la couleur moyenne du voisinage V et −
−→ μ→R la
– ∀(i, j), P (Ri Rj ) = Faux ssi i = j couleur moyenne de la région R.
Le seuillage : un cas particulier Si le pixel courant peut fusionner avec plusieurs voi-
sins, il est affecté à la région qui minimise les trois dis-
Le seuillage a pour objectif de segmenter une image
tances. Si le pixel courant ne peut fusionner, il est le
en plusieurs classes en n’utilisant que l’histogramme,
germe d’une nouvelle région. Les inconvénients ma-
qui est supposé caractéristique du contenu. Les creux
jeurs de cette méthode reposent sur l’influence de la
ou vallées d’un histogramme correspondent à des cou-
position initiale du germe et du type de balayage.
leurs peu représentées dans l’image. À chaque pic de
l’histogramme est associée une classe. On dit qu’un Segmentation par division/fusion
histogramme est bimodal lorsque deux pics (deux La segmentation par division induit une structure hié-
modes) sont clairement identifiables. Comme l’histo- rarchisée qui permet d’établir des relations de proxi-
gramme ne contient pas d’information sur la répar- mité entre les régions, mais qui peut fractionner une
tition spatiale des couleurs, des pixels non connexes même région en plusieurs ensembles distincts. La seg-
peuvent être associés à la même classe. Il existe de très mentation par fusion produit un nombre minimal
nombreuses méthodes de seuillage d’un histogramme de régions connexes, mais décrit celles-ci dans une
(manuelle, sélection de minima absolus et locaux, mi- structure horizontale qui n’exprime pas de relation de
nimisation de variance, entropique, classification bayé- proximité. La combinaison des deux approches (appe-
sienne, méthodes locales adaptatives ou par ligne de lée Split and Merge) est d’exploiter un étage de fusion
partage des eaux) (Cocquerez et Philipp, 1995). de régions à partir d’une division grossière obtenue par
Segmentation par division
division de l’image. L’étape de division (split) divise
l’image en régions jusqu’à ce que la propriété d’homo-
Le principe consiste à tester d’abord le critère d’ho- généité soit vraie dans la sous-image. Dans l’étape de
mogénéité retenu sur l’image entière. Si le critère est fusion (merge), les régions adjacentes dont l’union véri-
valide, l’image est considérée comme segmentée ; si- fie un prédicat (pas forcément identique à celui de la
non, l’image est découpée en zones plus petites et la première phase) sont regroupées.
méthode est réappliquée sur chacune des zones. La di-
vision peut se faire en quatre parties, en six parties, en
polygones, etc. Le plus souvent une méthode dite de
quadtree est appliquée, à savoir que tant que tous les
pixels ne sont pas identiques dans la région au sens
du critère choisi, celle-ci est divisée par 4. L’inconvé-
nient de ces méthodes est que deux parties adjacentes
peuvent vérifier le même critère sans avoir été regrou- Figure 18 Principe du Split and Merge
pées dans la même région. Ces méthodes font partie
des approches descendantes.
Segmentation par fusion
À l’inverse de la démarche précédente, l’image est ex-
plorée en partant de petites régions. Ces germes vont
croître en taille en agglomérant des pixels ou des ré-
gions connexes satisfaisant un critère d’homogénéité.
Le balayage de l’image se fait à partir d’un germe ini-
tial et suivant un ordre déterminé. Un exemple d’une Figure 19 * Split and Merge (4431 divisions pour obtenir
technique dédiée aux images couleur est donnée dans 13294 régions homogènes puis fusion pour segmenter en
(Bonton et al., 2004). Un pixel fusionne avec ses voi- 7995 régions homogènes)
La morphologie mathématique qui «nettoie» les pe- appartenant à la même catégorie, on parlera de mé-
tites régions de taille inférieure à celle de l’élément thodes supervisées. Dans le cas où une telle organi-
structurant, qui ferme les contours peut donc être uti- sation n’est pas connue a priori, nous serons dans le
lisée comme pré ou post traitement d’une segmenta- contexte de méthodes non supervisées. Les techniques
tion. Mais elle peut elle-même constituer une étape de d’identification font ainsi appel aux méthodes de clas-
segmentation, par l’extraction d’un contour à l’aide du sification, qui selon leurs formalismes nécessitent ou
gradient morphologique ou par la mise en évidence non une phase d’apprentissage.
d’une forme de référence, celle de l’élément structu- Dans tous les cas, deux aspects fondamentaux sont
rant. On en arrive ainsi à l’étape finale d’une chaîne de à prendre en compte : la nature de l’information à uti-
traitement, l’analyse. liser dans un premier temps et la métrique qui est as-
sociée à la formalisation utilisée.
4 Analyse d’images Les principales métriques
Parmi les métriques traditionnelles, celles dérivant du
L’objectif de l’analyse est de permettre l’exploitation
cadre classique des distances de Minkowski Lp sont
du contenu de l’image à des fins d’interprétation (aide
les plus usitées, notamment la classique distance eu-
au diagnostic en imagerie aérienne, satellitaire, médi-
clidienne L2 qui ne devrait être utilisée que dans un
cale par exemple), de localisation et de reconnaissance
espace orthonormé. L’expression pour une distance
(vidéosurveillance, contrôle robotique) ou de mesure
entre deux vecteurs H 1 et H 2 , de taille n est :
des évolutions (contrôle qualité, suivi thérapeutique,
n p 1/p
etc.). Lp : dLp H1 , H2 = h1ci − h2ci
i=1
Suivant la nature de la tâche, la phase d’analyse ex-
Citons également dans cette veine des dérivées effi-
ploite un ou plusieurs types d’informations estimés à
caces de ces mesures qui prennent en compte l’impor-
partir des données pixels. Le passage à l’interprétation
tance en nombre de pixels de la couleur considérée :
ou la reconnaissance peut nécessiter une phase d’ap-
distance de Geman-McClure et distance pondérée par
prentissage à partir d’une base de cas. Les informations
la masse (Huang et al., 1998).
susceptibles d’être extraites à partir d’une image numé-
Lorsque les informations considérées sont des va-
rique ont trait à la couleur, la texture, la forme des ob-
riables aléatoires, il est conseillé d’utiliser des mesures
jets présents et leur organisation dans l’image. Le com-
de divergences ou des mesures de test d’hypothèse. Le
plémentaire de l’information est l’outil de mesure de
point de départ de ces métriques est la divergence de
la ressemblance, c’est-à-dire une fonction de mesure de
Kullback-Leibler1 :
distance entre deux informations de même nature.
n
h1
dKL (H1 , H2 ) = h1ci log ci
h2
i=1 ci
4.1 Cadre général de l’analyse Les versions plus robustes de ce test sont obtenus
L’analyse d’images exploite des informations, qui se- par un test du Chi-2 ou de Bhattacharyya.
lon leur nature peuvent être exprimées sous forme 4.2 Gérer l’information couleur
de scalaire (intensité moyenne), de vecteurs (couleur
prédominante) ou de matrices (matrice de coocur- L’information couleur généralise l’information en ni-
rence). La nature de l’information qui peut être extraite veau de gris en apportant une touche de complexité
est diverse, des caractéristiques couleur ou luminance, par la dimension du problème. Cette information ré-
des caractéristiques d’aspect de surface (rugosité, tex- sume la distribution de couleur présente dans la zone
ture, brillance), des caractéristiques de forme ou de d’étude (image entière ou portion d’images). L’exploi-
construction (courbe, segments, courbure), des carac- tation de ces distributions passe soit par des statistiques
téristiques d’organisation (voisinage, inclusion, hiérar- (moyennes, écart-types, etc.), soit par l’analyse d’histo-
chie). grammes.
À partir de ces informations, l’analyse permet de Mesures de ressemblance sur un ensemble
mesurer des ressemblances ou des dissemblance entre de couleurs commun
deux images ou parties d’images. Dans le cadre géné- Dans le cadre de l’analyse d’images professionnelles,
rique de la reconnaissance des formes (RdF), l’enjeu est les conditions d’acquisition sont maîtrisées et per-
d’identifier un objet. Selon qu’il existe un modèle de mettent de numériser chaque image sur un ensemble
cet objet, ou un ensemble d’objets identifiés comme de couleurs identiques pour chaque image. Sous cette
1 Cependant, la version de Jeffrey lui est préférée pour son respect de la symétrie et de l’inégalité triangulaire (Puzicha
et al., 1997).
“chapitre_TI_version_finale” — 2006/10/15 — 18:51 — page 385 — #12
contrainte, toutes les métriques présentées précédem- d’échelle. Les différences de dynamique s’expliquent
ment peuvent être utilisées pour comparer deux images par les différences de linéarité entre les fonctions.
ou portions d’images. Globalement, l’utilisation des
histogrammes cumulés se révèle être plus robuste que Métrique img1/img2 img1/img3 img2/img3
l’utilisation directe des histogrammes, mais reste très Ln 0.029 0.030 0.036
1
sensible à l’ordonnancement des couleurs (Stricker et Ln 0.0063 0.0069 0.0076
2
Orengo, 1995). Ln 0.32 0.54 0.40
inter
Exemples de mesures Lc1 0.053 0.193 0.179
La figure 25 présente quatre images d’une base Lc2 0.042 0.014 0.015
d’images multimédia classique, le tableau 5 résume Lcinter 0.003 0.097 0.037
pour les trois premières images, les mesures de dis-
Tableau 5 Exemple de mesure de distance entre images à
tance à partir d’histogrammes simples hn (en norme
partir d’histogrammes
L1 , L2 et intersection d’histogramme), et à partir d’his-
togrammes cumulés hc (en norme L1 , L2 ou test Mesures de ressemblance entre ensembles
de Cramer-Von Mises et intersection d’histogramme). de couleurs différents
Chacune des images a été quantifiée en 216 bins1 , la La contrainte des méthodes précédentes est de pouvoir
méthode employée est une quantification régulière. disposer d’une base commune pour la représentation
Les trois images ont donc le même support de repré- des couleurs (même bins). Ce type de base ne peut être
sentation, ce qui autorise dès lors l’utilisation de ces obtenu que par une quantification uniforme. Pour le-
métriques. ver cette contrainte, il est nécessaire d’utiliser des tech-
niques de mesure de distance plus complexes. Ces mé-
thodes prennent en compte la ressemblance d’un bin
couleur avec tous les autres bins couleur dans le calcul
de la distance (figure 26).
1 Un bin correspond à un ensemble de couleurs proche dans l’image initiale et regroupée dans un même classe repré-
pas exploité, une pondération perceptuelle est néces- La distance interpixel est prise au sens de la norme
saire (Hafner et al.,1995 ; Faloutsos et al., 1993). Par L∝ :
exemple MPEG7 utilise un partitionnement irrégulier
Δ
selon la luminance (dans l’espace HSV). |p1 − p2 | = max {|x1 − x2 | , |y1 − y2 |} . (1.24)
Pour une distance d ∈ {1, 2, ...N } fixée à priori, le
A+B+C
wi,j = 1 − corrélogramme de la couleur i par rapport à la couleur
2
j est défini par :
(k) Δ
A= (vi − vj )2 γci ,cj = prob p2 ∈ Acj / |p1 − p2 | = k
p1∈Aci
Avec B= (si cos (hi ) − sj cos (hj ))2
∀k ∈ {1, 2, ...d} (1.25)
C= (si sin (hi ) − sj sin (hj ))2
N L
max
RNθ = Lθ (ci , lj )
ci =1 lj =1
Texture 1 Texture 2
Figure 28 Exemple de texture
Le corrélogramme
Un corrélogramme présente les corrélations spatiales
entre couleurs en fonction de la distance interpixel
(Huang et al., 1997). Pour une image A de N pixels,
quantifiée sur n couleurs {c1 , c2 , . . . .cn }. Chaque pixel
p en (x,y) est doté d’une couleur A(p) : Texture 1 Texture 2
φ1 = η20 + η02
φ2 = (η20 − η02 )2 + 4η11
2
Bibliographie
Berry, F. (2005). Technologies des capteurs d’images couleurs. In Imagerie Numérique Couleur (GFINC), G. F.,
editor, EHINC’05, Lille.
Bonton, P., Fernandez-Maloigne, C., (ouvrage collectif) (2004). Image Numérique Couleur : de l’acquisition au
traitement. Dunod.
Cocquerez, J. et Philipp, S. (1995). Analyses d’images : filtrage et segmentation. Masson, Paris.
Dougherty (1992). An introduction to morphological image processing. SPIE press.
Eshera, M. et Fu, K. (1984). A graph distance measure for image analysis. IEEE transactions on systems, mans
and cybernetics, 14(3) :353–363.
Faloutsos C., M. Flickner, W. Niblack et al. (1993) Efficient and effective querying by image content, IBM, August
1993, RJ 9453 (83074)
Gagalowicz, A. (1983). Vers un modèle de texture. PhD thesis, Université Pierre et Marie Curie, Paris VI.
Gold, S. et Rangarajan, A. (1996). A graduated assignment algorithm for graph matching. IEEE Transactions
on Pattern Analysis and Machine Intelligence, 18(4) :377–388.
Hafner, J., Sawhney, H., et Equitz, W. (1995). Efficient color histogram indexing for quadratic form distance
functions. IEEE Transactions on Pattern Analysis and Machine Intelligence, 17(7) :729–736.
Haralick, R., Shanmugam, K., et Dinstein, I. (1973). Textural feature for image classification. In IEEE Transac-
tions on System Man and Cybernetics, volume 3(6), pages 610–621.
Hu, M. (1962). Visual pattern recognition by invariants moment. In IEEE Transactions on Information Theory,
volume 8, pages 179–187.
Huang, J., Kumar, S. R., Mitra, M., et Zhu, W.-J. (1998). Spatial color indexing and applications. In ICCV,
pages 602–607.
Huang, J., Kumar, S., Mitra, M., Zhu, W., et Zabih, R. (1997). Image indexing using color correlograms. In
IEEE Computer Vision and Pattern Recognition Conference, pages 762–768, San Juan, Puerto Rico.
Puzicha, J., Hofman, T., et Buhman, J. (1997). Non-parametric similarity measures for unsupervised texture
segmentation and image retrieval. In IEEE Conference on Computer Vision and Pattern Recognition, pages 267–272.
Ranganath, H. S. et Chipman, L. J. (1992). Fuzzy relaxation approach for inexact scene matching. In Interna-
tional Conference on Image and Vision Computing (IVC), volume 10, pages 631–640.
Serra, J. (1982). Image Analysis and Mathematical Morphology, volume I. Ac. Press.
Shapiro, L. et Haralick, R. (1981). Structural description and inexact matching. IEEE transactions on systems,
mans and cybernetics, 3(5) :504–519.
Stricker, M. et Orengo, M. (1995). Similarity of color images. In SPIE Conference on Storage and Retrieval for
Image and Video Databases III, pages 381–392.
Zernike, F. (1934). Diffraction theory of the cut procedure and its improved form, the phase contrast method.
Physica, 1 :689–704.