Segmentation d`images couleur 1 Introduction

Transcription

Segmentation d`images couleur 1 Introduction
Segmentation d’images couleur
Ludovic Macaire ½
½
¾
Sylvie Philipp-Foliguet ¾
LAGIS - UMR CNRS 8146 - Cité Scientifique, Bat P2, 59655 Villeneuve d’Ascq cedex - France
ENSEA ETIS - UMR CNRS 8051 - 6, avenue du Ponceau 95014 Cergy Pontoise Cedex France
[email protected],[email protected]
Résumé
La segmentation consiste à partitionner l’image en régions
disjointes avec des couleurs homogènes. Les méthodes
de segmentation d’images couleur peuvent être divisées en
deux familles, selon qu’elles analysent la distribution des
couleurs des pixels dans le plan image ou dans un espace
couleur. La première partie de cet exposé ne décrira pas
toutes les méthodes de segmentation existantes, mais détaillera les méthodes de croissance et de fusion de régions,
ainsi que les méthodes par classification de pixels. La seconde partie de l’exposé sera consacrée à l’évaluation de
la qualité de résultats obtenus par une procédure de segmentation. En l’absence d’une vérité-terrain, il est souvent
difficile d’estimer visuellement la qualité d’une image segmentée. Nous décrirons alors des critères quantitatifs permettant de comparer des résultats de segmentation. Ces
critères tiennent compte d’informations topologiques des
régions reconstruites, des erreurs de classification des pixels et introduisent la notion de multi-échelles pour définir
les niveaux de détail fournis par les méthodes de segmentation testées.
Mots clefs
Segmentation d’images, Evaluation de la qualité.
1 Introduction
La segmentation d’une image couleur consiste à partitionner l’image en régions disjointes. En général, on suppose que les différentes couleurs présentes dans l’image
correspondent principalement aux différentes orientations
et propriétés de réflexion des surfaces des objets observés
ainsi qu’à la présence d’ombres. Les méthodes de segmentation analysent ces couleurs afin de distinguer les
différents objets qui composent une scène observée par
une caméra couleur. Les différences entre les couleurs
présentes dans l’image sont plus ou moins bien mises en
évidence selon le système de représentation de la couleur
utilisé.
Nous divisons les méthodes de segmentation d’images
couleur en deux familles principales, selon l’hypothèse admise sur la formation des régions.
La première suppose que les régions adjacentes représentant des objets différents présentent des discontinuités lo-
cales de leurs couleurs à leurs frontières. Les méthodes
liées à cette approche, dite approche "contours", tentent de
rechercher les pixels contours couleur correspondant aux
variations locales significatives des couleurs des pixels.
La seconde suppose qu’une région est constituée de pixels
connexes partageant des propriétés colorimétriques similaires. Les méthodes relatives à cette approche, dite
approche "régions", recherchent dans l’image des sousensembles de pixels connexes dont les couleurs sont homogènes.
2
Approche "contours"
La détection des pixels contours couleur se définit comme
la recherche de discontinuités locales de la couleur. Cette
recherche s’effectue soit par une analyse d’une seule image
de composante, soit par des analyses conjointes des images de composante, soit par une analyse "vectorielle" de
l’image couleur. Nous nous limitons à la présentation des
méthodes d’extraction des pixels contours couleur fondées
sur la recherche des maxima d’une ou plusieurs normes de
gradients. Le résultat de la détection des pixels contours
couleur est une image binaire constituée des pixels contours et des pixels non contours.
Les méthodes de détection des pixels contours couleur peuvent se diviser en quatre groupes:
les méthodes qui analysent un vecteur gradient calculé à partir d’une seule image de composante. Par
exemple, l’exploitation de l’image de luminance permet d’appliquer les méthodes de détection des pixels
contours dans les images en niveaux de gris. Cette
démarche s’avère satisfaisante quand les niveaux de
luminance des pixels représentant les objets suffisent
à les distinguer.
les méthodes qui fusionnent les images binaires de
contours obtenues par des analyses des images de
composante [1] (voir figure 1(a)).
les méthodes qui exploitent la norme d’un gradient
couleur déterminée à partir des vecteurs gradients calculés dans les images de composante [2] (voir figure 1(b)).
les méthodes qui expriment un vecteur gradient
couleur à partir de vecteurs gradients calculés dans les
images de composante. Les pixels contours couleur
sont détectés par une analyse du vecteur gradient
couleur [3, 4] (voir figure 1(c)).
Pour obtenir une partition de l’image en régions, il est
nécessaire de chaîner les pixels contours afin qu’ils constituent des lignes fermées correspondant aux frontières
des régions [1].
Les méthodes de détection des pixels contours couleur sont
adaptées à la segmentation d’images où les couleurs des
régions sont contrastées. Elles ne fournissent pas toujours des résultats satisfaisants quand les contours des régions sont difficilement perceptibles dans l’image. Par
ailleurs, reconstruire les lignes fermées délimitant les régions à partir des pixels contours couleur détectés reste un
problème délicat. Par conséquent, de nombreux auteurs
préfèrent l’approche "régions" pour segmenter des images
numériques couleur.
3
Approche "régions"
La segmentation d’une image en régions a pour
but de regrouper des pixels connexes ayant des couleurs
similaires, afin de constituer des régions de couleurs homogènes, ces régions étant dans la mesure du possible
liées à un objet ou à une partie d’un objet représenté dans
l’image [5].
Les pixels de chaque région doivent respecter des critères
d’homogénéité et de connexité. L’homogénéité d’une région est définie par un prédicat d’uniformité, noté
. Ce prédicat est vrai si est homogène, faux
dans le cas contraire.
Les régions doivent respecter les quatre conditions suivantes :
,
est constituée de pixels connexes pour tout ,
pour tout ,
pour tout , et étant adjacents dans .
La première condition implique que chaque pixel de
l’image doit appartenir à une région et que l’union de
toutes les régions correspond à l’image entière. La deuxième condition est relative à la structure des régions. Elle
définit une région comme un sous-ensemble de pixels connexes. La troisième condition exprime que chaque région
doit respecter un prédicat d’uniformité. La dernière condition implique la non-réalisation de ce même prédicat pour
toute réunion de deux régions adjacentes.
Le résultat de la segmentation est une image dans laquelle
est attribuée à chaque pixel une étiquette correspondant à
la région à laquelle il appartient.
Les méthodes de reconstruction de régions peuvent se
diviser en deux grandes familles, selon que l’analyse
s’effectue dans le plan image ou dans un espace couleur [6,
7].
3.1 Analyse dans le plan image
Les méthodes de segmentation par analyse spatiale du
plan image regroupent des pixels connexes présentant
des couleurs similaires pour reconstruire les régions de
l’image. Elles représentent l’image sous la forme de structures de données de type tétra-arbre (quadtree) ou de type
graphe d’adjacence de régions.
Les méthodes de division-fusion des régions procèdent
à l’analyse d’un tétra-arbre dont chaque noeud possède
exactement quatre noeuds fils, exceptés les noeuds terminaux [8]. La racine de l’arbre correspond à l’image
entière dont les nombres de lignes et de colonnes doivent
être des puissances de deux (voir figure 2). Chaque noeud
représente un bloc, c’est à dire une zone de l’image de
forme rectangulaire, dont les nombres de lignes et de
colonnes sont également des puissances de deux.
Chaque bloc associé à un noeud du tétra-arbre de la partition initiale est analysé de façon itérative afin de décider s’il doit être divisé en quatre sous-blocs. L’analyse
itérative s’arrête lorsque chaque sous-bloc respecte un
critère d’homogénéité. A ce stade de l’analyse, certains
blocs adjacents dans l’image présentent des caractéristiques colorimétriques identiques. C’est pourquoi ces couples de blocs sont fusionnés. L’analyse s’arrête lorsqu’il
n’existe plus de couple qui respecte le critère de fusion.
L’inconvénient majeur du tétra-arbre réside dans la rigidité du découpage qu’il impose. Il conduit à une partition
globale de l’image qui ne respecte pas toujours la forme
des régions présentes dans l’image.
Les méthodes de croissance de régions [9, 10] et de fusion de régions [11] s’appuient sur l’analyse d’un graphe
d’adjacence de régions. Il s’agit d’un graphe non-orienté
dont chaque noeud représente une région et chaque arête
représente une adjacence entre deux régions. Chaque région peut être constituée initialement d’un pixel dans le
cadre de la croissance de régions, ou d’un sous-ensemble
de pixels connexes quand l’image a été préalablement sursegmentée. La figure 3(b) représente, à titre d’exemple, le
graphe d’adjacence de régions obtenu à partir de l’image
pré-segmentée de la figure 3(a). L’analyse itérative du
graphe consiste à fusionner, à chaque itération, deux
noeuds reliés par une arête à condition qu’ils respectent un
critère de fusion.
Ces méthodes privilégient l’interaction spatiale entre les
pixels, et ne font intervenir les propriétés colorimétriques
des pixels qu’au stade de la décision de fusion ou division
des régions.
Elles se distinguent par leur ordre de parcours des différents noeuds et par les critères de fusion ou de division
utilisés. Certaines méthodes nécessitent le réglage de nombreux seuils et paramètres, tels que ceux requis par les
critères de fusion ou division, et ceux employés par les
critères d’arrêt de l’analyse itérative. L’ajustement de ces
paramètres est délicat, de telle sorte qu’il est difficile de
prévoir si on aboutira à une sous-segmentation ou à une
sur-segmentation de l’image [6].
Ces limites ont conduit de nombreux auteurs à s’intéresser
à l’analyse de la distribution des points-couleur représentant les pixels dans un espace couleur.
3.2 Analyse dans un espace couleur
Les méthodes qui analysent la distribution des pointscouleur dans un espace couleur considèrent que chaque
pixel
est représenté par un point-couleur
dans
l’espace couleur. Les points-couleur peuvent être représentés dans des espaces couleur autres que l’espace .
La performance d’un algorithme de segmentation dépend
alors du choix de l’espace couleur [12]. De nombreux
auteurs ont tenté de déterminer les espaces couleur qui
sont les mieux adaptés à leurs problèmes spécifiques de
segmentation d’images couleur [13]. Malheureusement, il
n’existe pas un espace couleur qui permet d’obtenir des résultats satisfaisants pour la segmentation de tous les types
d’images [14].
Analyse de la distribution couleur. Les méthodes qui
analysent la distribution des points-couleur représentant les
pixels supposent que les régions homogènes de l’image
donnent naissance à des nuages de points-couleur identifiables dans l’espace couleur considéré, chaque nuage
définissant une classe de pixels qui partagent des propriétés
colorimétriques similaires. Ces méthodes recherchent des
groupements de points-couleur dans l’espace couleur considéré afin de construire des classes de pixels. Il s’agit donc
de méthodes de classification automatique.
La figure 4 montre que les points-couleur associés aux régions dont les couleurs sont distinctes forment des nuages
identifiables dans l’espace . Elle montre également le cas, qui n’a rien d’exceptionnel, des deux disques
verts concentriques où les points-couleur associés à ces
deux régions adjacentes donnent naissance à deux nuages
qui se chevauchent dans l’espace , ce qui rend
difficile leur discrimination.
Les classes de pixels sont construites par des méthodes
liées à une approche métrique [15, 16, 17, 18, 19, 20] ou
par des méthodes relatives à une approche statistique [21,
22, 23, 24, 25]. Quand les classes sont construites, chaque
pixel est assigné à l’une d’entre elles par une règle de décision. Les étiquettes des régions sont affectées aux pixels connexes assignés aux mêmes classes afin de construire
l’image segmentée.
Les méthodes liées à une approche métrique déterminent les centres de gravité des classes, notamment en
minimisant des critères permettant d’évaluer la dispersion et la compacité des classes. Ces méthodes donnent
généralement de bons résultats quand les nuages formés
par les points-couleur sont globulaires et bien séparés dans
l’espace couleur. Les pixels sont assignés aux classes en
comparant des distances qui séparent leurs points-couleur
des centres des classes dans l’espace couleur. La plupart de
ces méthodes analysent globalement l’image et nécessitent
soit de connaître au préalable le nombre de classes, soit
si celui-ci est inconnu, de régler finement des paramètres
afin de déterminer le nombre de classes en présence dans
la population des pixels.
Analyse de l’histogramme couleur. Les méthodes relatives à une approche statistique construisent les classes par
une analyse de l’histogramme couleur d’une image .
L’image est associée à une modélisation probabiliste dont
l’histogramme couleur représente l’estimation de la loi de
densité de probabilité d’apparition des couleurs des pixels.
L’histogramme couleur est implanté sous la forme d’une
structure tri-dimensionnelle de cellules repérées par les
trois coordonnées des points-couleur considérés. Chaque
cellule associée au point-couleur indique le nombre de pixels dans l’image caractérisés par ce point-couleur
divisé par la taille de l’image, notée .
Son analyse permet de mettre en évidence des domaines
de l’espace dits "modaux", à savoir des zones de fortes
concentrations de points-couleur. Ces domaines sont séparés par des "vallées", caractérisées par de faibles concentrations de points-couleur. Ces méthodes supposent
que chaque domaine modal définit une classe de pixels.
Ainsi, la construction des classes revient à détecter les domaines modaux de l’espace couleur. Ces méthodes sont
adaptées aux cas où les classes de pixels sont relativement équiprobables. Par conséquent, comme les régions
de petite taille sont peu représentées par les cellules de
l’histogramme couleur, les modes auxquels elles donnent
naissance risquent de ne pas être détectés par une analyse
de l’histogramme couleur (voir figure 5).
Comme l’histogramme couleur est une structure très encombrante en termes de place mémoire, une solution consiste à projeter l’histogramme couleur sur les trois composantes afin de constituer les trois histogrammes monodimensionnels des images de composante , . Dans ce cas, les domaines modaux de l’espace
sont supposés être des parallélépipèdes rectangles, dont
les projections sur les composantes couleur constituent des
intervalles modaux. Les intervalles modaux sur chaque
composante sont détectés par une recherche des pics de
l’histogramme mono-dimensionnel correspondant.
Un pic d’un histogramme mono-dimensionnel peut contenir les niveaux des pixels provenant de plusieurs régions
différentes de l’image (voir figure 6). Les pixels de chaque
région doivent être regroupés en une classe spécifique de
pixels, définie par un domaine modal de l’espace couleur.
Par conséquent, les méthodes de détection des domaines
modaux traitent le cas où un intervalle représentant un pic
d’un histogramme mono-dimensionnel contient les intervalles modaux de plusieurs domaines modaux.
Lorsque sont retrouvés les intervalles représentant les
pics de chaque histogramme mono-dimensionnel, l’espace
couleur est alors partitionné en parallélépipèdes rectangles
grâce au produit cartésien de ces intervalles. Une analyse
de la population des pixels dont les points-couleur se trou-
vent dans ces parallélépipèdes permet d’identifier les domaines modaux de l’espace couleur (voir figure 7).
L’approche par classification de pixels est efficace lorsque
les nuages de points-couleur représentatifs des régions sont
bien séparés dans l’espace couleur. C’est généralement le
cas lorsque les images sont constituées d’un faible nombre
de régions ayant des couleurs bien différenciées. Cependant, pour certaines images, le nombre de régions est élevé
et leurs couleurs sont proches les unes des autres. Les nuages de points se chevauchent alors dans l’espace couleur,
ce qui limite les performances de ces méthodes de classification automatique.
Par ailleurs, nous pouvons reprocher aux méthodes de classification de privilégier les propriétés colorimétriques des
pixels par rapport à leurs propriétés spatiales. En effet,
elles ne sont pas prises en compte assez tôt dans le processus de segmentation et n’interviennent que dans un deuxième temps afin de reconstruire les régions en recherchant
des sous-ensembles de pixels connexes appartenant aux
mêmes classes. Ainsi, lors de la classification, le contexte
spatial est négligé et des nuages de points-couleur dans
l’espace couleur peuvent ne pas correspondre à des régions
significatives dans l’image analysée.
Classification spatio-colorimétrique. La prise en
compte simultanée des propriétés colorimétriques des
pixels et de l’arrangement spatial dans l’image des pixels
ayant des couleurs similaires constitue donc une démarche
naturelle pour construire les classes de pixels de telle
sorte qu’elles correspondent effectivement aux régions de
l’image.
Pourtant, peu de travaux introduisent l’information
spatiale locale dès le début de la classification
[7]. Parmi ceux-ci, les méthodes de construction des
classes proposées par Orchard, Balasubramanian minimisent la somme des distances euclidiennes entre les
points-couleur représentant les pixels et les centres
des classes auxquelles ils sont assignés, pondérées par
une fonction qui dépend de la norme d’un gradient
couleur [26, 27]. Les auteurs supposent que plus les
couleurs d’une région constituée de pixels connexes
assignés à une même classe sont homogènes, plus le poids
de la distance associée à cette classe est faible.
Deng et Manjunath contournent le problème de la construction des classes en divisant le processus de segmentation en deux étapes successives. La quantification des
couleurs servant exclusivement à l’analyse des propriétés
colorimétriques des pixels est suivie d’une analyse spatiale
de l’image [28]. L’originalité de cette approche appelée
JSEG, concerne principalement l’analyse spatiale basée sur
un nouveau critère utilisé pour juger la qualité d’une segmentation.
Cheng et al.
proposent d’analyser une mesure
d’homogénéité des niveaux de chaque composante couleur
pour construire les classes de pixels de chacune des trois
images de composante [29, 30]. Cette procédure néglige le
caractère multi-dimensionnel de l’information couleur et
fournit souvent des images sur-segmentées. Les régions
doivent alors être fusionnées à l’aide de l’analyse d’un
graphe d’adjacence de régions. Cette approche très intéressante est sensible à l’ajustement des nombreux paramètres
dont dépend le résultat.
Comaniciu et Meer proposent de construire les classes
de pixels par détection des modes dans l’espace couleur
[31]. Cette détection est basée sur la méthode du "MeanShift" qui analyse l’estimation du gradient de la densité de
probabilité d’apparition des couleurs dans l’image. Cette
estimation est effectuée conjointement dans des domaines
spatiaux et colorimétriques afin de déterminer des classes
qui correspondent effectivement aux régions. La qualité de
la construction des classes de pixels dépend des tailles des
domaines utilisés.
3.3 Méthodes de croissance de régions et de
fusion de régions
Ces méthodes structurent l’image en régions qui vont
évoluer soit par agglomération des pixels aux régions, soit
en fusionnant les régions.
La croissance de régions agglomère des pixels aux régions
en respectant des critères d’homogénéité en couleur et de
forme [32] .
Les méthodes de fusion de régions partent d’une sursegmentation obtenue par exemple par ligne de partage des
eaux et affinent cette segmentation. Le problème est de
définir un critère de fusion et un ordre dans les fusions. La
méthode par ligne de partage des eaux se calcule sur une
image des normes de gradient couleur (voir §2).
Segmentation multi-échelle. Le principe proposé par L.
Guigues [33] est de fusionner les régions 2 à 2, en choisissant le couple qui minimise une énergie globale. On arrête
quand on a tout fusionné et on conserve toute la hiérarchie
des couples fusionnés.
L’énergie est la somme de deux termes : une énergie interne d’attache aux données et une énergie sur les frontières. L’échelle est définie par le paramètre de pondération
entre les deux termes (cf. Eq.1).
(1)
Différents modèles sont possilbles pour l’énergie interne et
celles des frontières.
Pour l’énergie interne, la plus basique est celle qui suppose les régions constantes, elle a été initialement proposée par Mumford et Shah [34]. On peut également
modéliser l’énergie de chaque région par une gaussienne.
Pour l’énergie des frontières, Mumford et Shah utilisent la
longueur totale des frontières entre régions.
Soit une région comportant pixels notés et soit la matrice de variance/covariance des .
Dans le cas d’une énergie constante sur chaque région
(égale à , la distance en norme s’écrit : trace Si on utilise un modèle gaussien de dimension 3 (pour
chacune des trois composantes couleur), l’énergie s’écrit
:
où les sont les
Critère d’uniformité intra-région de Levine et Nazif
[37]
Ce critère simple est la somme des variances des régions.
valeurs propres de .
D’autres formes d’énergie interne peuvent également être
employées : , ou
En ce qui concerne l’énergie des frontières, elle est calculée comme la somme sur toutes les régions d’une énergie
qui peut être simplement la longueur du contour. Guigues
a proposé d’autres énergies, calculées sur une approximation polygonale du contour telles que le nombre de côtés du
polygone, la concavité (somme des modules des angles) ou
la cohérence des directions des côtés adjacents. Il a également proposé de prendre en compte le gradient le long des
frontières.
Segmentation floue. Cette méthode conduit à une segmentation grossière en régions modélisées par des ensembles
flous[35]. Le but est d’extraire des zones de même couleur,
qui peuvent se chevaucher et dont les contours sont imprécis.
L’algorithme démarre sur une segmentation obtenue par
ligne de partage des eaux. Les points de normes du gradient
couleur minimales constituent les germes des régions. Les
lignes de fort gradient seront considérées comme des barrages, difficiles à franchir. Puis les degrés d’appartenance
aux régions sont calculés sur un double critère de proximité spatiale et de différence de gradient avec les germes des
régions. Les régions floues se calent ainsi sur les zones de
fort gradient, mais elles peuvent contourner un bruit impulsionnel. Quand il n’y a pas de gradient couleur franc,
les régions s’étalent et plusieurs régions peuvent ainsi se
chevaucher.
4 Evaluation quantitative d’une segmentation
On trouvera dans [36] un catalogue des critères quantitatifs permettant de comparer des résultats de segmentation,
qu’ils soient sous forme de contours ou de régions. Nous
nous focaliserons sur l’évaluation des résultats de segmentation en régions, quand on ne dispose pas de segmentation
de référence (ou vérité-terrain).
De nombreux critères ont été proposés, cherchant à quantifier la qualité ou la lisibilité de l’image
Ces critères recherchent l’uniformité en intensité ou en
couleur à l’intérieur des régions, un grand contraste entre les régions. Le niveau de résolution est mesuré par le
nombre de régions ou leur taille. Tous le critères définis
ci-dessous doivent donc être faibles.
Soit une image segmentée en régions notées . est le nombre de pixels de la région et le
nombre total de pixels de l’image .
Mesure de dissimilarité de Liu et Yang [38]
Ce critère est basé sur le nombre de régions, l’aire des régions et la couleur moyenne, dans l’espace RGB :
(2)
où est la somme des distances euclidiennes entre les
vecteurs couleur des pixels de la région et le vecteur
couleur attribué à la région dans l’image segmentée (en
général la moyenne des couleurs de la région).
Le terme pénalise la sur-segmentation, ainsi que les
aires des régions au dénominateur. Il est assez proche de
celui de Levine et Nazif, le calcul des écarts à la moyenne
est légèrement différent, ainsi que la normalisation, mais
l’idée générale reste la même.
Critère de Borsotti [39]
La mesure de dissimilarité de Liu et Yang pénalise les segmentations contenant trop de régions ou avec des régions
non homogènes en couleur.
Borsotti ! " ont proposé de l’améliorer par :
(3)
où est le nombre de régions ayant une aire égale à
Le premier terme de la somme favorise les régions homogènes, comme le critère de Liu et Yang. Le deuxième
terme a une valeur élevée quand il y a beaucoup de petites régions, ce qui pénalise les images sur-segmentées en
beaucoup de régions de même taille.
D’après les auteurs [39], ce critère a fourni sur 500 images
un classement des segmentations plus conformes à notre
appréciation visuelle que le critères de Liu et Yang.
Remarque : La distance euclidienne employée dans les
critères de Liu et Yang et de Borsotti peut être remplacée
par une distance .
Critères énergétiques de Guigues
Les énergies employées par Guigues comme critères de fusion 3.3 peuvent également être utilisées comme critères
d’évaluation, en fonction de la résolution recherchée par
l’utilisateur.
C’est ainsi que la famille d’énergies (cf Eq 1) pour les
énergies internes , , etc. définies ci-dessus fournissent
d’excellents critères. On notera que l’énergie interne est
égale au terme des Eq 3 et 2.
En ce qui concerne l’énergie des frontières, on prendra simplement la somme des longueurs des frontières des régions.
Le critère s’écrit :
#
$
(4)
$ % pour l’énergie et $ % pour l’énergie $ pour l’énergie (5)
Dans le cas où l’on prend pour énergie interne, l’énergie
globale n’est autre que celle de Mumford et Shah. Des
tests sur différentes images ont montré que c’est elle qui
ordonne les images résultats de la manière la plus conforme
à un classement visuel.
5 Evaluation quantitative de la qualité d’une image segmentée
Comme il est difficile d’estimer visuellement la qualité de
résultats d’une procédure de segmentation, nous proposons
d’utiliser des critères quantitatifs [40]. En l’absence d’une
”vérité-terrain” (segmentation de référence), il existe assez
peu de critères quantitatifs permettant de comparer des résultats de segmentation [36].
Le premier critère utilisé, noté , est le nombre de régions reconstruites constituant l’image segmentée. Le second critère, noté , est la moyenne des carrés des distances euclidiennes séparant les points-couleur représentant les pixels des centres des classes auxquelles ils ont été
assignés. Comme ce critère, nommé écart quadratique, reflète la compacité des classes, il constitue l’un des critères
les plus utilisés pour évaluer la qualité des résultats des
procédures de classification. Cependant, ce critère souffre d’un gros inconvénient pour l’évaluation de la qualité
des résultats de segmentation car il ne tient pas compte des
propriétés spatiales des régions reconstruites.
Aussi, nous proposons d’utiliser également le critère proposé par Borsotti, noté , qui est spécifiquement conçu
pour l’évaluation de la qualité des résultats de segmentation d’images couleur et qui s’exprime de la manière suivante [39]:
A
(6)
où
indique la taille de l’image,
correspond au nombre de régions reconstruites de
l’image segmentée,
où est un paramètre d’échelle. C’est de lui que dépend le
niveau de détail de la segmentation.
Les coefficients $ et sont des coefficients de normalisation. Pour des images codées sur % valeurs par composante, % est un majorant des valeurs de variance et de
covariance. Par conséquent :
est la surface de la région reconstruite ,
est le nombre de régions reconstruites de surface ,
& est la surface de la plus grande région reconstruite de l’image segmentée,
est la somme des carrés des distances euclidiennes
séparant le point-couleur représentant chaque pixel de
du centre des points-couleur représentatifs des pixels de . Cette valeur est également d’autant plus
élevée que les régions sont petites.
Plus la valeur du critère est faible et plus le résultat de la
segmentation est considéré comme étant satisfaisant.
Ce critère est le produit de trois termes :
est un coefficient de normalisation nécessaire
pour s’affranchir de la taille de l’image analysée,
permet de pénaliser les images sur-segmentées,
la somme se décompose en deux termes. Le premièr
prend une valeur élevée soit lorsque les régions reconstruites sont constituées de pixels dont les couleurs
ne sont pas homogènes, soit lorsque le nombre de
petites régions reconstruites est élevé. Le deuxième
prend une valeur élevée lorsqu’il y a beaucoup de régions reconstruites de mêmes surfaces. Il est d’autre
part d’autant plus élevé que les régions reconstruites
sont petites, comme c’est le cas dans une image sursegmentée.
References
[1] J. P. Cocquerez et S. Phillip-Foliguet. Analyse
d’images : filtrage et segmentation. Masson, 1990.
[2] P. Lambert et T. Carron.
Symbolic fusion of
luminance-hue-chroma features for region segmentation. Pattern Recognition, 32(11):1857–1872, 1999.
[3] S. Di Zenzo. A note on the gradient of multi-image.
Computer Vision Graphics and Image Processing,
33:116–125, 1986.
[4] H. C. Lee et D. Cok. Detection boundaries in a vector
field. IEEE Trans. on Signal Processing, 39(5), 1991.
[5] S. Zucker. Region growing : childhood and adolescence. Computer Vision Graphics and Image Processing, 5:382–399, 1976.
[6] P. Lambert et L. Macaire. Filtering and segmentation :
the specificity of color images (keynote). Dans Proc.
of the Int. Conf. on Color in Graphics and Image Processing, volume 1, pages 57–64, Saint-Etienne, 2000.
[7] H. D. Cheng, X. H. Jiang, Y Sun, et J. Wang. Color
image segmentation: advances and prospects. Pattern
Recognition, 34(12):2259–2281, 2001.
[21] Y. I. Ohta, T. Kanade, et T. Sakai. Color information
for region segmentation. Computer Graphics and Image Processing, 13:222–241, 1980.
[8] V. Coutance. La couleur en vision par ordinateur.
Application à la robotique. Thèse de doctorat, Université Paul Sabatier de Toulouse, janvier 1991.
[22] S. Tominaga. Color classification of natural color images. Color Research and Application, 17(4):230–
239, 1992.
[9] A. Trémeau et N. Borel. A region growing and merging algorithm to color segmentation. Pattern Recognition, 30(7):1191–1203, 1997.
[23] L. Shafarenko, M. Petrou, et J. V. Kittler. Histogram
based segmentation in a perceptually uniform color
space. IEEE Trans. on Image Processing, 7(9):1354–
1358, 1998.
[10] L. Shafarenko et M. Petrou. Automatic watershed
segmentation of randomly textured color images.
IEEE Trans. on Image Processing, 6(11):1530–1543,
1997.
[11] A. Trémeau et P. Colantoni. Region adjacency graph
applied to color image segmentation. IEEE Trans. on
Image Processing, 9(4):735–744, 2000.
[12] N. Vandenbroucke, L. Macaire, et J. G. Postaire.
Color image segmentation by pixel classification in
an adapted hybrid color space. Application to soccer
image analysis. Computer Vision and Image Understanding, 90(2):190–216, 2003.
[13] J. H. Lee, B. H. Chang, et S. D. Kim. Comparison of
colour transformations for image segmentation. Electronics Letters, 30(20):1660–1661, 1994.
[14] N. Vandenbroucke, L. Macaire, et J. G. Postaire.
Color pixels classification in an hybrid color space.
Dans Proc. of the IEEE Int. Conf. on Image Processing, volume 1, pages 176–180, Chicago (USA), 1998.
[15] M. A. Ismail et M. S. Kamel. Multidimensional data
clustering utilizing hybrid search strategies. Pattern
Recognition, 22(1):75–89, 1989.
[16] K. Takahashi, H. Nakatani, et K. Abe. Color image
segmentation using isodata clustering method. Dans
Proc. of the Asian Conf. on Computer Vision, volume 1, pages 523–527, Singapore, 1995.
[17] T. Uchiyama et M. A. Arbib.
Color image
segmentation using competitive learning.
IEEE
Trans. on Pattern Analysis and Machine Intelligence,
16(12):1197–1206, 1994.
[18] P. Scheunders. A genetic c-means clustering algorithm applied to color image quantization. Pattern
Recognition, 30(6):859–866, 1997.
[24] S. H. Park, I. D. Yun, et S. U. Lee. Color image segmentation based on 3D clustering: morphological approach. Pattern Recognition, 31(8):1061–1076, 1998.
[25] A. Gillet, L. Macaire, C. Botte-Lecocq, et J. G.
Postaire. chapitre "Color image segmentation by
analysis of 3D histogram with fuzzy morphological filters", pages 154–177. Springer-Verlag Editor,
2002.
[26] M. T. Orchard et C. A. Bouman. Color quantization of images. IEEE Trans. on Signal Processing,
39(12):2677–2690, 1991.
[27] R. Balasubramanian, J. P. Allebach, et C. A. Bouman.
Color-image quantization with use of a fast binary
splitting technique. Journal of Optical Society of
America, 11(11):2777–2786, 1994.
[28] Y. Deng, , et B.S. Manjunath. Unsupervised segmentation of color-texture regions in images and video.
IEEE Trans. on Pattern Analysis and Machine Intelligence, 23(8):800–810, 2001.
[29] H. D. Cheng, X.H. Jiang, et J. Wang. Color image
segmentation based on homogram thresholding and
region merging. Pattern Recognition, 35(2):373–393,
2002.
[30] H. D. Cheng et J. Li. Fuzzy homogeneity and scalespace approach to color image segmentation. Pattern
Recognition, 36(2):1545–1562, 2003.
[31] D. Comaniciu et P. Meer. Mean shift: a robust approach toward feature space analysis. IEEE
Trans. on Pattern Analysis and Machine Intelligence,
24(5):603–619, 2002.
[19] T.D. Pham et H. Yan. Color image segmentation using fuzzy integral and mountain clustering. Fuzzy
Sets and Systems, 107(2):121–130, 1999.
[32] J.M. Chassery et C. Garbay. An iterative segmentation method based on a contextual color and shape
criterion. IEEE Trans. on Pattern Analysis and Machine Intelligence, 6(6):794–800, 1984.
[20] T.Q. Chen et Y. Lu. Color image segmentation: an innovative approach. Pattern Recognition, 35(2):395–
405, 2002.
[33] L. Guigues. Modèles multi-échelles pour la segmentation d’images. Thèse de doctorat, Université de
Cergy-Pontoise, 2003.
[34] D. Mumford et J. Shah. Optimal approximations by
piecewise smooth functions and asociated variational
problems. Comm. Pure Appl. Math., 42:577–685,
1989.
[35] M. Sanfourche S. Philipp-Foliguet, M. B. Vieira.
Fuzzy segmentation of color images and indexing of
fuzzy regions. Dans First Europ. conf. on Colour
in Graphics, Imaging and Vision, pages 507–512,
Poitiers, France, 2002.
[36] S. Philipp-Foliguet. Evaluation de méthodes de segmentation d’images couleur. Dans Actes de l’Ecole de
printemps du GDR ISIS Operation Imagerie Couleur,
Pau, avril 2001.
[37] M.D. Levine et A.M. Nazif. Dynamic measurement
of computer generated image segmentations. IEEE
Trans. on PAMI, 7(25):155–164, 1985.
[38] J. Liu et Y.-H. Yang. Multiresolution color image segmentation. IEEE Trans. on Pattern Analysis and Machine Intelligence, 16(7):689–700, 1994.
[39] M. Borsotti, P. Campadelli, et R. Schettini. Quantitative evaluation of color image segmentation results.
Pattern Recognition Letters, 19(8):741–747, 1998.
[40] Y.J. Zhang. A survey of evaluation methods for image segmentation. Pattern Recognition, 29(8):1335–
1346, 1996.
Évaluation
gradient
Vecteur
gradient R
Détection
des
contours
Image
binaire des
contours R
Évaluation
gradient
Vecteur
gradient G
Détection
des
contours
Image
binaire des
contours G
Évaluation
gradient
Vecteur
gradient B
Détection
des
contours
Image
binaire des
contours B
Fusion des
images des
contours
Image
binaire
des
contours
Images de
composante
(a)
Évaluation
gradient
Vecteur
gradient R
Évaluation
gradient
Vecteur
gradient G
Évaluation
gradient
Vecteur
gradient B
Évaluation
de la norme
d’un gradient
couleur
Norme
gradient
couleur
Détection
des contours
Image
binaire
des
contours
Images de
composante
(b)
Évaluation
gradient
Vecteur
gradient R
Évaluation
gradient
Vecteur
gradient G
Évaluation
gradient
Vecteur
gradient B
Évaluation
d’un gradient
vectoriel
couleur
Vecteur
gradient
couleur
Détection
des contours
Image
binaire
des
contours
Images de
composante
(c)
Figure 1 – Différentes stratégies pour la détection des pixels contours couleur. (a) Analyse des images binaires de contours
pour la détection des pixels contours couleur. (b) Analyse de la norme d’un gradient couleur pour la détection des pixels
contours couleur. (c) Analyse d’un gradient vectoriel couleur pour la détection des pixels contours couleur.
0
0
1
2
3
2
1.1 1.2 1.3 1.4
2.1 2.2 2.3 2.4
3
4
4
1.1
1.3
3.1
3.3
1
1.2
3.4
2.3
1.4
3.2
2.1
4.1
4.3
2.2
2.4
4.2
3.1 3.2 3.3 3.4 4.1 4.2 4.3 4.4
4.4
Figure 2 – Structure pyramidale du tétra-arbre.
(a)
(b)
Figure 3 – Graphe d’adjacence de régions.
255
R
191
127
63
255
191
R
R
4
G
R
R
5
R
R
1
R
R
2
127
R
R
6
63
R
R
3
63
127
B
191
255
(a)
(b)
Figure 4 – Régions homogènes de l’image et nuages de points-couleur dans l’espace couleur.
Occurrences
Figure 5 – Histogramme couleur de l’image de la figure 4(a) qui ne tient compte que des niveaux des composantes et des pixels. Les petites régions de l’image sont sous-représentées par comparaison aux grandes régions de l’image.
4000
4000
3500
3500
3500
3000
3000
3000
1500
1000
500
32
64
96
128
(a) .
160
192
224
2000
500
0
0
1500
1000
255
2000
1500
2500
,
2000
0
0
2500
2500
32
64
96
(b)
128
160
192
4000
1000
224
500
255
0
0
32
64
96
128
160
192
224
(c)
Figure 6 – Histogrammes mono-dimensionnels des images de composante issues de l’image couleur de la figure 4(a).
255
4000
3500
3000
2500
2000
1500
1000
0
0
32
64
96
128
160
192
224
0
0
500
1000
255
G
128
96
255
224
192
160
64
32
1500
2000
2500
3000
3500
4000
500
B
Figure 7 – Détection des domaines modaux du plan chromatique par analyse des histogrammes mono-dimensionnels
des images de composante et de l’image de la figure 4(a).