Segmentation d`images couleur 1 Introduction
Transcription
Segmentation d`images couleur 1 Introduction
Segmentation d’images couleur Ludovic Macaire ½ ½ ¾ Sylvie Philipp-Foliguet ¾ LAGIS - UMR CNRS 8146 - Cité Scientifique, Bat P2, 59655 Villeneuve d’Ascq cedex - France ENSEA ETIS - UMR CNRS 8051 - 6, avenue du Ponceau 95014 Cergy Pontoise Cedex France [email protected],[email protected] Résumé La segmentation consiste à partitionner l’image en régions disjointes avec des couleurs homogènes. Les méthodes de segmentation d’images couleur peuvent être divisées en deux familles, selon qu’elles analysent la distribution des couleurs des pixels dans le plan image ou dans un espace couleur. La première partie de cet exposé ne décrira pas toutes les méthodes de segmentation existantes, mais détaillera les méthodes de croissance et de fusion de régions, ainsi que les méthodes par classification de pixels. La seconde partie de l’exposé sera consacrée à l’évaluation de la qualité de résultats obtenus par une procédure de segmentation. En l’absence d’une vérité-terrain, il est souvent difficile d’estimer visuellement la qualité d’une image segmentée. Nous décrirons alors des critères quantitatifs permettant de comparer des résultats de segmentation. Ces critères tiennent compte d’informations topologiques des régions reconstruites, des erreurs de classification des pixels et introduisent la notion de multi-échelles pour définir les niveaux de détail fournis par les méthodes de segmentation testées. Mots clefs Segmentation d’images, Evaluation de la qualité. 1 Introduction La segmentation d’une image couleur consiste à partitionner l’image en régions disjointes. En général, on suppose que les différentes couleurs présentes dans l’image correspondent principalement aux différentes orientations et propriétés de réflexion des surfaces des objets observés ainsi qu’à la présence d’ombres. Les méthodes de segmentation analysent ces couleurs afin de distinguer les différents objets qui composent une scène observée par une caméra couleur. Les différences entre les couleurs présentes dans l’image sont plus ou moins bien mises en évidence selon le système de représentation de la couleur utilisé. Nous divisons les méthodes de segmentation d’images couleur en deux familles principales, selon l’hypothèse admise sur la formation des régions. La première suppose que les régions adjacentes représentant des objets différents présentent des discontinuités lo- cales de leurs couleurs à leurs frontières. Les méthodes liées à cette approche, dite approche "contours", tentent de rechercher les pixels contours couleur correspondant aux variations locales significatives des couleurs des pixels. La seconde suppose qu’une région est constituée de pixels connexes partageant des propriétés colorimétriques similaires. Les méthodes relatives à cette approche, dite approche "régions", recherchent dans l’image des sousensembles de pixels connexes dont les couleurs sont homogènes. 2 Approche "contours" La détection des pixels contours couleur se définit comme la recherche de discontinuités locales de la couleur. Cette recherche s’effectue soit par une analyse d’une seule image de composante, soit par des analyses conjointes des images de composante, soit par une analyse "vectorielle" de l’image couleur. Nous nous limitons à la présentation des méthodes d’extraction des pixels contours couleur fondées sur la recherche des maxima d’une ou plusieurs normes de gradients. Le résultat de la détection des pixels contours couleur est une image binaire constituée des pixels contours et des pixels non contours. Les méthodes de détection des pixels contours couleur peuvent se diviser en quatre groupes: les méthodes qui analysent un vecteur gradient calculé à partir d’une seule image de composante. Par exemple, l’exploitation de l’image de luminance permet d’appliquer les méthodes de détection des pixels contours dans les images en niveaux de gris. Cette démarche s’avère satisfaisante quand les niveaux de luminance des pixels représentant les objets suffisent à les distinguer. les méthodes qui fusionnent les images binaires de contours obtenues par des analyses des images de composante [1] (voir figure 1(a)). les méthodes qui exploitent la norme d’un gradient couleur déterminée à partir des vecteurs gradients calculés dans les images de composante [2] (voir figure 1(b)). les méthodes qui expriment un vecteur gradient couleur à partir de vecteurs gradients calculés dans les images de composante. Les pixels contours couleur sont détectés par une analyse du vecteur gradient couleur [3, 4] (voir figure 1(c)). Pour obtenir une partition de l’image en régions, il est nécessaire de chaîner les pixels contours afin qu’ils constituent des lignes fermées correspondant aux frontières des régions [1]. Les méthodes de détection des pixels contours couleur sont adaptées à la segmentation d’images où les couleurs des régions sont contrastées. Elles ne fournissent pas toujours des résultats satisfaisants quand les contours des régions sont difficilement perceptibles dans l’image. Par ailleurs, reconstruire les lignes fermées délimitant les régions à partir des pixels contours couleur détectés reste un problème délicat. Par conséquent, de nombreux auteurs préfèrent l’approche "régions" pour segmenter des images numériques couleur. 3 Approche "régions" La segmentation d’une image en régions a pour but de regrouper des pixels connexes ayant des couleurs similaires, afin de constituer des régions de couleurs homogènes, ces régions étant dans la mesure du possible liées à un objet ou à une partie d’un objet représenté dans l’image [5]. Les pixels de chaque région doivent respecter des critères d’homogénéité et de connexité. L’homogénéité d’une région est définie par un prédicat d’uniformité, noté . Ce prédicat est vrai si est homogène, faux dans le cas contraire. Les régions doivent respecter les quatre conditions suivantes : , est constituée de pixels connexes pour tout , pour tout , pour tout , et étant adjacents dans . La première condition implique que chaque pixel de l’image doit appartenir à une région et que l’union de toutes les régions correspond à l’image entière. La deuxième condition est relative à la structure des régions. Elle définit une région comme un sous-ensemble de pixels connexes. La troisième condition exprime que chaque région doit respecter un prédicat d’uniformité. La dernière condition implique la non-réalisation de ce même prédicat pour toute réunion de deux régions adjacentes. Le résultat de la segmentation est une image dans laquelle est attribuée à chaque pixel une étiquette correspondant à la région à laquelle il appartient. Les méthodes de reconstruction de régions peuvent se diviser en deux grandes familles, selon que l’analyse s’effectue dans le plan image ou dans un espace couleur [6, 7]. 3.1 Analyse dans le plan image Les méthodes de segmentation par analyse spatiale du plan image regroupent des pixels connexes présentant des couleurs similaires pour reconstruire les régions de l’image. Elles représentent l’image sous la forme de structures de données de type tétra-arbre (quadtree) ou de type graphe d’adjacence de régions. Les méthodes de division-fusion des régions procèdent à l’analyse d’un tétra-arbre dont chaque noeud possède exactement quatre noeuds fils, exceptés les noeuds terminaux [8]. La racine de l’arbre correspond à l’image entière dont les nombres de lignes et de colonnes doivent être des puissances de deux (voir figure 2). Chaque noeud représente un bloc, c’est à dire une zone de l’image de forme rectangulaire, dont les nombres de lignes et de colonnes sont également des puissances de deux. Chaque bloc associé à un noeud du tétra-arbre de la partition initiale est analysé de façon itérative afin de décider s’il doit être divisé en quatre sous-blocs. L’analyse itérative s’arrête lorsque chaque sous-bloc respecte un critère d’homogénéité. A ce stade de l’analyse, certains blocs adjacents dans l’image présentent des caractéristiques colorimétriques identiques. C’est pourquoi ces couples de blocs sont fusionnés. L’analyse s’arrête lorsqu’il n’existe plus de couple qui respecte le critère de fusion. L’inconvénient majeur du tétra-arbre réside dans la rigidité du découpage qu’il impose. Il conduit à une partition globale de l’image qui ne respecte pas toujours la forme des régions présentes dans l’image. Les méthodes de croissance de régions [9, 10] et de fusion de régions [11] s’appuient sur l’analyse d’un graphe d’adjacence de régions. Il s’agit d’un graphe non-orienté dont chaque noeud représente une région et chaque arête représente une adjacence entre deux régions. Chaque région peut être constituée initialement d’un pixel dans le cadre de la croissance de régions, ou d’un sous-ensemble de pixels connexes quand l’image a été préalablement sursegmentée. La figure 3(b) représente, à titre d’exemple, le graphe d’adjacence de régions obtenu à partir de l’image pré-segmentée de la figure 3(a). L’analyse itérative du graphe consiste à fusionner, à chaque itération, deux noeuds reliés par une arête à condition qu’ils respectent un critère de fusion. Ces méthodes privilégient l’interaction spatiale entre les pixels, et ne font intervenir les propriétés colorimétriques des pixels qu’au stade de la décision de fusion ou division des régions. Elles se distinguent par leur ordre de parcours des différents noeuds et par les critères de fusion ou de division utilisés. Certaines méthodes nécessitent le réglage de nombreux seuils et paramètres, tels que ceux requis par les critères de fusion ou division, et ceux employés par les critères d’arrêt de l’analyse itérative. L’ajustement de ces paramètres est délicat, de telle sorte qu’il est difficile de prévoir si on aboutira à une sous-segmentation ou à une sur-segmentation de l’image [6]. Ces limites ont conduit de nombreux auteurs à s’intéresser à l’analyse de la distribution des points-couleur représentant les pixels dans un espace couleur. 3.2 Analyse dans un espace couleur Les méthodes qui analysent la distribution des pointscouleur dans un espace couleur considèrent que chaque pixel est représenté par un point-couleur dans l’espace couleur. Les points-couleur peuvent être représentés dans des espaces couleur autres que l’espace . La performance d’un algorithme de segmentation dépend alors du choix de l’espace couleur [12]. De nombreux auteurs ont tenté de déterminer les espaces couleur qui sont les mieux adaptés à leurs problèmes spécifiques de segmentation d’images couleur [13]. Malheureusement, il n’existe pas un espace couleur qui permet d’obtenir des résultats satisfaisants pour la segmentation de tous les types d’images [14]. Analyse de la distribution couleur. Les méthodes qui analysent la distribution des points-couleur représentant les pixels supposent que les régions homogènes de l’image donnent naissance à des nuages de points-couleur identifiables dans l’espace couleur considéré, chaque nuage définissant une classe de pixels qui partagent des propriétés colorimétriques similaires. Ces méthodes recherchent des groupements de points-couleur dans l’espace couleur considéré afin de construire des classes de pixels. Il s’agit donc de méthodes de classification automatique. La figure 4 montre que les points-couleur associés aux régions dont les couleurs sont distinctes forment des nuages identifiables dans l’espace . Elle montre également le cas, qui n’a rien d’exceptionnel, des deux disques verts concentriques où les points-couleur associés à ces deux régions adjacentes donnent naissance à deux nuages qui se chevauchent dans l’espace , ce qui rend difficile leur discrimination. Les classes de pixels sont construites par des méthodes liées à une approche métrique [15, 16, 17, 18, 19, 20] ou par des méthodes relatives à une approche statistique [21, 22, 23, 24, 25]. Quand les classes sont construites, chaque pixel est assigné à l’une d’entre elles par une règle de décision. Les étiquettes des régions sont affectées aux pixels connexes assignés aux mêmes classes afin de construire l’image segmentée. Les méthodes liées à une approche métrique déterminent les centres de gravité des classes, notamment en minimisant des critères permettant d’évaluer la dispersion et la compacité des classes. Ces méthodes donnent généralement de bons résultats quand les nuages formés par les points-couleur sont globulaires et bien séparés dans l’espace couleur. Les pixels sont assignés aux classes en comparant des distances qui séparent leurs points-couleur des centres des classes dans l’espace couleur. La plupart de ces méthodes analysent globalement l’image et nécessitent soit de connaître au préalable le nombre de classes, soit si celui-ci est inconnu, de régler finement des paramètres afin de déterminer le nombre de classes en présence dans la population des pixels. Analyse de l’histogramme couleur. Les méthodes relatives à une approche statistique construisent les classes par une analyse de l’histogramme couleur d’une image . L’image est associée à une modélisation probabiliste dont l’histogramme couleur représente l’estimation de la loi de densité de probabilité d’apparition des couleurs des pixels. L’histogramme couleur est implanté sous la forme d’une structure tri-dimensionnelle de cellules repérées par les trois coordonnées des points-couleur considérés. Chaque cellule associée au point-couleur indique le nombre de pixels dans l’image caractérisés par ce point-couleur divisé par la taille de l’image, notée . Son analyse permet de mettre en évidence des domaines de l’espace dits "modaux", à savoir des zones de fortes concentrations de points-couleur. Ces domaines sont séparés par des "vallées", caractérisées par de faibles concentrations de points-couleur. Ces méthodes supposent que chaque domaine modal définit une classe de pixels. Ainsi, la construction des classes revient à détecter les domaines modaux de l’espace couleur. Ces méthodes sont adaptées aux cas où les classes de pixels sont relativement équiprobables. Par conséquent, comme les régions de petite taille sont peu représentées par les cellules de l’histogramme couleur, les modes auxquels elles donnent naissance risquent de ne pas être détectés par une analyse de l’histogramme couleur (voir figure 5). Comme l’histogramme couleur est une structure très encombrante en termes de place mémoire, une solution consiste à projeter l’histogramme couleur sur les trois composantes afin de constituer les trois histogrammes monodimensionnels des images de composante , . Dans ce cas, les domaines modaux de l’espace sont supposés être des parallélépipèdes rectangles, dont les projections sur les composantes couleur constituent des intervalles modaux. Les intervalles modaux sur chaque composante sont détectés par une recherche des pics de l’histogramme mono-dimensionnel correspondant. Un pic d’un histogramme mono-dimensionnel peut contenir les niveaux des pixels provenant de plusieurs régions différentes de l’image (voir figure 6). Les pixels de chaque région doivent être regroupés en une classe spécifique de pixels, définie par un domaine modal de l’espace couleur. Par conséquent, les méthodes de détection des domaines modaux traitent le cas où un intervalle représentant un pic d’un histogramme mono-dimensionnel contient les intervalles modaux de plusieurs domaines modaux. Lorsque sont retrouvés les intervalles représentant les pics de chaque histogramme mono-dimensionnel, l’espace couleur est alors partitionné en parallélépipèdes rectangles grâce au produit cartésien de ces intervalles. Une analyse de la population des pixels dont les points-couleur se trou- vent dans ces parallélépipèdes permet d’identifier les domaines modaux de l’espace couleur (voir figure 7). L’approche par classification de pixels est efficace lorsque les nuages de points-couleur représentatifs des régions sont bien séparés dans l’espace couleur. C’est généralement le cas lorsque les images sont constituées d’un faible nombre de régions ayant des couleurs bien différenciées. Cependant, pour certaines images, le nombre de régions est élevé et leurs couleurs sont proches les unes des autres. Les nuages de points se chevauchent alors dans l’espace couleur, ce qui limite les performances de ces méthodes de classification automatique. Par ailleurs, nous pouvons reprocher aux méthodes de classification de privilégier les propriétés colorimétriques des pixels par rapport à leurs propriétés spatiales. En effet, elles ne sont pas prises en compte assez tôt dans le processus de segmentation et n’interviennent que dans un deuxième temps afin de reconstruire les régions en recherchant des sous-ensembles de pixels connexes appartenant aux mêmes classes. Ainsi, lors de la classification, le contexte spatial est négligé et des nuages de points-couleur dans l’espace couleur peuvent ne pas correspondre à des régions significatives dans l’image analysée. Classification spatio-colorimétrique. La prise en compte simultanée des propriétés colorimétriques des pixels et de l’arrangement spatial dans l’image des pixels ayant des couleurs similaires constitue donc une démarche naturelle pour construire les classes de pixels de telle sorte qu’elles correspondent effectivement aux régions de l’image. Pourtant, peu de travaux introduisent l’information spatiale locale dès le début de la classification [7]. Parmi ceux-ci, les méthodes de construction des classes proposées par Orchard, Balasubramanian minimisent la somme des distances euclidiennes entre les points-couleur représentant les pixels et les centres des classes auxquelles ils sont assignés, pondérées par une fonction qui dépend de la norme d’un gradient couleur [26, 27]. Les auteurs supposent que plus les couleurs d’une région constituée de pixels connexes assignés à une même classe sont homogènes, plus le poids de la distance associée à cette classe est faible. Deng et Manjunath contournent le problème de la construction des classes en divisant le processus de segmentation en deux étapes successives. La quantification des couleurs servant exclusivement à l’analyse des propriétés colorimétriques des pixels est suivie d’une analyse spatiale de l’image [28]. L’originalité de cette approche appelée JSEG, concerne principalement l’analyse spatiale basée sur un nouveau critère utilisé pour juger la qualité d’une segmentation. Cheng et al. proposent d’analyser une mesure d’homogénéité des niveaux de chaque composante couleur pour construire les classes de pixels de chacune des trois images de composante [29, 30]. Cette procédure néglige le caractère multi-dimensionnel de l’information couleur et fournit souvent des images sur-segmentées. Les régions doivent alors être fusionnées à l’aide de l’analyse d’un graphe d’adjacence de régions. Cette approche très intéressante est sensible à l’ajustement des nombreux paramètres dont dépend le résultat. Comaniciu et Meer proposent de construire les classes de pixels par détection des modes dans l’espace couleur [31]. Cette détection est basée sur la méthode du "MeanShift" qui analyse l’estimation du gradient de la densité de probabilité d’apparition des couleurs dans l’image. Cette estimation est effectuée conjointement dans des domaines spatiaux et colorimétriques afin de déterminer des classes qui correspondent effectivement aux régions. La qualité de la construction des classes de pixels dépend des tailles des domaines utilisés. 3.3 Méthodes de croissance de régions et de fusion de régions Ces méthodes structurent l’image en régions qui vont évoluer soit par agglomération des pixels aux régions, soit en fusionnant les régions. La croissance de régions agglomère des pixels aux régions en respectant des critères d’homogénéité en couleur et de forme [32] . Les méthodes de fusion de régions partent d’une sursegmentation obtenue par exemple par ligne de partage des eaux et affinent cette segmentation. Le problème est de définir un critère de fusion et un ordre dans les fusions. La méthode par ligne de partage des eaux se calcule sur une image des normes de gradient couleur (voir §2). Segmentation multi-échelle. Le principe proposé par L. Guigues [33] est de fusionner les régions 2 à 2, en choisissant le couple qui minimise une énergie globale. On arrête quand on a tout fusionné et on conserve toute la hiérarchie des couples fusionnés. L’énergie est la somme de deux termes : une énergie interne d’attache aux données et une énergie sur les frontières. L’échelle est définie par le paramètre de pondération entre les deux termes (cf. Eq.1). (1) Différents modèles sont possilbles pour l’énergie interne et celles des frontières. Pour l’énergie interne, la plus basique est celle qui suppose les régions constantes, elle a été initialement proposée par Mumford et Shah [34]. On peut également modéliser l’énergie de chaque région par une gaussienne. Pour l’énergie des frontières, Mumford et Shah utilisent la longueur totale des frontières entre régions. Soit une région comportant pixels notés et soit la matrice de variance/covariance des . Dans le cas d’une énergie constante sur chaque région (égale à , la distance en norme s’écrit : trace Si on utilise un modèle gaussien de dimension 3 (pour chacune des trois composantes couleur), l’énergie s’écrit : où les sont les Critère d’uniformité intra-région de Levine et Nazif [37] Ce critère simple est la somme des variances des régions. valeurs propres de . D’autres formes d’énergie interne peuvent également être employées : , ou En ce qui concerne l’énergie des frontières, elle est calculée comme la somme sur toutes les régions d’une énergie qui peut être simplement la longueur du contour. Guigues a proposé d’autres énergies, calculées sur une approximation polygonale du contour telles que le nombre de côtés du polygone, la concavité (somme des modules des angles) ou la cohérence des directions des côtés adjacents. Il a également proposé de prendre en compte le gradient le long des frontières. Segmentation floue. Cette méthode conduit à une segmentation grossière en régions modélisées par des ensembles flous[35]. Le but est d’extraire des zones de même couleur, qui peuvent se chevaucher et dont les contours sont imprécis. L’algorithme démarre sur une segmentation obtenue par ligne de partage des eaux. Les points de normes du gradient couleur minimales constituent les germes des régions. Les lignes de fort gradient seront considérées comme des barrages, difficiles à franchir. Puis les degrés d’appartenance aux régions sont calculés sur un double critère de proximité spatiale et de différence de gradient avec les germes des régions. Les régions floues se calent ainsi sur les zones de fort gradient, mais elles peuvent contourner un bruit impulsionnel. Quand il n’y a pas de gradient couleur franc, les régions s’étalent et plusieurs régions peuvent ainsi se chevaucher. 4 Evaluation quantitative d’une segmentation On trouvera dans [36] un catalogue des critères quantitatifs permettant de comparer des résultats de segmentation, qu’ils soient sous forme de contours ou de régions. Nous nous focaliserons sur l’évaluation des résultats de segmentation en régions, quand on ne dispose pas de segmentation de référence (ou vérité-terrain). De nombreux critères ont été proposés, cherchant à quantifier la qualité ou la lisibilité de l’image Ces critères recherchent l’uniformité en intensité ou en couleur à l’intérieur des régions, un grand contraste entre les régions. Le niveau de résolution est mesuré par le nombre de régions ou leur taille. Tous le critères définis ci-dessous doivent donc être faibles. Soit une image segmentée en régions notées . est le nombre de pixels de la région et le nombre total de pixels de l’image . Mesure de dissimilarité de Liu et Yang [38] Ce critère est basé sur le nombre de régions, l’aire des régions et la couleur moyenne, dans l’espace RGB : (2) où est la somme des distances euclidiennes entre les vecteurs couleur des pixels de la région et le vecteur couleur attribué à la région dans l’image segmentée (en général la moyenne des couleurs de la région). Le terme pénalise la sur-segmentation, ainsi que les aires des régions au dénominateur. Il est assez proche de celui de Levine et Nazif, le calcul des écarts à la moyenne est légèrement différent, ainsi que la normalisation, mais l’idée générale reste la même. Critère de Borsotti [39] La mesure de dissimilarité de Liu et Yang pénalise les segmentations contenant trop de régions ou avec des régions non homogènes en couleur. Borsotti ! " ont proposé de l’améliorer par : (3) où est le nombre de régions ayant une aire égale à Le premier terme de la somme favorise les régions homogènes, comme le critère de Liu et Yang. Le deuxième terme a une valeur élevée quand il y a beaucoup de petites régions, ce qui pénalise les images sur-segmentées en beaucoup de régions de même taille. D’après les auteurs [39], ce critère a fourni sur 500 images un classement des segmentations plus conformes à notre appréciation visuelle que le critères de Liu et Yang. Remarque : La distance euclidienne employée dans les critères de Liu et Yang et de Borsotti peut être remplacée par une distance . Critères énergétiques de Guigues Les énergies employées par Guigues comme critères de fusion 3.3 peuvent également être utilisées comme critères d’évaluation, en fonction de la résolution recherchée par l’utilisateur. C’est ainsi que la famille d’énergies (cf Eq 1) pour les énergies internes , , etc. définies ci-dessus fournissent d’excellents critères. On notera que l’énergie interne est égale au terme des Eq 3 et 2. En ce qui concerne l’énergie des frontières, on prendra simplement la somme des longueurs des frontières des régions. Le critère s’écrit : # $ (4) $ % pour l’énergie et $ % pour l’énergie $ pour l’énergie (5) Dans le cas où l’on prend pour énergie interne, l’énergie globale n’est autre que celle de Mumford et Shah. Des tests sur différentes images ont montré que c’est elle qui ordonne les images résultats de la manière la plus conforme à un classement visuel. 5 Evaluation quantitative de la qualité d’une image segmentée Comme il est difficile d’estimer visuellement la qualité de résultats d’une procédure de segmentation, nous proposons d’utiliser des critères quantitatifs [40]. En l’absence d’une ”vérité-terrain” (segmentation de référence), il existe assez peu de critères quantitatifs permettant de comparer des résultats de segmentation [36]. Le premier critère utilisé, noté , est le nombre de régions reconstruites constituant l’image segmentée. Le second critère, noté , est la moyenne des carrés des distances euclidiennes séparant les points-couleur représentant les pixels des centres des classes auxquelles ils ont été assignés. Comme ce critère, nommé écart quadratique, reflète la compacité des classes, il constitue l’un des critères les plus utilisés pour évaluer la qualité des résultats des procédures de classification. Cependant, ce critère souffre d’un gros inconvénient pour l’évaluation de la qualité des résultats de segmentation car il ne tient pas compte des propriétés spatiales des régions reconstruites. Aussi, nous proposons d’utiliser également le critère proposé par Borsotti, noté , qui est spécifiquement conçu pour l’évaluation de la qualité des résultats de segmentation d’images couleur et qui s’exprime de la manière suivante [39]: A (6) où indique la taille de l’image, correspond au nombre de régions reconstruites de l’image segmentée, où est un paramètre d’échelle. C’est de lui que dépend le niveau de détail de la segmentation. Les coefficients $ et sont des coefficients de normalisation. Pour des images codées sur % valeurs par composante, % est un majorant des valeurs de variance et de covariance. Par conséquent : est la surface de la région reconstruite , est le nombre de régions reconstruites de surface , & est la surface de la plus grande région reconstruite de l’image segmentée, est la somme des carrés des distances euclidiennes séparant le point-couleur représentant chaque pixel de du centre des points-couleur représentatifs des pixels de . Cette valeur est également d’autant plus élevée que les régions sont petites. Plus la valeur du critère est faible et plus le résultat de la segmentation est considéré comme étant satisfaisant. Ce critère est le produit de trois termes : est un coefficient de normalisation nécessaire pour s’affranchir de la taille de l’image analysée, permet de pénaliser les images sur-segmentées, la somme se décompose en deux termes. Le premièr prend une valeur élevée soit lorsque les régions reconstruites sont constituées de pixels dont les couleurs ne sont pas homogènes, soit lorsque le nombre de petites régions reconstruites est élevé. Le deuxième prend une valeur élevée lorsqu’il y a beaucoup de régions reconstruites de mêmes surfaces. Il est d’autre part d’autant plus élevé que les régions reconstruites sont petites, comme c’est le cas dans une image sursegmentée. References [1] J. P. Cocquerez et S. Phillip-Foliguet. Analyse d’images : filtrage et segmentation. Masson, 1990. [2] P. Lambert et T. Carron. Symbolic fusion of luminance-hue-chroma features for region segmentation. Pattern Recognition, 32(11):1857–1872, 1999. [3] S. Di Zenzo. A note on the gradient of multi-image. Computer Vision Graphics and Image Processing, 33:116–125, 1986. [4] H. C. Lee et D. Cok. Detection boundaries in a vector field. IEEE Trans. on Signal Processing, 39(5), 1991. [5] S. Zucker. Region growing : childhood and adolescence. Computer Vision Graphics and Image Processing, 5:382–399, 1976. [6] P. Lambert et L. Macaire. Filtering and segmentation : the specificity of color images (keynote). Dans Proc. of the Int. Conf. on Color in Graphics and Image Processing, volume 1, pages 57–64, Saint-Etienne, 2000. [7] H. D. Cheng, X. H. Jiang, Y Sun, et J. Wang. Color image segmentation: advances and prospects. Pattern Recognition, 34(12):2259–2281, 2001. [21] Y. I. Ohta, T. Kanade, et T. Sakai. Color information for region segmentation. Computer Graphics and Image Processing, 13:222–241, 1980. [8] V. Coutance. La couleur en vision par ordinateur. Application à la robotique. Thèse de doctorat, Université Paul Sabatier de Toulouse, janvier 1991. [22] S. Tominaga. Color classification of natural color images. Color Research and Application, 17(4):230– 239, 1992. [9] A. Trémeau et N. Borel. A region growing and merging algorithm to color segmentation. Pattern Recognition, 30(7):1191–1203, 1997. [23] L. Shafarenko, M. Petrou, et J. V. Kittler. Histogram based segmentation in a perceptually uniform color space. IEEE Trans. on Image Processing, 7(9):1354– 1358, 1998. [10] L. Shafarenko et M. Petrou. Automatic watershed segmentation of randomly textured color images. IEEE Trans. on Image Processing, 6(11):1530–1543, 1997. [11] A. Trémeau et P. Colantoni. Region adjacency graph applied to color image segmentation. IEEE Trans. on Image Processing, 9(4):735–744, 2000. [12] N. Vandenbroucke, L. Macaire, et J. G. Postaire. Color image segmentation by pixel classification in an adapted hybrid color space. Application to soccer image analysis. Computer Vision and Image Understanding, 90(2):190–216, 2003. [13] J. H. Lee, B. H. Chang, et S. D. Kim. Comparison of colour transformations for image segmentation. Electronics Letters, 30(20):1660–1661, 1994. [14] N. Vandenbroucke, L. Macaire, et J. G. Postaire. Color pixels classification in an hybrid color space. Dans Proc. of the IEEE Int. Conf. on Image Processing, volume 1, pages 176–180, Chicago (USA), 1998. [15] M. A. Ismail et M. S. Kamel. Multidimensional data clustering utilizing hybrid search strategies. Pattern Recognition, 22(1):75–89, 1989. [16] K. Takahashi, H. Nakatani, et K. Abe. Color image segmentation using isodata clustering method. Dans Proc. of the Asian Conf. on Computer Vision, volume 1, pages 523–527, Singapore, 1995. [17] T. Uchiyama et M. A. Arbib. Color image segmentation using competitive learning. IEEE Trans. on Pattern Analysis and Machine Intelligence, 16(12):1197–1206, 1994. [18] P. Scheunders. A genetic c-means clustering algorithm applied to color image quantization. Pattern Recognition, 30(6):859–866, 1997. [24] S. H. Park, I. D. Yun, et S. U. Lee. Color image segmentation based on 3D clustering: morphological approach. Pattern Recognition, 31(8):1061–1076, 1998. [25] A. Gillet, L. Macaire, C. Botte-Lecocq, et J. G. Postaire. chapitre "Color image segmentation by analysis of 3D histogram with fuzzy morphological filters", pages 154–177. Springer-Verlag Editor, 2002. [26] M. T. Orchard et C. A. Bouman. Color quantization of images. IEEE Trans. on Signal Processing, 39(12):2677–2690, 1991. [27] R. Balasubramanian, J. P. Allebach, et C. A. Bouman. Color-image quantization with use of a fast binary splitting technique. Journal of Optical Society of America, 11(11):2777–2786, 1994. [28] Y. Deng, , et B.S. Manjunath. Unsupervised segmentation of color-texture regions in images and video. IEEE Trans. on Pattern Analysis and Machine Intelligence, 23(8):800–810, 2001. [29] H. D. Cheng, X.H. Jiang, et J. Wang. Color image segmentation based on homogram thresholding and region merging. Pattern Recognition, 35(2):373–393, 2002. [30] H. D. Cheng et J. Li. Fuzzy homogeneity and scalespace approach to color image segmentation. Pattern Recognition, 36(2):1545–1562, 2003. [31] D. Comaniciu et P. Meer. Mean shift: a robust approach toward feature space analysis. IEEE Trans. on Pattern Analysis and Machine Intelligence, 24(5):603–619, 2002. [19] T.D. Pham et H. Yan. Color image segmentation using fuzzy integral and mountain clustering. Fuzzy Sets and Systems, 107(2):121–130, 1999. [32] J.M. Chassery et C. Garbay. An iterative segmentation method based on a contextual color and shape criterion. IEEE Trans. on Pattern Analysis and Machine Intelligence, 6(6):794–800, 1984. [20] T.Q. Chen et Y. Lu. Color image segmentation: an innovative approach. Pattern Recognition, 35(2):395– 405, 2002. [33] L. Guigues. Modèles multi-échelles pour la segmentation d’images. Thèse de doctorat, Université de Cergy-Pontoise, 2003. [34] D. Mumford et J. Shah. Optimal approximations by piecewise smooth functions and asociated variational problems. Comm. Pure Appl. Math., 42:577–685, 1989. [35] M. Sanfourche S. Philipp-Foliguet, M. B. Vieira. Fuzzy segmentation of color images and indexing of fuzzy regions. Dans First Europ. conf. on Colour in Graphics, Imaging and Vision, pages 507–512, Poitiers, France, 2002. [36] S. Philipp-Foliguet. Evaluation de méthodes de segmentation d’images couleur. Dans Actes de l’Ecole de printemps du GDR ISIS Operation Imagerie Couleur, Pau, avril 2001. [37] M.D. Levine et A.M. Nazif. Dynamic measurement of computer generated image segmentations. IEEE Trans. on PAMI, 7(25):155–164, 1985. [38] J. Liu et Y.-H. Yang. Multiresolution color image segmentation. IEEE Trans. on Pattern Analysis and Machine Intelligence, 16(7):689–700, 1994. [39] M. Borsotti, P. Campadelli, et R. Schettini. Quantitative evaluation of color image segmentation results. Pattern Recognition Letters, 19(8):741–747, 1998. [40] Y.J. Zhang. A survey of evaluation methods for image segmentation. Pattern Recognition, 29(8):1335– 1346, 1996. Évaluation gradient Vecteur gradient R Détection des contours Image binaire des contours R Évaluation gradient Vecteur gradient G Détection des contours Image binaire des contours G Évaluation gradient Vecteur gradient B Détection des contours Image binaire des contours B Fusion des images des contours Image binaire des contours Images de composante (a) Évaluation gradient Vecteur gradient R Évaluation gradient Vecteur gradient G Évaluation gradient Vecteur gradient B Évaluation de la norme d’un gradient couleur Norme gradient couleur Détection des contours Image binaire des contours Images de composante (b) Évaluation gradient Vecteur gradient R Évaluation gradient Vecteur gradient G Évaluation gradient Vecteur gradient B Évaluation d’un gradient vectoriel couleur Vecteur gradient couleur Détection des contours Image binaire des contours Images de composante (c) Figure 1 – Différentes stratégies pour la détection des pixels contours couleur. (a) Analyse des images binaires de contours pour la détection des pixels contours couleur. (b) Analyse de la norme d’un gradient couleur pour la détection des pixels contours couleur. (c) Analyse d’un gradient vectoriel couleur pour la détection des pixels contours couleur. 0 0 1 2 3 2 1.1 1.2 1.3 1.4 2.1 2.2 2.3 2.4 3 4 4 1.1 1.3 3.1 3.3 1 1.2 3.4 2.3 1.4 3.2 2.1 4.1 4.3 2.2 2.4 4.2 3.1 3.2 3.3 3.4 4.1 4.2 4.3 4.4 4.4 Figure 2 – Structure pyramidale du tétra-arbre. (a) (b) Figure 3 – Graphe d’adjacence de régions. 255 R 191 127 63 255 191 R R 4 G R R 5 R R 1 R R 2 127 R R 6 63 R R 3 63 127 B 191 255 (a) (b) Figure 4 – Régions homogènes de l’image et nuages de points-couleur dans l’espace couleur. Occurrences Figure 5 – Histogramme couleur de l’image de la figure 4(a) qui ne tient compte que des niveaux des composantes et des pixels. Les petites régions de l’image sont sous-représentées par comparaison aux grandes régions de l’image. 4000 4000 3500 3500 3500 3000 3000 3000 1500 1000 500 32 64 96 128 (a) . 160 192 224 2000 500 0 0 1500 1000 255 2000 1500 2500 , 2000 0 0 2500 2500 32 64 96 (b) 128 160 192 4000 1000 224 500 255 0 0 32 64 96 128 160 192 224 (c) Figure 6 – Histogrammes mono-dimensionnels des images de composante issues de l’image couleur de la figure 4(a). 255 4000 3500 3000 2500 2000 1500 1000 0 0 32 64 96 128 160 192 224 0 0 500 1000 255 G 128 96 255 224 192 160 64 32 1500 2000 2500 3000 3500 4000 500 B Figure 7 – Détection des domaines modaux du plan chromatique par analyse des histogrammes mono-dimensionnels des images de composante et de l’image de la figure 4(a).