acquisition traitement d`image numerique

Transcription

acquisition traitement d`image numerique
ACQUISITION
et
TRAITEMENT D'IMAGE NUMERIQUE
- Avril 2008 Université Paul Sabatier
IUT - Département de Mesures Physiques
J.P. Gastellu-Etchegorry
2
TABLE DES MATIERES
I IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
4
I.1 CONTEXTE INDUSTRIEL
I.1.1 Applications industrielles de l'imagerie
I.1.2 Les principaux métiers
I.1.3 Le marché des systèmes de vision
4
4
7
7
I.2 CARACTERISTIQUES DES IMAGES RASTER
9
I.3 ACQUISITION D'IMAGES
I.3.1 Création d'une image optique de la scène observée
I.3.2 Balayage de l'image
I.3.3 La photodétection
I.3.4 Conversion "Analogique - Numérique"
I.3.5 Fonction de transfert et bruit instrumental
I.3.6 Mesure et rayonnement
I.3.7 Capteurs
I.3.8 Eclairage
12
12
15
19
23
25
26
27
28
I.4 LE TRAITEMENT D'IMAGES
I.4.1 Principales étapes
I.4.2 Avantages et inconvénients du traitement d'images
32
33
34
I.5 EXEMPLES D'EMPLOI DU TRAITEMENT D'IMAGES
I.5.1 Le contrôle des fibres
I.5.2 La mesure de pollution des fluides
I.5.3 Système de contrôle de laminé
I.5.4 Système de mesure de capabilité d'équipement
I.5.5 Système de contrôle du maillage des tissus
I.5.6 La vision artificielle
35
35
35
36
36
37
37
I.6 ANNEXE 1 : FORMATS ET COMPRESSION DES FICHIERS IMAGES
I.6.1 Formats des fichiers images
I.6.2 Compression
38
38
41
I.7 Annexe II : Vidéo
46
I.8 ANNEXE III : LES TECHNIQUES : CAPTEURS 2D OU CAPTEURS 3D
49
I.9 ANNEXE IV : EXEMPLE DE CAMERA INFRAROUGE INDUSTRIELLE (FLIR Systems : www.flir.fr)51
I.10 ANNEXE IV : SYSTEME D'OBSERVATION SATELLITAIRE
I.10.1 Acquisition d'images
I.10.2 Reconstruction d'image
II PHYSIQUE DU RAYONNEMENT
55
55
56
58
II.1 LE RAYONNEMENT ELECTROMAGNETIQUE
II.1.1 Principales caractéristiques
II.1.2 Sources de rayonnement électromagnétique
II.1.3 Le spectre électromagnétique
II.1.4 Interactions "Rayonnement - Matière"
58
58
59
59
60
II.2 NOTIONS DE PHOTOMETRIE
67
II.3 DISTRIBUTION SPECTRALE DE LA REFLEXION
73
II.4 EMISSION THERMIQUE
76
III LA TELEDETECTION
III.1 PRESENTATION
77
77
3
III.2 PRINCIPAUX OBJECTIFS DE LA TELEDETECTION
79
III.3 LE SYSTEME SPOT
III.3.1 Le programme SPOT (http://spot5.cnes.fr/satellite/satellite.htm)
III.3.2 Les images SPOT
81
81
81
IV VISUALISATION
87
IV.1 Synthèse additive et soustractive de la couleur
87
IV.2 Représentation des couleurs
87
IV.3 Le codage de la couleur
90
IV.4 Sélection des couleurs dans un logiciel
90
IV.5 LUT
92
IV.6 TRANSFORMATION DE LUT
93
V TRAITEMENT D'IMAGES (http://cmm.ensmp.fr/~serra/cours/index.htm)
97
V.1 PRINCIPAUX TRAITEMENTS
97
V.2 PRINCIPAUX OPERATEURS PONCTUELS
V.2.1 Opérateurs arithmétiques
V.2.2 Opérateurs logiques
98
98
98
V.3 FILTRES
V.3.1 Convolution et transformée de Fourier
V.3.2 Filtres linéaires
V.3.3 Filtres non linéaires
99
99
104
107
V.4 MORPHOLOGIE MATHEMATIQUE
V.4.1 Opérateurs morphologiques de base
V.4.2 Autres opérateurs binaires
108
108
111
V.5 CLASSIFICATIONS D'IMAGES
112
VI ANNEXE
VI.1 MÉMOIRE INFORMATIQUE
114
114
VI.2 CARTE VIDÉO
115
VI.3 CARTE SON
117
VI.4 CARTE RÉSEAU
119
VI.5 ECRANS
120
VII LOGICIEL APHELION
I. Interface
II. Utilisation de l'aide
III. Survol de quelques opérations
IV. Charger et sauvegarder une image
V. Exécuter un opérateur
VI. Exemple de traitement d'images: le filtrage
VII. Extraire et analyser des objets
VIII. Rapports d'Analyse
IX. Editer une Macro
125
Résumé des principales manipulations à réaliser
137-140
Annexe : MACROS D'APHELION
141-150
NOTIONS DE TRAITEMENT D'IMAGE NUMERIQUE
- TELEDETECTION -
Ce cours introduit la notion d'image*, le traitement d'images, ainsi que la physique associée à
l'acquisition d'images par des capteurs optiques.
• Chapitre 1 : aperçu du contexte professionnel de l'imagerie. Bases théoriques de l'image numérique et
de l'acquisition d'images. Intérêt du traitement d'image. Formats de fichiers images.
• Chapitre 2 : mécanismes physiques majeurs à l'origine du flux lumineux mesuré par les capteurs. Le
cas particulier de la propagation du rayonnement dans l'atmosphère est présenté.
• Chapitre 3 : principes et objectifs de la télédétection (i.e., exemple de système d'imagerie
opérationnel), avec une brève discussion du système satellitaire SPOT.
• Chapitre 4 : visualisation des images (noir et blanc et couleur).
• Chapitre 5 : traitement d'images (filtres, reconnaissance de forme, classification d'images,…).
• Chapitre 6 : annexes (mémoire informatique, cartes vidéos, son et réseau, et écrans).
I IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
I.1 CONTEXTE INDUSTRIEL
I.1.1 Applications industrielles de l'imagerie
L'imagerie est de plus en plus utilisée comme outil de contrôle et de gestion. Ainsi, elle contribue à
augmenter la flexibilité et la productivité des ateliers de production, à aider à la maintenance, à mieux
connaître la qualité des produits (conformité aux normes industrielles ISO 9000, etc.), à résoudre des
problèmes jusque là sans réponse, etc. De plus, elle offre l'intérêt de pouvoir intervenir à de nombreux
niveaux. Ainsi, dans une chaîne de production de bouteilles (Figure I.1), elle peut servir à contrôler le
remplissage et l'encapsulage de bouteilles, l'impression des étiquettes, l'étiquetage, le conditionnement,
la mise en pack et la mise en carton. Ainsi, dans la société Kendermenn (Allemagne), la société
Cognex (www.cognex.fr) a installé un système de contrôle de l'étiquetage (10 /s).
Impression
des étiquettes
Mise en pack
Ordinateur
Mise en carton
Remplissage
Encapsulage
Etiquetage
Conditionnement
Inspection de
l'étiquetage
Figure I.1: Surveillance du conditionnement de bouteilles avec un système de vision.
*
Représentation d'objets (volume ou surface) dans un plan.
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Quelques activités classiques conduites avec l'aide d'images sont indiquées ci-dessous :
- Contrôle de l'aspect (présence de taches, rayures,...), dimensions (contrôle dimensionnel),
assemblage, etc. de produits en cours de fabrication. Il peut servir pour la maintenance. On parle de
"contrôle de process de production" si les mesures sont effectuées uniquement sur des échantillons.
- Tri d'objets, avec par exemple le rejet de pièces mécaniques défectueuses.
- Guidage de robot. Dotés d'yeux grâce à l'imagerie, les robots peuvent avantageusement remplacer les
humains dans la manutention de pièces lourdes et fragiles.
- Aide à l'assemblage par vérification du bon positionnement des pièces à assembler.
- Identification d'objets avec par exemple la reconnaissance de caractères (lecture optique).
Les domaines d'application (www.cognex.fr) de l'imagerie sont nombreux :
• Mécanique et métallurgie. Métrologie (2D et 3D) et analyse de structure pour l'étude de matériaux
et le contrôle de la qualité industrielle (e.g., détection de défaut sur du laminé ou contrôle de la
géométrie de pièces mécaniques). En micromécanique, l'imagerie est très utile, car elle permet de
détecter de très petits défauts imperceptibles pour nos yeux et/ou des dispositifs mécaniques.
Exemple : l'usine de Calor à Pont-Evêque (Isère) contrôle par vision la production de semelles de
fers à repasser (6 millions par an), après l'apport de céramique et leur passage au four. Ce contrôle
détecte et élimine toute semelle défectueuse: en 3 s, les motifs imprimés sur 2 semelles sont
comparés à un modèle mémorisé et les semelles dont l'aspect n'est pas satisfaisant (e.g., dépôts de
poudre insuffisants ou discontinus) sont éliminées. Ce n'est pas un vrai contrôle dimensionnel. Aux
changements de série, la machine s'autoprogramme par apprentissage, après le passage des
premières pièces. Le coût d'un banc complet est ≈ 15 K Euros. Avant, cette tâche était confiée à des
employées dont l'œil n'était pas aussi efficace à cette cadence, surtout sur de longues périodes.
• Agro-alimentaire. Tri de graines selon leur dimension et/ou forme, etc. Exemple : contrôle de la
qualité (hermétique, etc.) de l'emballage des jambons chez Fleury Michon (www.edixia.fr).
• Pharmacie. Contrôle de fabrication (taille, état, etc.) d'ampoules, de gélules, etc.
• Electronique. Contrôle de soudures, présence ou absence de composants, de courts circuits, etc.
• Automobile. L'image est souvent utilisée pour contrôler des robots. On distingue l'apport pour :
- les constructeurs : aide au montage d'éléments (roues, portes, pare brise, etc.), traçabilité des
produits par lecture de caractères, contrôle d'assemblage de boîtes de vitesses, etc.
- les équipementiers: contrôle de pièces plastiques en sortie de presse, contrôle d'assemblage (allume
cigare, boîte à fusible, etc.), guidage de l'assemblage robotisé d'équipements, etc.
Exemple : sur la ligne d'assemblage de la C5, à Rennes, Citroën utilise le système de vision
Edixia pour automatiser le montage des roues, à raison d'environ 1000 véhicules par
jour. Ce système détermine avec précision la position des centres de roue.
• Biologie. Classification de chromosomes, etc.
• Génie biologique et médical.
- radiographie (scanographie) : mesure du rayonnement X qui a traversé l'objet étudié.
- scintigraphie : mesure du rayonnement d'une substance radioactive injectée dans l'organe étudié.
- angiographie : radiographie des vaisseaux après injection d'une substance opaque aux rayons X.
- échographie : mesure de la réflexion d'ultrasons.
- tomographie : image radiographique d'un plan à un niveau choisi du niveau du corps.
- résonance magnétique nucléaire (RMN) : analyse du comportement des électrons dans un
organisme soumis à un champ magnétique intense. Evite l'emploi de radiations traumatisantes.
- endoscopie : examen de cavités et organes à l'aide d'un tube optique muni d'un système d'éclairage.
- imagerie d'impédance : les différents tissus humains ont des conductivités électriques spécifiques.
• Infographie. Création et manipulation d'images numériques : représentation des éléments graphiques
(texte, image, vidéo) et leurs transformations (rotation, translation, zoom,...), etc.
• Météorologie, astronomie.
• Télédétection. Etude des surfaces terrestres à partir d'images acquises depuis l'espace. Les
applications se situent surtout au niveau de l'environnement, de l'agriculture, de l'urbanisme, etc.
5
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Un "système de vision" a pour fonction d'acquérir et de traiter des images (Figure I.2 et Figure I.3). Il
combine un système d'acquisition (caméra numérique, etc.) et un système de traitement d'image. Par
contre, un "système de vision industrielle" comprend en général (1) un ou plusieurs capteurs
optoélectroniques (caméra ou autre capteur capable de reconstituer une image), (2) une unité de
traitement des images saisies qui assure une prise de décision automatique et (3) un système qui met en
oeuvre cette décision. En sus d'acquérir et de traiter des images, un système de vision industrielle
permet donc d'assurer la mise en œuvre d'une décision prise durant la phase de traitement d'image.
Acquisition
- capteur(s) + carte -
Le processeur du PC ou un/des
processeur(s) spécialisé(s) de la
carte d’acquisition effectuent
les traitements.
Traitement / Décision
- Informations
- Statistiques
Exploitation
- Actions
Figure I.2: Principe de la Vision Industrielle (Peyron, 2002).
P o r ts E /S n u m é r iq u e s
M é m o ir e
im a g e
N u m é r is e u r
et p ro c esseu r
a n a lo g iq u e
LU T
C a m é ra s
E c ra n
M o d u le d e
v is u a lis a tio n
C a r te d 'a c q u is itio n e t d e
tr a ite m e n t d 'im a g e
C o n trô le u r d e s
échanges de donn ées
P ro c e s s e u r s n u m é riq u e s
d e tra ite m e n t d 'i m a g e s
B us PC I
M é m o ire d e m a s s e
C a lc u la te u r h ô te
M é m o ir e c e n tr a le
CPU
C la v ie r
Figure I.3: Architecture d'un système de vision sur PC (Peyron, 2002).
Diverses contraintes peuvent affecter l'emploi opérationnel de l'imagerie. Ce sont en particulier :
- l'éclairage. Il influence beaucoup la qualité des images selon sa stabilité (e.g., variation temporelle
des images alors que l'objet observé ne varie pas), sa disposition (e.g. plus ou moins d'ombres),...
- les conditions environnementales (température, poussière, humidité, vapeurs corrosives, etc.). Elles
peuvent affecter le bon fonctionnement du système d'acquisition et de traitement.
- la variabilité des objets observés (couleur, contraste, position, orientation, etc.).
- la rapidité du traitement d'image. Ceci est surtout important lors de traitements en temps réel. Le
temps de traitement tend à croître avec le volume des données (images) à traiter et la complexité de
la procédure mise en œuvre pour obtenir l'information recherchée. Ainsi, les objets observés peuvent
se déplacer à une vitesse de plusieurs m/s ou survenir avec une cadence très rapide (e.g., plus de 600
boites de conserve par minute et plus de 1500 ampoules pharmaceutiques par minute).
6
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
I.1.2 Les principaux métiers
La vision industrielle met en jeu de nombreux métiers. En dehors des laboratoires de recherche, des
formateurs et des utilisateurs, il convient de citer :
- le fabricant de machines de vision (OEM: Original Equipment Manufacturer)
Le fabricant (e.g., Cognex ; www.cognex.fr) fabrique en petite ou moyenne série des équipements
(caméras, cartes, etc.) qui répondent aux besoins d'un secteur industriel.
- l'intégrateur de systèmes de vision
L'intégrateur (e.g., Edixia ; www.edixia.fr) apporte une prestation complète depuis l'expression du
besoin jusqu'à la réalisation d'une application. Pour cela, il cumule différentes compétences (optique,
électronique, informatique industrielle, automatique, mécanique, vision par ordinateur, etc.).
- le consultant en vision
Le consultant (e.g., Delta Technologies ; www.delta-technologies.fr) propose aux entreprises de
définir et mettre en oeuvre des solutions par vision en milieu de production. Ainsi, il peut proposer:
* une analyse du système de production et des besoins de contrôle.
* une étude des solutions à mettre en oeuvre.
* des études de faisabilité.
* une définition des méthodes de validation.
* le choix des fournisseurs.
* le suivi des projets.
I.1.3 Le marché des systèmes de vision
Dans les années 90, les systèmes de vision étaient réputés peu fiables, très fragiles et très sensibles à
leur environnement. Ce n'est plus vrai. Les caméras (Figure I.4) sont désormais :
- robustes. Elles ne nécessitent pas de maintenance particulière pour supporter les conditions difficiles
des ateliers. L'absence d'usure mécanique est un de leurs avantages majeurs.
- rapides. Les performances des cartes d'acquisition, des PC et des standards d'échange de données
permettent des fréquences d'acquisition d'image supérieures à 60 images / seconde.
- précises. Grâce aux capteurs CCD et CMOS de dernière génération, la précision peut atteindre
l'ordre du micron dans des champs restreints, avec une technique qui est restée assez simple.
Figure I.4: Automates de vision.
Systèmes compacts où l’unité de traitement est (a) dans un boîtier séparé ou (b) dans la caméra.
Du fait de ces améliorations techniques, contrôle par caméra (vision industrielle en ligne, etc.) se
développe fortement dans tous les secteurs de l'industrie (de plus en plus de PME), soit en tant que
nouveau système ou bien en tant que remplacement de système classique pré-existant (e.g., capteurs
mécaniques). En Europe, selon l'American Image Association, la croissance du marché des machines
de vision (≈1,4 milliard US $) est ≈ 20% par an depuis 1998. Les marges de progression semblent
7
8
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
encore énormes, car la plupart des entreprises qui désirent améliorer leur qualité sur de grandes
cadences sont des utilisateurs potentiels de systèmes de vision.
Avec des offres de base d'environ 10 000 Euros, les retours sur investissement peuvent être très
rapides, jusqu'à un mois d'utilisation. Le succès des systèmes de vision oblige les fournisseurs à
connaître assez bien le métier de l'industriel, car ce dernier commande souvent une fonction sans trop
se soucier de la technologie. La France s'oriente vers le modèle allemand : petits intégrateurs qui sont
spécialisés dans des secteurs spécifiques et qui se fournissent en matériel auprès de quelques grands
constructeurs ou distributeurs. En général, les développements particuliers coûtent cher. Ceci explique
que pour répondre à des fonctions simples, les intégrateurs (e.g., Edixia, Satimage, Cotec) et les
fournisseurs (e.g., Cognex, Imasys) cherchent à mettre au point des outils standards, matériels ou
logiciels qui répondent aux exigences d'un large éventail d'entreprises (de plus en plus de PME).
Région
Revenus (106 $)
Unités
Revenus (%) Unités
Amérique du Nord
1.750
41.685
30,4%
60,9%
Europe
1.338
35.981
23,2%
26,7%
Japon
1.824
44.545
31,7%
33,0%
Reste du monde
845
12.630
14,7%
9,4%
Total
5.757
134.841
100%
100%
Marché de la vision industrielle : revenus et nombre d'unités. Il est près de 3 fois plus
important en Allemagne qu'en France (Automated Imaging Association, 2001).
Exemple de Système de Vision
L'intégrateur de solutions de vision Edixia a installé un système de vision (Figure I.5) dans l'entreprise
Salmson (Laval) de fabrication de pompes à eau.
Travail à effectuer : contrôler la présence, position et longueur de fils (∅ = 0,2 mm, longueur ≈ 4 mm)
sur le bobinage de stators de moteur électrique de pompe à eau, pour toute la production, à raison d'un
stator toutes les 10 s. Avant 1999, ce contrôle était imprécis et pénible, car il était visuel.
Solution adoptée : (1) acquisition d'images par une caméra, dans la ligne de production après
l'opération de connexion des fils.
(2) traitement en temps réel de ces images par commande programmée de la carte
de vision EDX IA 512.
Coût: 70 kEuros, dont 12 kEuros de matériel de vision.
"Point origine" de l'image
Fenêtres d'analyse
Yo
Xo
Figure I.5: Contrôle de chaîne de production
de stators avec un Système de Vision
Etapes du traitement d'image mis en oeuvre
1) Traitement global de l'image: amélioration de son
contraste et élimination des bruits présents.
2) Traitement local :
- recherche du "point origine" (Xo, Yo) de l’image
pour positionner les fenêtres d’analyse.
- recherche dans chaque fenêtre de transitions
révélatrices du fil contenu dans celle-ci.
- mesures et décision si le produit est défectueux ou
correct (i.e., longueur du fil au moins égale à 50%
de la longueur maximale).
9
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
I.2 CARACTERISTIQUES DES IMAGES RASTER
Il existe 2 grandes classes d'images : les images vectorielles et les images "raster". Une image raster
est transformée en une image vecteur par une vectorisation. L'opération inverse est une rastérisation.
Image raster (bitmap ou pixellisée). Tableau rectangulaire (Figure I.6)
d'éléments (pixels) de même dimension possédant un ou plusieurs
attributs (i.e., nombre, nom,…) codés numériquement. Le rangement
régulier des pixels évite de stocker leurs positions dans l'image : tout
pixel est repéré par un numéro de ligne "l" et un numéro de colonne
"c". Un point est représenté par un pixel, alors qu'une ligne et une
surface sont formées par un ensemble de pixels connexes. Pour les
applications du type "cartographie" et "contrôle dimensionnel", les
images sont souvent géoréférencées : lien entre les coordonnées
"image" (c,l) et les coordonnées métriques (x,y) du monde réel.
Image vectorielle. Eléments géométriques (e.g., segment, cercle)
représentés par des coordonnées (x,y), des nombres et des attributs:
couple (x,y) pour 1 point, 2 points pour 1 segment, segments pour un
polygone, etc. Le processeur les "traduit" en information interprétable
par la carte graphique. Ces images se prêtent bien aux transformations
géométriques (zoom,...) alors qu’avec une image raster il y a perte
d'information (distorsion) et apparition de pixels (pixellisation :
aliasing). Elles ne sont pas acquises par des capteurs mais dérivent
d'opérations manuelles (e.g., dessin sur ordinateur) ou automatiques
(e.g., tracé de frontières d'objets d'une image). Le logiciel
Macromedia Flash et le plugiciel ("plug-in") SVG permettent l'emploi
du format vectoriel sur Internet.
b.)
a.)
Colonne c
Ligne l
Pixel P(c,l)
Figure I.6: Image raster
e
e
e
Figure I.7: Image vectorielle
Points, segments et polygones avec
différents attributs "remplissage":
gris texturé ou non.
c.)
d.)
Caméra (13 x 12 CCD)
e.)
f.)
Figure I.8: Haut: Zooms croissants (b,c) du coin inférieur droit de l'image raster (a). Les pixels
apparaissent. Bas: (e) = zoom de (d) si (d) est vecteur et (f) = zoom de (d) si (d) est raster.
Chaque type d'image a ses avantages et désavantages. Ainsi, les images raster contiennent en général
plus d'information que les images vectorielles. Leurs volumes mémoire sont donc souvent beaucoup
plus importants et leur manipulation nécessite des temps de calcul beaucoup plus longs. D'autre part, le
degré d'agrandissement de ces images affecte la forme des objets qu'elles contiennent. Ainsi, dans une
image raster très agrandie, un segment oblique apparaît comme une suite de marches d'escalier. Par
contre, dans les images vectorielles, l'agrandissement n'affecte pas la forme des objets : un cercle reste
un cercle, une droite reste une droite, etc. Ceci explique que les systèmes de traitement de texte
utilisent des polices de caractère vectorielles pour conserver la forme des caractères lors de zooms.
Ce manuscrit traite seulement des images raster. Leurs caractéristiques majeures sont résumées ici.
Une image raster est caractérisée par sa structure et son format :
- la structure des images dépend du capteur et de son mode de fonctionnement (e.g. une ou plusieurs
bandes spectrales, codage sur n bits des comptes numériques des pixels, etc.)
- le format des données dépend du mode d'enregistrement de l'image. Il indique des paramètres tels
que la présence et dimension de l'en-tête des fichiers "image".
10
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
• Image raster multidimensionnelle
Elle est composée de N images raster
"classiques". Tout élément est un
vecteur Pn(x,y) de N comptes
numériques [P1...Pn...PN] où n ∈ [1 N].
Exemple : image multi-canal acquise
par un capteur (e.g., caméra CCD:
Charge Coupled Device) avec N
canaux spectraux. Elle est composée de
N images mono-canal.
1 er c a n a l
L ig n e l
P 1 ( c ,l)
C o lo n n e c
2 èm e c a n a l
L ig n e l
P 2 ( c ,l)
C o lo n n e c
P ix e l
P ( c ,l)
3 èm e c a n a l
L ig n e l
P 3 ( c ,l)
Figure I.9: Image multi-canal
• Résolution radiométrique d'une image
Le codage des comptes numériques est réalisé sur un nombre p de bits, ce qui correspond souvent à
des nombres entiers compris entre 0 et 2p-1. Le nombre p de bits de codage est en général d'autant
plus élevé que la précision radiométrique du capteur est grande. Si p = 8 (1 octet), l'on a CN ∈ [0
255], soit une erreur relative de ≈2.10-3. Avec p = 10 (2 octets), l'on a CN ∈ [0 1023].
• Dimension d'une image
Le terme "dimension d'image" peut correspondre à la dimension "informatique" ou "géométrique".
- Taille informatique d'image brute (i.e., sans compression et ajout d'information): Ncol.Nlig.Ncan.Noct
où Ncol = nombre de colonnes, Nlig = nombre de lignes, Ncan = nombre de canaux et Noct = nombre
d'octets de codage des CN des pixels. Ainsi, une image panchromatique (i.e., image mono-canal
dans la bande spectrale [510 730 nm] acquise par un capteur équivalent à une barrette de 6000
détecteurs) du satellite SPOT a Ncol = 6000, Nlig = 6000, Noct = 1 et Ncan = 1, soit une taille
informatique de ≈36 Mo (Méga octets).
- Dimension géométrique d'image : dimension de la surface observée (Figure I.10). Elle dépend des
éléments constitutifs du capteur (système optique, système de balayage et système de détecteurs).
Pour la plupart des capteurs fixes, elle est plus ou moins proportionnelle à l'angle d'ouverture ∆θFOV
(FOV: Field Of View) du système optique multiplié par la distance entre la surface observée et la
pupille d'entrée du système optique du capteur. Pour un capteur spatial constitué par une barrette
de photo éléments perpendiculaire à la direction de déplacement du capteur (trace), avec une
vitesse v, une altitude H, un FOV ∆θFOV et un temps d'échantillonnage ∆téchant, l'image a une
∆θFOV
longueur (i.e., dimension selon la trace) ≈ v.∆téchant et une largeur ≈ 2H.tan
.
2
≈ 2 H .ta n
H
∆ θ FO V
2
∆ θ IF O V
H .∆
FO V
T erre
∆ téchant
v .∆
H .∆ θ IFO V
∆ té cha n
v .∆
∆ θ IF O V
H .∆
2 lig n e s s u c c e s s iv e s d 'u n e im a g e r a s te r .
C h a q u e lig n e c o m p r e n d 9 p ix e ls .
L a rg e u r a u so l d e l'im a g e
Figure I.10: Acquisition d'image raster avec une barrette de 9 CCD (IFOV ∆θIFOV) embarquée.
• Résolution spatiale d'une image
La résolution géométrique d'un capteur correspond à son angle d'analyse ∆θIFOV (i.e., angle de vue
instantané : IFOV). Pour un capteur satellite d'altitude H à la verticale, elle est ≈ H.∆θifov. Elle diffère de
11
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
la taille des pixels. Ainsi, avec une barrette de m détecteurs sur un satellite de vitesse v, la taille des
pixels selon la trace est v.∆téchant (Figure I.10), où ∆téchant est le temps entre 2 acquisitions de ligne
H.∆θifov
. Si η > 1, l'image
image. Le taux d'échantillonnage de l'image selon la trace du satellite est η ≈
v.∆téchant
est sur-échantillonnée (i.e., pixels de lignes voisines corrélés). De même, l'image est sur-échantillonnée
selon la direction normale si ∆θfov < m.∆θifov. En fait, on a souvent ∆θfov = m.∆θifov et H.∆θifov = v.∆téchant.
• Format des fichiers image
Tout fichier image est un enregistrement numérique (Figure I.11), par exemple constitué par les
mesures d'un capteur (i.e., comptes numériques) et des informations annexes (e.g. en-tête, préfixes et
suffixes de lignes, etc.) utiles pour sa manipulation (lecture, visualisation, traitement, etc.). Le format
du fichier indique le mode de stockage des informations dans le fichier.
Fichier Image raster
45
34
12
89
10
1ère ligne 10
10
10
20
ème
2 ligne 20
20
En tête
Octet No 1
Octet No 2
Octet No 3
Octet No 4
Octet No 5
Octet No 6
Octet No 7
Octet No 8
Octet No 9
Octet No 10
Octet No 11
Fichier Image vecteur (segment)
23
54
56
22
1er point 0
0
2ème point 4
6
34
45
16
En tête
10
20
10
20
10
10
20
10
20
10
10
20
10
20
10
10
20
10
20
10
Figure I.11: Relation entre fichier informatique et image. a) Image raster. b.) Image vecteur (segment).
Le quadrillage (gris clair) dans (b) illustre que l'espace mémoire de l'image raster du segment
est beaucoup plus important que celui de l'image vecteur : 24 comptes numériques au lieu de 4.
Le format des fichiers est plus ou moins complexe. Deux exemples (Figure I.12) sont donnés ici.
- format BSQ (Band Sequential). Chaque image mono-canal est stockée en tant qu'enregistrement
informatique continu, dans un même fichier ou dans plusieurs fichiers.
- format entrelacé BIL (Band Interlaced). Les lignes correspondantes des images mono-canal sont
groupées. Ainsi, les lignes mono-canal d'une même région de la scène observée sont groupées. Le
but est de réduire le temps d'accès au disque dur, et donc accélérer l'affichage et les calculs.
En-tête
Préfixe Ligne 1; canal 1
Préfixe Ligne 2; canal 1
:
:
Préfixe Ligne L; canal 1
Préfixe Ligne 1; canal 2
Préfixe Ligne 2; canal 2
:
:
Préfixe Ligne L; canal 2
Suffixe
Suffixe
:
Suffixe
Suffixe
Suffixe
:
Suffixe
:
:
:
Préfixe Ligne 1; canal N Suffixe
Préfixe Ligne 2; canal N Suffixe
:
:
:
Préfixe Ligne L; canal N Suffixe
C colonnes
Ligne 1
Ligne 2
Affichage des 2ères
lignes du canal 2
de l'image.
C colonnes
En-tête
Préfixe Ligne 1; canal 1
Préfixe Ligne 1; canal 2
:
:
Préfixe Ligne 1; canal N
Préfixe Ligne 2; canal 1
Préfixe Ligne 2; canal 2
:
:
Préfixe Ligne 2; canal N
Suffixe
Suffixe
:
Suffixe
Suffixe
Suffixe
:
Suffixe
:
:
:
Préfixe Ligne L; canal 1 Suffixe
Préfixe Ligne L; canal 2 Suffixe
:
:
:
Préfixe Ligne L; canal N Suffixe
C colonnes
Figure I.12: Format (a) BSQ et (b) BIL de fichier image (N canaux, L lignes et C colonnes).
Les 2 fichiers ont un en-tête suivi de N.L lignes, avec par ligne un préfixe, une ligne image monocanal et un suffixe. Le fichier BSQ stocke les L lignes du 1er canal, puis les L lignes du 2ème canal,
etc., alors que le fichier BIL stocke la 1ère ligne des N canaux, puis la 2ème ligne des N canaux, etc.
12
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
I.3 ACQUISITION D'IMAGES
Divers types de capteurs permettent d'acquérir des images raster numériques. Les plus usuels sont :
- les appareils photo et caméras numériques mono-canal et multi-canal. L'acquisition d'images dans les
domaines spectraux du bleu, du vert et du rouge permet de reconstituer la vision humaine.
- les scanners médicaux. Ils donnent des images 3-D sous la forme de séries d'images 2-D.
- les scanners et microdensitomètres. Ils numérisent des images ou négatifs sous forme analogique.
- les microscopes. En modifiant leur focale, ils permettent d'observer la nature 3-D des objets étudiés.
- les capteurs de télédétection. Systèmes rigides (e.g., barrette de 6000 CCD pour SPOT) ou à
balayage (e.g., Thematic Mapper), avec un nombre très variable de bandes spectrales.
Dans le domaine optique, de l'ultraviolet à l'infrarouge, l'acquisition d'image numérique (Figure I.13,
Figure I.14) revient à numériser une image analogique de la scène observée. Quelle que soit la
technologie (CCD, scanner, appareil photo numérique, etc.), elle requiert 3 étapes :
i) création de l'image optique de la scène dans le plan image du système optique qui agit comme un
filtre passe bas de fréquence de coupure fc (pas de fréquence f > fc dans l'image optique).
ii) saisie de l'image optique (2 opérations). (1) Un spot / ouverture de taille a balaye l'image optique.
(2) Durant un temps T, un élément photo sensible (photo diode / CCD ponctuel, linéaire ou
surfacique, souvent avec des registres de décalage CCD) capte l'énergie lumineuse et la transforme
en signal électrique. Le spot induit un filtrage passe bas de fréquence de coupure 1/a.
L'échantillonnage peut entraîner une perte de résolution spatiale et un repliement de spectre.
iii) conversion "analogique - numérique" de l'image saisie. Un numériseur convertit la tension
électrique (U: Volt) de chaque pixel en compte numérique (CN) codé sur un nombre prédéfini de
bits. L'image est ensuite stockée sur un support physique (CD Rom, disque dur,...) pour être
ultérieurement visualisée et analysée, en vue d'une éventuelle prise de décision.
Image analogique
Scène
Image convoluée
FTO
Image "saisie"
1
a f
fc
Système optique
f
Convertisseur (CAN)
Système de saisie
(fréquence de coupure fc)
(balayage avec ouverture
/spot de dimension a)
Image
numérique
fech
Analogique- Numérique
(échantillonnage spatial /
temporel - temps de mesure T)
Figure I.13: Chaîne d'acquisition d'image numérique.
Balayage + préfiltrage
⇒ spot
Flux
Position du spot
Photo
détecteur
Signal de
conversion
Valeur
numérique
Signal électrique
analogique
Quantificateur
Echantillonneur
Scène ou
image optique
SAISIE
CONVERSION ANALOGIQUE - NUMERIQUE
Figure I.14: Schéma de principe d'un numériseur d'image optique.
I.3.1 Création d'une image optique de la scène observée
L'obtention d'une image analogique e(x,y) dans le plan image d'un système optique est toujours
limitée, car tout système optique donne d'un point objet une image en forme de tache. Plusieurs raisons
peuvent expliquer l'apparition de cette tâche: défaut de mise au point si l'image n'est pas exactement
formée dans le plan image, aberrations chromatiques si la lumière n'est pas assez monochromatique,
aberrations géométriques si les dimensions transversales du faisceau lumineux sont trop grandes, ou
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
diffraction de la lumière par les diaphragmes* et ouvertures du système optique. Contrairement aux
aberrations géométriques, la diffraction est d'autant plus importante que les dimensions transversales
du faisceau lumineux sont petites, c'est à dire si les diaphragmes et ouvertures du système sont petits.
La diffraction est en général la contrainte la plus importante.
Analysons la diffraction d'un système optique avec une pupille d'entrée d'ouverture p(x,y) circulaire
(diamètre a). L'image d'un point source (i.e., impulsion de Dirac) monochromatique (λ) est une tache de
diffraction centrée sur le point image géométrique sur l'axe optique à une distance d de la pupille de
sortie. L'amplitude complexe de cette tache est la réponse impulsionnelle cohérente hc(x,y) du
système (Point Spread Function). Sa transformée de Fourier Hc(fx,fy) est proportionnelle à p(x,y) :
+∝ +∝
Hc(fx,fy) = F[hc(x,y)] = ⌠
⌠hc(x,y).e-j2πxfx.e-j2πyfy.dx.dy ≡ p(λ.d.fx,λ.d.fy). Le diamètre du 1er cercle noir de
⌡⌡
-∝ -∝
la tache de diffraction est
λ.d
x
y
car F-1[Hc(fx,fy)] ≡ F-1[p(λ.d.fx,λ.d.fy)] ≡ sinc(2π.a. ).sinc(2π.a. ).
a
λ.d
λd
a) Source non ponctuelle qui donne un éclairement cohérent d'amplitude complexe ec(x,y).
Le système optique est donc linéaire selon ec(x,y). L'amplitude complexe sc(x,y) du signal de sortie
+∝ +∝
étant la convolution "sc(x,y) = ec(x,y)*hc(x,y) = ⌠
⌡⌠
⌡ec(x',y').hc(x-x',y-y').dx'.dy'", les transformées de
-∝ -∝
Fourier des amplitudes complexes de l'objet Ec(fx,fy) et de son image Sc(fx,fy), où fx et fy sont des
fréquences spatiales, sont liées par: Sc(fx,fy) = Ec(fx,fy).Hc(fx,fy), où Hc(fx,fy) est la transformée de
Fourier de hc(x,y). Le terme Hc(fx,fy) est la fonction de transfert cohérente (Figure I.15) du système.
L'égalité "Hc(fx,fy) = p(λ.d.fx,λ.d.fy)" illustre que le système optique est un filtre passe bas parfait: il
ne laisse pas passer de fréquence f supérieure à sa fréquence de coupure fc. Pour une pupille de sortie
a
a
.
circulaire de diamètre a, dans l'image optique, l'on a : λ.d.fc = . Par suite fc =
2
2.λ.d
b) Source qui donne un éclairement spatialement incohérent (i.e., 2 points quelconques de la pupille
d'entrée reçoivent des vibrations sans relation de phase).
Le système optique n'est plus linéaire pour l'amplitude complexe, mais il est linéaire pour l'intensité
(i.e., carré du module d'amplitude complexe) des flux lumineux. La réponse impulsionnelle
incohérente hi(x,y) du système est le carré du module de la réponse impulsionnelle cohérente :
hi(x,y) = ||hc(x,y)||2. Les intensités de l'objet ei(x,y) et de l'image si(x,y) étant liées par la convolution
si(x,y) = hi(x,y)*ei(x,y), la relation Si(fx,fy) = Ei(fx,fy).Hi(fx,fy) lie les transformées de Fourier des
intensités de la scène et de l'image. Hi(fx,fy) = F[hi(x,y)] est la fonction de transfert incohérente
normalisée (Hi(0,0) = 1), aussi appelée fonction de transfert optique (FTO). Elle est égale à la
+∝ +∝
' '
'
'
'
'
fonction d'auto-corrélation de Hc(fx,fy), soit: Hi(fx,fy) = ⌠
⌡Hc(fx,fy).Hc(fx-fx,fy-fy).dfx.dfy. Le module
⌡⌠
-∝ -∝
de la FTO est la fonction de transfert de modulation (FTM). La diffraction fait que le système est
un filtre passe bas parfait, comme dans le cas "cohérent". La fréquence de coupure fc est double de
celle du cas "cohérent". Dans le plan objet, elle vaut G.fc, où G est le grandissement du système.
Avec une pupille de sortie circulaire de diamètre a, une pupille d'entrée de diamètre a' et une distance
a'
d a'
a
d' entre la scène et la pupille d'entrée: G.fc =
, car G = . et fc = .
d' a
λ.d'
λ.d
*
Le diaphragme d'ouverture (élément matériel ou théorique) limite la dimension transverse du faisceau lumineux qui
traverse un système optique centré à partir d'un point objet centré. La pupille d'entrée du système est son image dans le
système qui le précède et la pupille de sortie du système est son image dans le système optique qui le suit. Ces 2
pupilles sont conjuguées l'une de l'autre. Elles sont confondues si la lentille est mince.
13
14
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
y
Plan
image
y
x
d
d
a
a
Pupille de sortie
Pupille de sortie
H c(fx,fy)
H c(fx,fy)
fy
fy
fx
a
2.λ.d
H i(fx,fy)
Plan
image
x
a
2.λ.d
H i(fx,fy)
fy
fx
fy
fx
fx
a
λ.d
hi(x,y)
a
λ.d
hi(x,y)
y
y
x
x
λ.d
a
λ.d
1.22
a
Figure I.15: Fonction pupille de sortie, fonction de transfert cohérente, FTO et réponse impulsionnelle
incohérente. Pupilles de sortie carrée de coté a (gauche) et circulaire de diamètre a (droite).
La diffraction limite donc la résolution des capteurs optiques. Le critère de résolution de Lord
Rayleigh illustre ceci: "2 points sont juste séparés si leur distance dans le plan image est telle que le
centre de la tache de diffraction de l'un coïncide avec le premier cercle noir de la tache de diffraction
de l'autre". La limite de résolution ∆η d'un système optique avec une pupille d'entrée circulaire de
λ.d
λ.d'
diamètre a est donc 1.22
dans le plan image et 1.22
dans le plan objet. Pour un capteur spatial
a
a'
3
d'altitude d' = 10 km avec a' = 1m, on a : ∆η ≈ 1m si λ = 820nm et ∆η ≈ 0.5m si λ = 410nm.
Rappel sur la transformée de Fourier (Figure I.16)
Tout signal 1-D s(x) périodique de fréquence fo =
1
peut s'écrire en tant que série de Fourier:
∆x
xo+∆x
+∞
s(x) = Σ An.ej2π.n.fo.x
n=-∞
avec les coefficients de Fourier An =
1
.
∆x
-j2π.n.fo.x
.dx
⌠
⌡s(x).e
xo
+∞
Le spectre de s(x) est l'ensemble {An}. Il s'écrit aussi : S(f) = Σ An.δ(f - n.fo)
n=-∞
+∝
j2π.f.x
Avec s(x) quelconque: s(x) = ⌠
⌡S(f).e .df
-∝
+∝
et
-j2π.f.x
S(f) = F[s(x)] = ⌠
.dx (S*(f) = S(-f) si s(x) réel)
⌡s(x).e
-∝
Le spectre S(fx,fy) = F[s(x,y)] d'un signal s(x,y) est d'autant plus large que l'étendue du signal s(x,y)
est étroite. Ainsi, l'étendue du spectre d'un signal borné est infinie. Il apparaît que :
* Spectre de signal 1D: - non borné : s(x) = sinc(x) ⇔ S(f) = signal porte borné.
1
π
π
- borné: sin(x) si x ∈ [-T T] et 0 ailleurs ⇔ S(f) =
.{sinc[(ωo-ω). ]+sinc[(ωo+ω). ]}
2 ωo
ωo
ωo
- unité borné (s(x) = 1 sur ∆x = a et 0 ailleurs) : S(f) = a.sinc(π.f.a).
+∝
- unité non borné (i.e., a→∝) : S(f) = δ(f) = alim
[a.sinc(π.f.a)] avec ⌠
⌡δ(f).df = 1.
→∝
-∝
* Spectre de signal 2D: - infini borné : impulsion de Dirac δ(x,y) ⇔ S(fx,fy) = 1 ∀ (fx,fy).
- unité non borné : S(fx,fy) = δ(fx=0,fy=0) = lim a.b.sinc(π.f.a).sinc(π.f.b).
a,b→∝
15
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Toute périodicité dans un signal se manifeste par l'apparition de raies dans son spectre. Ainsi :
- le spectre d'une sinusoïde infinie d'amplitude unité et de fréquence fo est constitué de 2 raies
1
uniques centrées sur fo et -fo : S(f) = .[δ(f-fo) + δ(f+fo)].
2
- le spectre d'un signal borné de spectre A(f) répété infiniment (période ∆x) est un ensemble infini
+∞
de raies espacées de fo : S(f) = Σ A(f).δ(f - n.fo), soit A(f) échantillonné à la fréquence fo = 1/∆x.
n=-∞
Les 2 principales fonctions d'échantillonnage d'images sont :
1
i
)
∆x
+∞ +∞
+∞ +∞ 1 1
i
j
- Fonction 2-D : brosse Σ Σ δ(x - i.∆x,y - j.∆y) de pas (∆x, ∆y). S(fx,fy) = Σ Σ
. .δ(fx - ,fy - )
i=-∞ j=-∞
i=-∞ j=-∞ ∆x ∆y
∆x ∆y
+∞
+∞
i=-∞
i=-∞ ∆x
- Fonction 1-D : peigne Σ δ(x - i.∆x) de pas ∆x. Transformée de Fourier S(fx) = Σ
.δ(fx -
Figure I.16: Spectres de Fourier. a) Petit disque. b) Segment. c) Mire parfaite. d) Grillage. e) Brosse.
I.3.2 Balayage de l'image
a.) Principe
La saisie d'image transforme l'image optique en un équivalent électrique. Pour cela, un capteur d'image
(i.e., photo détecteur ponctuel / linéaire / surfacique) est couplé à un système qui balaye l'image optique
en faisant "glisser" sur toute celle-ci une ouverture d'analyse (spot de mesure) o(x,y). Le déplacement
du spot selon X et Y peut être mécanique, électronique ou mixte. Les détails plus fins que le spot o(x,y)
tendent à disparaître : c'est un filtrage passe-bas, car le spot ne peut être infiniment petit. Il y a coupure
ou au moins forte atténuation des fréquences spatiales supérieures à l'inverse de la dimension du spot.
Le balayage d'une image par une ouverture diminue le contraste (Figure I.17). En fait, il peut même
inverser localement ce contraste pour certaines dimensions de l'ouverture. Ceci peut survenir lors de
l'observation d'une mire périodique par une ouverture carrée de dimensions croissantes.
De même que le système optique, le système de balayage est caractérisé par :
- une réponse impulsionnelle h(x,y) égale à sa réponse à une impulsion de Dirac. La réponse
impulsionnelle h(x,y) est la fonction ouverture retournée : h(x,y) = o(-x,-y).
- une fonction de transfert H(fx,fy) égale à la transformée de Fourier de la réponse impulsionnelle
(i.e., H(fx,fy) = F[h(x,y)]).
L'analyse de l'image analogique avec un spot est la convolution de l'image par la réponse
impulsionnelle h(x,y) du système :
+∝ +∝
s(x,y) = e(x,y)*h(x,y) = ⌠
⌡⌠
⌡e(x',y').h(x-x',y-y').dx'.dy'
-∝ -∝
Exemple de balayage : soit un signal d'entrée mono dimensionnel e(x) qui correspond à un trait de
largeur l (Figure I.17). Le balayage est réalisé avec une ouverture rectangulaire représentée par une
a a
fonction porte o(x) de largeur a (i.e., o(x)=1 si s∈[] et o(x)=0 ailleurs). Le signal issu de ce
2 2
balayage est la convolution de l'entrée e(x) par la réponse impulsionnelle o(-x):
+∝
s(x) = e(x)*o(-x) = ⌠
⌡e(x').o(x'-x).dx'. Le trait de l'image optique est donc élargi dans l'image saisie.
-∝
16
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
e(x)
a)
l
-
l
2
1
o(x)
a
b)
l
2
0
-
a
2
x
1
0
a
2
x
o(x-x o )
1
c)
x
e)
Flux lu m ineux recueilli : s(x) = e(x)*o(-x)
0
xo
x
e(x).o(x-x o )
1
d)
s(x o )
0
xo
x
Figure I.17: Balayage d'un trait blanc de largeur l par une ouverture carrée de côté a<l.
a) Trait lumineux. b) Ouverture o(x). c) Ouverture en xo. d) Signal de sortie avec
ouverture centrée sur xo. e) Flux lumineux reçu à travers l'ouverture selon la position x.
Par suite : S(fx,fy) = H(fx,fy).E(fx,fy) où E(fx,fy) = F[e(x,y)]. Dans le cas 1-D "e(x) = cos(2π.fo.x)", on a :
s(x) = ||H(fo)||.cos(2π.fo.x-Φ(fo)) où Φ(fo) = -arg[H(fo)]. L'ouverture o(x,y) ayant une dimension finie
a, H(fx,fy) décroît aux hautes fréquences, plus ou moins comme la fonction a.sinc(π.f.a) : son
domaine fréquentiel est limité. Le système de balayage est donc un "filtre passe bas" avec une
1
fréquence de coupure fc de l'ordre de . Les 3 types d'ouvertures les plus fréquents sont (Figure I.18) :
a
- ouverture rectangulaire de côtés a et b (e.g., capteurs CCD). H(fx,fy) est le produit de sinus
1
1
cardinaux "sinc(π.fx.a).sinc(π.fy.b)" avec fc,x = et fc,y = .
a
b
- ouverture circulaire de diamètre a (e.g., microdensitomètres). H(fx,fy) est une fonction de Bessel de
1.22
.
révolution avec fc =
a
- ouverture gaussienne d'écart type a/2 (e.g., spot électronique de balayage d'un tube vidicon).
1
0.9
avec fc ≈ .
H(fx,fy) est une gaussienne d'écart type
a
π.a
1
x
y
b
2
a
2
x
y
1
b
1.22
a
fx
y
H(fx,fy)
1
fy
1
e
a
2
x
H(fx,fy)
ab
1
a
1
1
a
2
H(fx,fy)
fx
h(x,y)
h(x,y)
h(x,y)
1
1
e
fy
1.22
a
fy
fx
1
π.a
Figure I.18: Réponses impulsionnelles (haut) et fonctions de transfert normalisées (bas).
Systèmes à ouverture (a) rectangulaire avec transmission constante,
(b) circulaire avec transmission constante, (c) gaussienne d'écart type a/2.
b.) Les 4 systèmes de balayage
i) Numériseurs à balayage en sortie (Figure I.19)
La scène observée est en général fixe et totalement éclairée avec un éclairage incohérent. Un
montage optique en forme une image optique sur laquelle se déplace ligne après ligne une ouverture
17
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
d'analyse. Cette ouverture correspond souvent à la surface d'un élément photosensible. Ramené à
l'objet d'entrée, le spot de mesure est la partie de la scène dont l'image est l'ouverture.
- Photodétecteur surfacique. Le balayage est électronique en X et Y. On distingue deux grands types.
(1) Les photo détecteurs à tube (e.g., caméra à tube vidicon). L'image est formée à la surface du tube
sur une couche photoconductrice qui constitue un petit condensateur photoélectrique en tout point.
Chaque condensateur est rechargé à une valeur initiale négative ligne par ligne (e.g., 25 lignes / s)
par le balayage d'un faisceau d'électrons issus d'une cathode chauffée. Il se décharge plus ou moins
quand il est éclairé, ce qui crée un courant local de photoconduction. L'ouverture est la petite zone
définie sur la cible par le faisceau d'électrons de balayage.
(2) Les photo détecteurs surfaciques intégrés (e.g., caméra CCD). L'image est formée sur la matrice
des photosites, et l'ouverture est constituée par le photosite actif.
- Photodétecteur linéique (barrette). Le balayage est électronique selon la direction du détecteur
(barrette) et mécanique selon la direction perpendiculaire.
- Photodétecteur ponctuel. Le balayage de l'objet et/ou du détecteur est mécanique en X et Y avec une
image formée sur la surface sensible du détecteur. Ce principe a été peu utilisé (e.g., micro
densitomètres à une seule fente de sortie). Dans l'exemple donné, l'objet se déplace alors que le
système optique et les détecteurs sont fixes. Le détecteur recueille la lumière qui a traversé la fente,
après avoir traversé la partie de l'objet dont l'image donnée par le microscope est la fente.
Tube vidicon
Objectif
Balayage du spot d'analyse
Scène
observée
Cible photo
conductrice
Faisceau d'électrons
(balayage ligne par ligne)
Image
Zone image du CCD
Objectif
Scène
observée
Photosite actif
Objectif
Scène
observée
Source
Barrette de CCD
Déplacement
de la barrette
Microscope d'analyse
Faisceau
d'éclairage
Objet mobile
(balayage mécanique)
Image
Image
Faisceau d'analyse
PM
Spot de mesures
Fente d'analyse
Image
Figure I.19 : Exemples de systèmes d'acquisition d'image à balayage de sortie.
a) Caméra à tube vidicon. b) Caméra CCD. c) Barrette CCD. c) Micro densitomètre à une fente de sortie.
ii) Numériseurs à balayage en entrée (Figure I.20)
L'objet observé est balayé ligne après ligne par un fin pinceau d'éclairage (cohérent ou incohérent). La
lumière transmise ou réfléchie dans toutes les directions par la petite partie éclairée est recueillie par
un collecteur de lumière et focalisée sur un photo détecteur ponctuel. L'angle de collection est le plus
18
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
grand possible pour éviter qu'il y ait trop de lumière diffusée en dehors du collecteur. Dans un tel
dispositif, le spot de mesure se confond avec le spot d'éclairage. Le balayage peut être :
- mécanique (systèmes lents) : cas des analyseurs à laser où un pinceau laser défléchi balaye l'objet
fixe, et des micro densitomètres à une seule fente d'entrée où le spot est l'image réduite de la fente
donnée par un microscope d'éclairage fonctionnant à "l'envers", c'est à dire en réducteur (le spot
d'éclairage est fixe et l'objet mobile).
- électronique (systèmes rapides) : l'exemple type est l'analyseur "flying spot" où l'objet fixe (négatif
ou diapositive) est balayé par une fine tache lumineuse qui est l'image à travers un condenseur du
spot d'un écran cathodique. Le balayage se fait donc au rythme vidéo du tube. Ce système n'est plus
guère utilisé à cause des défauts d'inhomogénéité et de distorsion causés par le tube.
C ollecteur de lu m ière
Spot d'éclairage
PM
Scène
o bservée
P inceau d 'éclairage
m obile
M icroscop e d'éclairage
O bjet
m obile
Fente d 'éclairage
C o llecteur d e
lu m ière
Source
PM
Spot d'éclairage
B obines d e
d éflexio n
Spo t d e
l'écran
C ollecteur de
lum ière
C liché
fixe
C ondenseur
PM
T ube cathodique
F lying spo t
Figure I.20 : Systèmes d'acquisition d'image à balayage d'entrée.
a) Principe. b) Micro densitomètre à une fente d'entrée. c) Flying spot.
iii) Numériseurs à double balayage entrée-sortie
Les spots d'éclairage et d'analyse sont fixes l'un par rapport à l'autre. Ce couplage des 2 balayages est
en général assuré par le déplacement de l'objet, avec des pinceaux d'éclairage et de mesure fixes.
Spot d'éclairage
Pinceau de mesure
Pinceau d'éclairage
O ptique
Objet
mobile
PM
Optique
Spot de mesure
M icroscope d'éclairage
Fente
d'éclairage
M icroscope d'analyse
Objet
mobile
Fente
d'analyse
Source
PM
Spot d'éclairage
Figure I.21: Systèmes d'acquisition d'image à balayage entrée-sortie.
a) Principe. b) Micro densitomètre à fentes conjuguées.
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Ces systèmes fournissent la meilleure qualité photométrique. Cependant, ils sont lents, car le
déplacement de l'objet est nécessairement mécanique. L'objet peut se déplacer selon les directions X et
Y ou alors selon une seule direction. Dans ce dernier cas, le système optique se déplace selon l'autre
direction. Il existe aussi des dispositifs à cylindre rotatif. Pendant que le cylindre tourne, l'ensemble
source détecteur se déplace parallèlement à son axe, de manière continue ou pas à pas.
iv) Numériseurs à balayage mixte
Le balayage selon Y est mécanique en déplaçant l'objet ou le tube d'éclairage, alors que le balayage en
X est électronique à partir des photo éléments de la barrette. Ce dispositif est un bon compromis
"précision - rapidité" pour de nombreuses applications (scanners). Pour la numérisation en couleurs, il
est nécessaire d'éclairer le document avec les 3 couleurs de base: bleu, vert et rouge. Le système le
plus rapide utilise 3 barrettes CCD avec des revêtements qui filtrent le bleu, le vert et le rouge.
Bande d'éclairage
Bande de mesure
Tube
d'éclairage
Objet
mobile
X
Photodétecteur
linéique
Y
Figure I.22: Principe des systèmes d'acquisition d'image à balayage mixte.
I.3.3 La photodétection
Le flux lumineux associé au spot/ouverture est incident sur un ou plusieurs photodétecteurs (éléments
photosensibles) ponctuels, linéiques ou surfaciques. Ces photoéléments traduisent le flux lumineux en
un signal électrique (i.e., courant ou tension) du à l'accumulation de photocharges ou à l'intégration d'un
photocourant durant un temps fini. Ce signal est proportionnel au flux si le détecteur est linéaire.
a.) Détecteurs ponctuels
• Détecteurs thermiques : le flux lumineux absorbé est transformé en chaleur.
- Bolomètres : leur signal de sortie (courant ou tension) dépend du flux lumineux absorbé, car
celui-ci affecte la température et donc la conductivité électrique du détecteur. Ce principe est
aussi utilisé pour les sondes à résistances basées sur le principe du pont de Wheatstone. Les
bolomètres sont lents (constante de temps τ ≈ 10-1 à 10-3 s). Le bruit (Noise Equivalent Power:
N.E.P) d'une surface de quelques mm2 est ≈ 10-9 W sans refroidissement (≈ 10-14 W à T=2K).
+v
Courant i
Lumière
R
di
Signal
R'
Rc
-v
Figure I.23: Bolomètre
- Détecteurs pyroélectriques : ils sont constitués de lames cristallines qui lors d'un échauffement
donnent des charges électriques de surface q. Le signal électrique est proportionnel à dq/dT où T
est la température. Ces détecteurs peuvent produire des images infrarouges en bande large (2 à
35 µm), sans refroidissement. Avec une surface de quelques mm2, le NEP est ≈ 10-10 W, ce qui est
très supérieur au NEP des détecteurs quantiques.
- Thermopiles : elles sont constituées par de nombreux thermocouples montés en série qui donnent
une force électromotrice par effet thermoélectrique. Les soudures froides sont maintenues à
température constante par contact avec une masse à inertie thermique importante. Le fait de
mettre les autres soudures à une autre température donne à une tension aux bornes du circuit. Ces
19
20
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
détecteurs ne requièrent presque pas d'énergie. Ils sont utilisés à bord des satellites. Ils ont une
meilleure dynamique (≈ -250°C à 3000°C) que les sondes à résistance (≈ -200°C à 850°C)
- Détecteurs pneumatiques : un gaz fermé par une membrane absorbe un flux lumineux, ce qui
modifie sa pression. La déformation de la membrane est mesurée par contrôle interférentiel ou
par mesure de capacité électrostatique si la membrane est une électrode de condensateur.
• Détecteurs quantiques : mesure de l'excitation directe de ses particules par les photons incidents.
Ces détecteurs sont très intéressants malgré trois contraintes majeures. (1) Certains photons non
absorbés sont perdus. (2) Un électron excité peut retourner au repos au sein de l'aire sensible
(recombinaison "électron - trou", etc.). (3) Un photon doit posséder une énergie minimale pour
pouvoir exciter les électrons du matériau du récepteur. Le domaine spectral de fonctionnement
dépend du matériau utilisé: silicium (Si: 0.5 - 1.1µm), germanium (Ge: 0.8 - 1.8µm), arséniure
d'indium (InAs: 1.5 - 3.5µm), PbS (1.3 - 3µm), PbSe (2 - 5µm), antimoniure d'indium (InSb: 3 5.5µm) et tellurure de cadnium-mercure (Te-Cd-Hg: 2 - 14µm).
- Détecteurs photo-émissifs : le signal est la mesure d'électrons arrachés d'un solide par effet
combiné des photons incidents et d'une polarisation statique. L'efficacité quantique (nombre
d'électrons arrachés / nombre de photons incidents) dépend de l'énergie d'extraction (i.e., énergie
pour que les électrons passent du matériau au vide/air). Les photomultiplicateurs améliorent cette
efficacité. Ils opèrent de l'ultraviolet jusqu'à 1µm. Etant constitués d'électrodes (dynodes) en série
sous très haute tension croissante, les photomultiplicateurs multiplient les électrons initialement
arrachés par photo détection au cours de leur passage d'une dynode à la suivante. Ils peuvent être
très petits (20µm) si le tube fait office de dynode, ce qui permet alors leur emploi dans les
équipements intensificateurs d'images (micro canaux).
photons
Photocathode
-
i
+
Anode
500V
Photocathode
100V
300V
électrons
Anode
600V
v
photons
électrons
400V
200V
Figure I.24: Cellule photoémissive (gauche) et photomultiplicateur (droite)
- Détecteurs photoconducteurs : le signal correspond à la mesure de la conductivité d'un semi
conducteur homogène (i.e., pas de jonction), sachant que cette conductivité varie avec la création
d'électrons semi-libres par absorption de rayonnement incident. La conductivité est mesurée en
faisant passer un courant dans le semi conducteur au moyen d'une source externe. Le principe de
fonctionnement des photoconducteurs limite leur sensibilité : l'absorption de photons crée des
paires "électrons - trous" qui peuvent se recombiner.
- Détecteurs photovoltaïques : le signal est un courant qui dépend du flux de photons incident sur
la jonction à l'intérieur d'un semi-conducteur inhomogène. En effet, la création d'électrons et de
trous par absorption de photons modifie la barrière de potentiel de la jonction. Les détecteurs
photovoltaïques peuvent fournir un signal en l'absence de polarisation (photopiles) : l'extrémité
de la région (p) devient positive et l'extrémité de la région (n) devient négative.
Avec une polarisation de la jonction en inverse, le détecteur fonctionne en photodiode. Le
courant est alors une fonction quasi linéaire du flux lumineux Φ. Le phototransistor combine
l'effet photodiode et l'amplification de courant qui caractérise un transistor.
Les détecteurs photovoltaïques ont une limite de bruit inférieure à celle des photoconducteurs. En
effet, le champ électrique local fait diffuser les porteurs de charge (électrons et trous) vers des
régions opposées, ce qui empêche leur recombinaison et réduit le bruit associé à ce phénomène.
21
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Rappels de physique du solide (Figure I.25)
Un semi-conducteur extrinsèque est un semi-conducteur où des impuretés ont été ajoutées.
Il est dit de type (n) si la valence des impuretés dépasse celle du semi-conducteur. Un
niveau intermédiaire (niveau des donneurs d'électrons) apparaît alors près de la bande de
conduction : les électrons passent plus facilement de ce niveau à la bande de conduction
que depuis la bande de valence. Ceci donne une conduction dite par électrons.
Inversement, si la valence des impuretés est inférieure à celle du semi-conducteur, le semiconducteur est dit de type (p). Un niveau intermédiaire (niveau des accepteurs d'électrons)
apparaît près de la bande de valence. Les électrons passent alors plus facilement de la
bande de valence à ce niveau intermédiaire que vers la bande de conduction. La bande de
valence n'est alors plus saturée et il y a une conduction dite par "trous" (manque
d'électrons). Un semi-conducteur intrinsèque est en général constitué de silicium ou de
germanium (valence 4), alors que les donneurs sont des atomes pentavalents (P, As, Sb) et
les accepteurs des atomes trivalents (B, Al, In, Ga).
Bande de conduction
hν
hν
Bande de valence
Bande de conduction
Bande de conduction
hν
Bande de valence
Niveau de Fermi
Niveau intermédiaire
du à des impuretés
Bande de valence
Semi-conducteur (n)
Semi-conducteur (p)
Figure I.25: Semi-conducteurs intrinsèque et extrinsèque.
B ande de conduction
(p)
T ension V
E c,p
hν
E c,n
hν
⊕
(p) ⊕
⊕
(n)
E v,p
Jonction (n-p) isolée
E v,n
B ande de valence
(n)
Jonction polarisée
i (µA)
i
V
0.1
-7 -6 -5 -4 -3 -2 -1
Φ=0
R
U
40
60
80
Flux lumineux
croissants Φ
U
0.2
V(volts)
20
V U
i = -R + R
100
U
R
Figure I.26: Diode.
Haut: jonction non polarisée avec une accumulation de charges positives et négatives aux
extrémités des zones (p) et (n), respectivement.
V
k.T
tension
Bas: jonction polarisée dans un circuit. Courant i = io.exp[ ] - io + iph avec Vo =
Vo
e
caractéristique (e : charge de l'électron), io courant d'obscurité et iph courant
photoélectrique quasi proportionnel au flux lumineux Φ. V < 0 ⇒ i ≈ iph
b) Photodétecteurs linéiques
Ce sont des barrettes de photodiodes ou de photo capacités MOS (Metal Oxyde Semi-conductor) qui
fonctionnent en mode "stockage de charges" (Figure I.27). Les photo éléments sont reliés, via un
interrupteur MOS, à un registre à transfert de charges, appelé CCD, qui met en série les charges
recueillies par chaque photo élément. Toutes les cellules de ce registre sont chargées simultanément.
Le passage des charges d'une cellule à la suivante est commandé par des signaux qui gèrent les puits
de potentiel des cellules. A leur sortie du registre, les charges sont converties en tension. Pour les
systèmes à photodiodes, le dispositif de sérialisation peut être un registre à décalage numérique qui
commande successivement la fermeture des interrupteurs. Un ampli opérationnel peut alors convertir
le photo courant des photodiodes en une tension de sortie. Les systèmes à photo capacité sont moins
22
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
sensibles que ceux à photodiodes, surtout dans le bleu, mais leur charge maximale admissible est
supérieure. Divers bruits affectent la mesure : courant d'obscurité des photo éléments, courants de
fuite des interrupteurs MOS et du registre CCD, rémanence pour les photodiodes, etc. Ainsi, pour
supporter des temps de pose longs, le récepteur doit être refroidi (e.g., ≈ -100°) pour éliminer tout
bruit généré par le mouvement brownien des atomes dans le récepteur.
Signaux de décalage
du registre
Q
Registre CCD
Signaux de charge
du registre
U
Conversion
"Charge - Tension"
Interrupteurs MOS
Barrette de photodiodes
Tension positive
Figure I.27: Barrette de photodiodes avec registre à transfert de charges (CCD). Marion (1997)
Les photodiodes sont reliées à des capacités, puis à un registre à décalage par
l’intermédiaire d’interrupteurs. Durant le temps d’intégration, les interrupteurs sont
ouverts et le flux lumineux reçu sur chaque photodiode crée un courant qui charge une
capacité. Ensuite, les interrupteurs se ferment et la charge est transmise au registre à
décalage, puis les interrupteurs s’ouvrent et une nouvelle période d’intégration démarre.
b) Photodétecteurs surfaciques
A partir de l'image optique de la scène observée, ils créent une répartition de charges électriques qui
est la transposition électrostatique de la répartition spatiale de l'éclairement à l'entrée du système
optique. Il existe 2 technologies d'analyse de la répartition des charges électriques : les capteurs à
tube (e.g., tubes vidicon), et les capteurs intégrés (e.g., matrices CCD).
Pour les capteurs intégrés, l'élément photo sensible et tous les circuits utiles au transfert de charges et
à leur conversion en tension sont sur une même pastille de semi-conducteur. De par leur structure,
ces capteurs réalisent donc un échantillonnage spatial : une matrice de photo détecteurs recueille
l'énergie lumineuse et transfère les signaux de sortie à un registre CCD horizontal. Les trois
principaux dispositifs de transfert sont :
- Transfert de trame (Figure I.28). La zone image (MOS) est distincte de la zone mémoire (MOS).
- Transfert interligne. Les zones image (MOS ou photodiode) et mémoire (MOS) sont imbriquées.
- Pleine trame. La zone image et la zone mémoire sont confondues.
Com mande
du registre
Registre CCD
horizontal
Zone m émoire aveugle
- registres CCD verticaux -
Stockage d'une tram e
dans la zone im age
+
Lecture de la zone
aveugle
Transfert de trame
"zone éclairée →
zone aveugle"
20ms
1ms
Comm andes
des registres
verticaux
Zone im age éclairée
- registres CCD verticaux -
Figure I.28: Dispositif CCD à transfert de trame. a.) Principe. b.) Diagramme temporel.
23
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
I.3.4 Conversion "Analogique - Numérique"
Un dispositif électronique appelé "convertisseur analogique - numérique (CAN)" convertit l'image
saisie en une matrice de comptes numériques (i.e., image numérique), en général des entiers. Le signal
de conversion "analogique - numérique" doit être fourni au bon moment au CAN, c'est à dire pour une
position bien définie du spot. La position du spot peut être connue grâce à :
- un dispositif mécanique ou optique de codage de position. Ainsi, les micro densitomètres de
précision ont des règles optiques qui donnent la position des points d'échantillonnage en X et Y.
- une horloge qui délivre des tops à intervalles réguliers. Ceci est le cas des systèmes vidéo où la
vitesse de déplacement du spot est connue. Pour les numériseurs à capteurs discrets (e.g., CCD),
les tops d'horloge peuvent être synchronisés avec les signaux de commande du registre de lecture.
Le CAN réalise en général 2 opérations complémentaires simultanées: échantillonnage et quantification.
i) Echantillonnage:
De par leur arrangement, les photo éléments réalisent un échantillonnage spatial fe d'une ligne image
e(x) (spectre utile E(f), fréquence maximale fmax). Le signal échantillonné ee(x) est le produit de e(x)
i=+∞
par le peigne Σ δ(x - i.∆x) de pas ∆x. Son spectre Ee(f) est donc la convolution de E(f) et du spectre
i=-∞
1
1 i=+∞
i
. Σ E(f - ). Au facteur
près, Ee(f) est la répétition de motifs
∆x
∆x i=-∞
∆x
1
de E(f) translatés, avec pour période la fréquence d'échantillonnage fe = (Figure I.29). Si E(f) est
∆x
borné (i.e., E(f) = 0 si |f| > fmax) et si fe est assez élevée, les motifs de E(f) ne se chevauchent pas.
P(f) du peigne : Ee(f) = E(f)*P(f) =
Le filtrage de Ee(f) par un filtre passe bas de fréquence de coupure supérieure ou égale à fmax donne
alors le spectre E(f), ce qui en théorie permet de retrouver le signal original e(x). Par contre, si fe est
trop faible (i.e., condition de Shannon (fe ≥ 2.fmax) non respectée), les motifs successifs de E(f) qui
constituent Ee(f) se chevauchent dans certains domaines fréquentiels où Ee(f) est la somme de portions
de E(f). Ce phénomène (Figure I.30), appelé "repliement de spectre" ou "aliasing" dans la
terminologie anglaise, empêche de reconstituer exactement le spectre du signal d'origine avec un
simple filtre passe bas. Il dégrade donc le rapport S/B. Ceci explique que l'échantillonnage du signal
est souvent précédé par un filtrage des hautes fréquences spatiales de l'image "électrique".
E(f)
E(f)
1
1
f
f
fmax
P(f)
fmax
P(f)
fe
fe
-2.fe
0
-fe
Ee(f)
-2.fe
-fe
fe
2.fe
f
-2.fe
-fe
fe
2.fe
fe
2.fe
f
Ee(f)
fe
0
0
fe
fe
2.fe
f
-2.fe
-fe
0
f
Figure I.29: Echantillonnage d'un signal 1-D à spectre borné.
Respect (gauche) et non respect de la condition de Shannon (droite).
Un spectre E(f) d'image n'est jamais borné, car :
- l'image analogique est à support borné,
- les divers bruits du système d'acquisition ont un spectre non borné.
- le spot d'analyse ne peut correspondre à un filtre passe bas parfait (h(f) = 0 si |f| > fc,spot et h(f) = 1 si
|f| < fc,spot). Il affaiblit les fréquences inférieures à fc,spot, ce qui diminue la résolution. Cette
diminution est d'autant plus réduite que la fréquence de coupure fc,spot du spot est élevée (i.e.,
petit spot). Le problème est que l'augmentation de fc,spot tend à augmenter le repliement de
spectre. Idéalement, il faudrait échantillonner l'image avec une fréquence fe ≥ 2.fc,spot. En fait, un sur
échantillonnage coûte souvent cher en terme de temps calcul, de volume mémoire, etc. Le choix
fe = fc,spot est un compromis souvent choisi. Les pixels d'analyse sont alors jointifs.
24
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Figure I.30: Echantillonnage. Image sans (gauche) et avec repliement de spectre (droite).
Remarque : Si l'image est balayée ligne par ligne avec un spot en mouvement continu (e.g., caméra
à tube vidicon), un léger filtrage passe bas survient dans le sens des lignes. Cet effet de "bougé
horizontal" n'existe pas avec les capteurs fixes à photo éléments discrets comme les capteurs
matriciels. Il est en général négligeable devant le filtrage spatial du à la taille du spot.
Filtre parfait
théorique
Fe(f)
F(f+fe)
Fe(f)
Filtre réel
F(f)
F(f-fe)
Information due à
F(f+fe) et F(f-fe)
F(f) filtré
F(f) non filtré
0
fo =
fe
2
f
f
0
fo
fc,spot
1
est la taille du plus petit détail pertinent de la ligne image e(x).
fo
(a) Préfiltre parfait: H(f) ≈ 1 pour f ∈ [0 fe/2] et H(f) ≈ 0 pour f > fe/2. (b) Préfiltre réel:
affaiblissement des fréquences f < fo et non arrêt des fréquences f entre fo et fc,spot. Les pixels
dépendent alors les uns des autres. Il y a perte de résolution : les fréquences entre fo et fc,spot
induisent un aliasing qui empêche la reconstitution parfaite du signal original e(x).
Figure I.31: Echantillonnage fe = 2fo, où
ii) Quantification: les valeurs des pixels sont numérisées (codées) selon un nombre de niveaux de
codage (niveaux de quantification) qui dépend du CAN. Ainsi, un CAN à 8 bits peut fournir 256
valeurs différentes. Les valeurs associées aux comptes numériques maximum et minimum possibles
dépendent non seulement du nombre de niveaux de codage, mais aussi du fait que les niveaux de
quantification dépendent ou non de l'intensité des pixels de l'image :
- niveaux indépendants. Le codage peut être plus ou moins complexe. Ainsi, il peut être linéaire
pour que les différences entre comptes numériques soient toujours proportionnelles à des
différences d'intensité, ou bien logarithmique pour correspondre à la réponse logarithmique de
l'œil avec l'intensité lumineuse. Le codage logarithmique est utilisé par les scanners. Ainsi, la
précision d'un codage logarithmique avec 6 bits de quantification est équivalente à celle d'un
codage linéaire avec 8 bits de quantification.
- niveaux dépendants. Ils peuvent dépendre de la loi de répartition réelle des intensités ou bien
d'une loi de répartition donnée a priori. La minimisation de l'erreur quadratique due à la
quantification conduit à utiliser la technique de l'égalisation de l'histogramme : les intervalles
numériques retenus correspondent à des proportions égales de pixels. Cette technique, combinée
au codage logarithmique, permet de n'employer que 4-5 bits de quantification avec les scanners.
25
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Valeur
numérique
Valeur numérique
Codage linéaire
Histogramme
cumulé de l'image
Codage
logarithmique
Signal analogique
Signal analogique
Figure I.32: Quantification. Indépendante (a) et dépendante (b) des intensités de l'image.
L'opération de quantification entraîne un bruit dit de quantification qui s'ajoute aux autres bruits de
la chaîne d'acquisition. En dehors de l'impact des caractéristiques photométriques et géométriques du
capteur, le rapport S/B du système dépend surtout des principaux types de bruits suivants :
- le bruit de détection, d'écart type σD.
- le bruit électronique, d'écart type σE. Il est généralement faible.
- le bruit de quantification, d'écart type σQ. Si l'on a un pas ∆ de quantification constant : σQ ≈
Ces bruits étant non corrélés, l'écart type du bruit total est σBRUIT =
2
2
∆
.
3.5
2
σD + σE + σQ.
En général, le bruit de quantification est prépondérant aux faibles flux et le bruit de détection est
prépondérant aux flux élevés et moyens. Par rapport à un numériseur parfait sans bruit de
quantification, le bruit de quantification peut augmenter ou diminuer les différences entre les niveaux
de sortie. L'augmentation de ces différences peut accentuer le phénomène de Mach (Figure I.33): la
réponse de l'œil à un échelon de luminance (e.g., variation locale des comptes numériques d'une
image) présente un rebond sombre du côté sombre et un rebond clair du côté clair.
Le choix du pas de quantification ∆ conditionne le volume d'information. A priori, plus le pas est
petit et plus l'information est préservée. Cependant, le choix d'un très petit pas augmente le volume
mémoire. Celui-ci peut être réduit s'il est employé des pas de quantification non équidistants.
Figure I.33: Défauts de la vision humaine
a)
a) Phénomène de Mach.
b) Les 2 bandes grises qui encadrent la bande
noire ne se distinguent pas ou peu, alors que ce
sont les bandes No2 et No3 de a).
b)
I.3.5 Fonction de transfert et bruit instrumental
Les paragraphes précédents montrent que la réponse impulsionnelle h(u,v) des capteurs optiques
s'explique par la mise en cascade de trois filtres linéaires nécessaires pour réaliser l'acquisition :
- un système optique. Ce système est en général limité par la diffraction. Dans le cas usuel d'un
éclairement incohérent, sa fonction de transfert (FTO) a une fréquence de coupure nette fc.
- une ouverture de balayage. Sa fonction de transfert a une fréquence de coupure f'c.
- un temps d'intégration te. L'électronique (photo détecteur, éventuel amplificateur avant le CAN, etc.)
se comporte comme un système intégrateur avec un temps d'intégration te (i.e., fréquence de coupure
temporelle 1/te). Ce filtrage n'existe pas avec un capteur d'image discret et immobile.
La fonction de transfert globale du dispositif est le produit des fonctions de transfert précédentes, dans
le domaine des fréquences spatiales, dans le plan objet (x,y) ou image (u,v). Pour la plupart des
capteurs (caméra, micro densitomètre, etc.), la fonction de transfert globale est surtout due au spot de
mesure (ouverture d'analyse). Par contre, pour les microscopes, la FTO n'est plus à négliger.
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Des exemples sont donnés ci-dessous pour le cas particulier du capteur satellitaire SPOT.
• Fonction de transfert optique
Elle est surtout due à la diffraction. Elle est bi-dimensionnelle et ne dépend que de la fréquence
2 2
spatiale f= fx+fy si le système est de révolution. Elle décroît régulièrement avec la fréquence et
a'
s'annule à la fréquence dite de coupure fc =
où a' est le diamètre de la pupille d'entrée du système
λ.d'
optique et d' la distance entre cette pupille et la scène observée. La période de coupure dans la scène
λ.d'
(≈ meilleure résolution spatiale possible) est Lc =
. Etant proportionnelle à la longueur d'onde, Lc
a'
est 20 fois plus élevée dans l'infrarouge à 10µm que dans le visible à 0.5µm. Pour un capteur spatial
qui opère dans le visible et l'infrarouge, la résolution ∆r associée à l'IFOV (Instantaneous Field of
View) est donc en général meilleure dans le visible que dans l'infrarouge (e.g., Météosat). L'impact
de l'optique sur la fonction de transfert globale est minime si a' est tel que Lc << ∆r. Ainsi, pour SPOT
XS (d' ≈ 830km, a'≈ 30cm, ∆r = 20m) : Lc ≈ 1.6m pour λ = 0.6µm.
La réponse impulsionnelle du système optique est élargie par des phénomènes autres que la
diffraction. Il s'agit surtout des aberrations géométriques (i.e., dépendance du point image de
convergence des rayons selon leur angle d'incidence par rapport à l'axe optique), du chromatisme
(i.e., dépendance du point image de convergence des rayons selon leur longueur d'onde), et de la
défocalisation (déplacement du plan focal physique par rapport à sa position idéale), etc.
• Intégration spatiale du signal
Un système d'analyse de dimension a se comporte comme un filtre passe-bas de fréquence de
coupure fc = 1/a. Ainsi, l'intégration spatiale sur un détecteur de dimension (∆u,∆v) par une optique
de distance focale F est une convolution par la réponse impulsionnelle h(x,y) qui idéalement est :
d'
d'
d'
d'
- une fonction constante sur un pavé de dimensions au sol [(-∆u. , ∆u. ) et (-∆v. , ∆v. )]
2F
2F
2F
2F
- une fonction nulle à l'extérieur de ce pavé.
F
F
d'
d'
La fonction de transfert associée est : H(fx,fy) = sinc(π.fx.∆u. ).sinc(π.fy.∆v. ) où fc,x =
et fc,y =
F
F
d'.∆u
d'.∆v
Si fc,image est la fréquence correspondant au plus petit détail significatif de l'image (inverse de la
dimension de ce détail), ∆u et ∆v doivent être tels que fc > fc,image. La période de coupure au sol du
1 d'.∆u
capteur SPOT P (∆u = ∆v = 13µm, F ≈ 2m, d' ≈ 830km) est Lc =
=
≈ 5.4m.
F
fc,x
• Intégration temporelle du signal
Le temps te est inférieur ou égal à la période T d'acquisition des mesures. Le déplacement du spot
crée un effet de bougé, comme lors du déplacement d'un appareil photo ou d'un objet photographié.
La fonction de transfert de l'électronique dépend donc du temps te, de la vitesse v du spot par rapport
au paysage et du grandissement du système optique. L'effet de bougé survient selon les colonnes
image lors d'une acquisition par une barrette (e.g., SPOT) en mouvement et selon les lignes si le spot
d'analyse se déplace le long des lignes (e.g., Landsat). La réponse impulsionnelle est donc 1-D. Elle
te te
est constante sur [-v. v. ] et nulle au-delà. Sa fonction de transfert est : H(f) = sinc(π.v.te.f) où f est
2 2
1
fx ou fy. On a : fc = . Pour SPOT XS (∆r = 20m) : Le = v.te = 20m et fc ≈ 0.05m-1.
v.te
I.3.6 Mesure et rayonnement
Les images acquises par les capteurs radiométriques sont en général fournies aux utilisateurs sous
forme de comptes numériques. Leur interprétation peut nécessiter de convertir leurs comptes
numériques en quantités radiométriques (e.g., luminance spectrale Lλ : W.m-2.sr-1.µm-1). Ceci est
réalisé avec une relation de conversion. Cette relation peut être établie avec les caractéristiques de
chaque élément de la chaîne de mesures. Cet établissement est très compliqué en raison du grand
nombre de facteurs instrumentaux (e.g., sensibilité spectrale et fonction de transfert du capteur) et
expérimentaux (e.g., position de la source de rayonnement, géométrie "instrument - cible"). Une
26
27
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
approche plus pragmatique, mais moins robuste, revient à étalonner le capteur à l'aide de régressions
entre des mesures (i.e., comptes numériques) dites de référence sur des cibles dont les propriétés
radiométriques (i.e., réflectance et/ou température) sont connues.
La puissance Q mesurée par un capteur dépend de sa sensibilité spectrale et du rayonnement incident
(luminance Lλ(Ωv)). Dans sa plage normale de fonctionnement, un capteur tend à donner un signal de
sortie quasi linéaire selon le signal d'entrée. La réponse spectrale d'un capteur qui opère dans ∆λ = [λinf
λsup] peut donc être caractérisée par un offset O (i.e., bruit de fond), une réponse maximale k et une
réponse spectrale relative λ. Les termes O, k et λ dépendent des caractéristiques de tous les
composants du capteur (optique, électronique, etc.). S'il y a invariance temporelle expérimentale :
Q = k.⌠
⌡Lλ(Ωv). λ.dλ + O
∆λ
Luminance spectrale incidente
⇒
Lλ (W.m-2.sr-1)
Sensibilité spectrale relative :
Gain : k
λ
⇒
Sortie : Q
Compte numérique
Chaîne de mesure d'un capteur
λ2
⌠
⌡Lλ.dλ
⌠
⌡Lλ. λ.dλ
La puissance Q dépend linéairement de
∆λ =
∆λ
⌠
⌡ λ.dλ
et non de la luminance moyenne <L>∆λ =
λ1
λ2 - λ1
∆λ
La détermination de <L>∆λ à partir de Q=Q(Lλ, λ) implique de connaître la bande passante et la
variabilité spectrale de la luminance du rayonnement incident. En pratique, cette variabilité est souvent
négligée. L'hypothèse "Lλ constante sur ∆λ" conduit à : <L>∆λ ≈ ∆λ.Par suite :
Q = G.<Lλ>∆λ + O où G = k.⌠
⌡ λ.dλ
∆λ
Un capteur est en général caractérisé par une longueur d'onde centrale λc et un canal spectral ∆λeff effectifs :
⌠
⌡λ. λ.dλ
λc =
∆λ
⌠
⌡
λ.dλ
∆λ
2
⌠
⌡λ . λ.dλ
∆λeff = [λc - 3.σ λc + 3.σ]
où σ2 =
∆λ
⌠
⌡
λ.dλ
-
λ c2
∆λ
Le calcul de la luminance moyenne <L>λ à partir de mesures implique de connaître le gain (G), l'offset
(O) et la bande passante ∆λ du capteur. Les comptes numériques (CN) des images sont donc souvent
1
O
fournies avec des coefficients d'étalonnage α et β : <L>λ = α.CN + β, où β ≡ - et α ≡ . L'étalonnage
G
G
d'un capteur, i.e. calcul de α et β, requiert au moins 2 mesures. En pratique, il est souvent fourni des
coefficients qui relient les comptes numériques à une grandeur caractéristique des scènes observées
(e.g., réflectance spectrale ρλ = α.CN + β ou température T = α.CN + β).
I.3.7 Capteurs
• Caméras matricielles
Les caméras matricielles fournissent une image en 2 dimensions de la scène analysée. Elles sont
constituées de capteurs solides CCD (Figure I.34). Elles ont des caractéristiques très diverses:
- Dimension (nombres de ligne x nombre de colonnes). Elle est très variable: 752 x 582 → 2048x2048.
- Temps d'intégration. Par exemple 10-4 s.
- Déclenchement sur signal extérieur (caméras monocoups, caméras progressives).
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Figure I.34: CCD (gauche). Caméra matricielle (droite).
Les caméras les plus récentes utilisent la technologie APS CMOS (Peyron, 2002). Celle-ci permet :
- un adressage quelconque dans l'image.
- un temps d'acquisition très rapide.
- des prétraitements localisés au niveau du pixel.
• Caméras linéiques
Les caméras linéiques sont constituées par un ensemble de capteurs photosensibles alignés (Figure
I.35). Une seule acquisition fournit donc une seule ligne image. Leurs principaux avantages sont :
- Haute résolution (e.g., lignes images de 10 000 pixels).
- Acquisition rapide (e.g., 200 M pixels / s). Pour la DVT Legend LS : 18000 lignes de 2000 pixels / s.
- Traitement en temps réel.
- Adapté au défilement continu.
Elles sont par exemple employées pour l'inspection d'objets en défilement (laminé, tissus, papier,
bois, etc.) et pour la numérisation d'images à très haute résolution (scanners de documents, etc.).
Scène à numériser
Caméra linéique
Blanc: signal maximal
1er pixel
dernier pixel
Noir: signal minimal
Figure I.35: Création d'une ligne image avec une caméra linéique.
I.3.8 Eclairage
Le système d'éclairage est un élément majeur des systèmes de vision (visible - proche infrarouge), car
il affecte la qualité des images et donc l'information obtenue. Son choix dépend de divers facteurs:
- type de caméra employée (e.g., linéique, surfacique).
- forme, constitution, couleur de la scène (fond) et des objets analysés.
- domaine spectral considéré.
- type d'information recherchée.
- variabilité des objets, de l'environnement, de l'éclairement extérieur, etc.
Il existe 2 types principaux de lampes : les lampes à incandescence (classique et halogène), où un
filament brûle, et les lampes à décharge ("néons", mercure, sodium, halogénures métalliques) qui
produisent de la lumière grâce à une décharge électrique dans un gaz.
28
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
• Lampe à incandescence
Cette lampe "classique" contient un filament de tungstène qui, porté à haute
température (environ 2500°C) par le passage d'un courant électrique, émet de la
lumière. Généralement l'ampoule est remplie d'un gaz inerte comme l'argon ou le
krypton, qui permet d'éviter la détérioration du filament. Ces lampes ont un
rendement lumineux faible, car la plus grande partie de l'énergie électrique est
convertie en chaleur plutôt qu'en lumière.
• Lampe halogène
C'est une lampe à incandescence où a été ajouté un gaz (famille halogène ou
dérivé) qui régénère le filament de tungstène et accroît beaucoup sa longévité.
Son rendement est supérieur à la lampe à incandescence classique, car elle
fonctionne à plus haute température (≈ 2900°C). Le matériau de l'ampoule est
donc résistant à cette température : quartz ou verre spécial. De par sa
température plus élevée, une lampe halogène émet plus de rayonnements
ultraviolets. Vu que le quartz de l'ampoule ne les absorbe pas, on met en
général devant la lampe un plastique ou un verre qui les absorbe.
• Tube fluorescent
Souvent appelé "néon", il contient un mélange d'argon et de vapeur de
mercure très raréfié. Lors d'une décharge électrique, le mercure rayonne des
UV qui excitent une substance fluorescente (composés phosphorés) déposée
sur la paroi interne du tube; cette substance émet alors une lumière blanche.
Les lampes dites économiques, qui se substituent de plus en plus aux lampes à
incandescence, sont également des tubes fluorescents, dits compacts.
• Lampe à mercure
Autrefois fréquente pour l'éclairage public, elle est de plus en plus remplacée
par la lampe au sodium, qui a un meilleur rendement lumineux. L'ampoule
contient de la vapeur de mercure à haute pression (500 fois la pression des
tubes fluorescents) qui lors d'une décharge électrique donne une lumière
blanc-bleuté. A cause de cette pression plus élevée, elle émet plus de lumière
visible et moins d'UV que les tubes fluorescents. Elle consomme beaucoup
d'énergie.
• Lampe à vapeur de sodium
Le tube est rempli d'un mélange de néon, d'argon et de parcelles de sodium.
Une décharge électrique donne une lumière orange monochromatique (λ =
589 nm). Le néon (couleur rouge type) sert à démarrer la décharge et à
chauffer le sodium.
C'est la lampe qui a la plus grande efficacité lumineuse. Elle est idéale si le
rendu des couleurs n'est pas important. Les lampes à haute pression ont une
efficacité moindre que les lampes à basse pression, mais un meilleur rendu
des couleurs. Ce sont elles qui sont surtout utilisées pour éclairer les routes.
• Lampe à halogénures métalliques
Elle forme un arc électrique (d'une dizaine de mm) dans une ampoule renfermant des halogénures
métalliques et des vapeurs de mercure à haute pression qui émettent une lumière blanche vive, avec
une grande efficacité (5 fois meilleure qu'une lampe à incandescence). Elle est donc intéressante si
on désire un bon rendu des couleurs. Les éléments halogénés servent à augmenter la concentration en
métaux vaporisés dans la zone chaude de l'arc. Comme pour les lampes halogènes à filament de
tungstène, les ampoules de ces lampes sont en quartz et laissent échapper un rayonnement ultraviolet
qui doit être filtré. Ces lampes sont utilisées dans les vitrines commerciales, les terrains de sport, …
29
30
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Type d'ampoule
Efficacité lumineuse
(lumens par watt)
Durée de vie
moyenne (h)
Couleur
Rendu des
couleurs
incandescence
12 à 20
~1000
blanc "chaud"
excellent
halogène
15 à 33
2000-4000
blanc
excellent
fluorescence
50 à 80
10000-20000
blanc "froid" mauvais à bon
mercure
de 50 à 70
16000-20000
blanc-bleuté mauvais à bon
halogénure métallique
de 70 à 90
6000-10000
blanc
excellent
sodium à haute pression
de 100 à 130
12000-22000
jaune-orange
mauvais
sodium à basse pression
de 140 à 180
~16000
orange
très mauvais
Caractéristiques de lampes.
Lampe à incandescence classique
Lampe à vapeur de mercure
Lampe sodium à haute pression
Raie unique d'émission de
lampe sodium basse pression
Lampe halogénure métallique
Lampe au xénon
Lampe halogène
au tungstène
Figure I.36: Spectres d'émission de lampes.Unité : nm.
• Source à jonction électroluminescente
- Jonction de semi conducteurs de types (n) et (p) non polarisée : les niveaux de Fermi s'équilibrent,
ce qui entraîne une distorsion des bandes de valence et de conduction. Il apparaît ainsi au niveau de
la jonction une barrière de potentiel.
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
- Jonction de semi conducteurs (n) et (p) en polarisation directe (négative pour la région n) : l'apport
d'électrons dans (n) remonte le niveau de Fermi dans cette région, ce qui diminue la barrière de
potentiel à la jonction. Les électrons de (n) peuvent alors passer dans (p), de même que les trous de
(p) peuvent passer dans (n). Les électrons contenus dans la bande de conduction de (p) sont ainsi
hors d'équilibre. Il est alors possible d'observer une tendance à la recombinaison entre les électrons
et les trous qui vont se trouver en présence au franchissement de la jonction. Cette transition libère
un photon dont l'énergie correspond à la largeur de la bande interdite : c'est l'émission. La tendance
à la recombinaison des trous de (n) donne le même phénomène.
L'émission des photodiodes se fait dans une bande spectrale étroite (∆λ ≈ λ/10) avec des constantes
de temps de l'ordre de la nanoseconde. Pour des photodiodes à l'Arséniure de Gallium (AsGa):
λ = 0.85 µm à T = 77K (température de l'azote liquide) et λ = 0.95 µm à T = 300 K. Pour des
photodiodes au phosphure de Gallium (GaP), λ = 0.62 µm à T = 300 K
Beaucoup de systèmes d'éclairage utilisent des LED (Figure I.37) du fait de leurs nombreux avantages :
- possibilité de réaliser des sources lumineuses de formes et de dimensions quelconques.
- les diodes ont une excellente durée de vie en comparaison à toutes les autres technologies
d’éclairage (≈ 100 000 heures).
- les LEDs s’allument et s’éteignent de manière instantanée.
- les LEDs sont monochromatiques, ce qui évite les aberrations dans les objectifs des caméras et
permet une grande qualité d’images.
Pour obtenir une énergie lumineuse suffisante, la commande des diodes est impulsionnelle : on leur
envoie un courant important (jusque 10 fois leur courant nominal) qui augmente la puissance
lumineuse émise. Par contre, pour exploiter cette caractéristique, il est nécessaire de limiter la durée
d’allumage et de respecter un temps de repos. Un système d'éclairage constitué par un grand nombre
de diodes doit recevoir un courant très important. L'emploi d'alimentations surdimensionnées peut être
évité en utilisant un circuit de commande qui charge un condensateur quand les diodes sont éteintes et
qui le décharge brusquement pour allumer les diodes.
Figure I.37: Eclairage avec des LEDs
L'aspect directionnel de l'éclairage et du rayonnement réfléchi doit souvent être pris en compte. Ainsi,
un miroir éclairé par une lumière monodirectionnelle tend à réfléchir la lumière dans une seule
direction, symétrique de la direction incidente par rapport à la normale au miroir. Cette réflectance est
dite spéculaire. Par extension, le miroir est appelé "surface spéculaire". Par contre, une surface
naturelle tend à réfléchir dans toutes les directions. Elle est dite lambertienne si elle réfléchit tout
rayonnement (i.e., monodirectionnel ou non) de manière isotrope.
Figure I.38: Réflectance spéculaire (gauche) et quelconque (droite)
L'éclairage d'un objet est dit direct si la lumière issue de la source atteint directement l'objet, sans
aucune diffusion. Il est dit indirect direct si la lumière issue de la source atteint l'objet après avoir été
diffusée par un élément autre que l'objet. Un éclairage indirect est adapté pour donner un éclairage
31
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
isotrope à partir d'un faible nombre de sources, mono directionnelles ou non. Par exemple, une demi
sphère blanche éclairée par quelques sources peut donner un rayonnement diffus (Figure I.39).
Source
lumineuse
Figure I.39: Eclairage diffus avec une demi sphère diffusante.
Un éclairage indirect permet d'éviter l'apparition d'ombres si les directions d'éclairage et d'observation
sont colinéaires (Figure I.40).
Source
lumineuse
Figure I.40: Eclairage avec un miroir semi réfléchissant (e.g., fine couche métallique sur lame de verre).
Un objet peut aussi être observé en transmittance (éclairage arrière dit "back light") et non en
réflectance. La caméra recueille alors le rayonnement qui a traversé l'objet (Figure I.41).
Objectif télécentrique
Eclairage "back light"
Condenseur
Source lumineuse ponctuelle
Figure I.41: Eclairage "Back light"
I.4 LE TRAITEMENT D'IMAGES
Le traitement d'images numériques est l'ensemble des techniques permettant de modifier une image
numérique pour l'améliorer ou en extraire des informations (e.g., position d'objets dans l'espace,
nombre de défauts d'un alliage, lecture de code barre,…). Pour cela, les fournisseurs de systèmes
développent des logiciels puissants et spécifiques. Le but est de faire réaliser par l'ordinateur
l'enchaînement des raisonnements logiques de l'opérateur (i.e., photo interprète) chargé d'interpréter
visuellement les images. Il s'agit d'obtenir (1) rapidement, des résultats à la fois (2) plus complets
(aucun détail ne devrait être oublié), (3) objectifs et donc reproductibles, (4) quantifiés, et donc
finalement (5) moins coûteux. Libéré de nombreuses contraintes techniques l'opérateur peut alors
32
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
concentrer son travail sur l'interprétation des résultats donnés par l'analyse numérique, la détermination
des paramètres à extraire de l'image, etc. Au-delà des performances intrinsèques du matériel,
l'informatique est le facteur majeur pour expliquer la progression des systèmes de vision.
A priori, un système informatique ne reconnaît dans une image qu'une matrice de pixels, i.e.
juxtaposition d'informations numériques codées sur un nombre prédéfini de bits. L'information
associée à chaque pixel est en général l'intensité du rayonnement mesuré en ce point. Le domaine de la
vision artificielle démarre avec ce niveau de perception de base et se prolonge avec des systèmes
beaucoup plus évolués dotés d'une capacité d'analyse, souvent à partir de connaissances préalables.
Dès le XVIIIème siècle, les pionniers de la photographie traitent les images avec des moyens
photochimiques. La première expérience célèbre de traitement d'images numériques remonte à 1920
lors de la transmission d'images par câble sous-marin entre New York et Londres.
Le traitement d'images a réellement démarré au début des années 60 avec le traitement des premières
images des satellites en orbite autour de la Terre. Ces images devaient être corrigées de nombreux
défauts radiométriques et géométriques dus aux capteurs, vitesse de rotation de la Terre, diffusion et
absorption atmosphérique, etc. Les premières méthodes de traitement développées (filtrage,
corrections géométriques, amélioration du contraste, etc.) étaient pour la plupart des méthodes
ponctuelles, c'est à dire sans prise en compte du contexte des pixels traités. Dans les années 70, le
traitement d'images a été appliqué à d'autres domaines (médical, étude des métaux, militaire,
automatisation de processus industriels, etc.). D'autres techniques sont apparues : approches basées sur
la morphologie mathématique pour la prise en compte de la forme et de la dimension des objets
présents dans les images, etc. Les techniques actuelles de traitement d'image combinent les traitements
ponctuels et de morphologie mathématique.
I.4.1 Principales étapes
Il n'existe pas de méthode de traitement d'images générale à tous les domaines d'application possibles. Il
faut en général employer des algorithmes spécifiques. Ces derniers sont souvent des combinaisons de
techniques classiques (segmentation, classification, reconnaissance de frontières, etc.). De manière
schématique, toute méthode de traitement d'images comprend 4 étapes majeures :
• Prétraitement des images,
• Amélioration des images,
• Analyse des images,
• Interprétation des images.
a.) Prétraitements
Ils préparent l'image pour son analyse ultérieure. Il s'agit souvent d'obtenir l'image théorique que l'on
aurait du acquérir en l'absence de toute dégradation. Ainsi, ils peuvent par exemple corriger :
- les défauts radiométriques du capteur : non linéarité des détecteurs, diffraction de l'optique, etc.
- les défauts géométriques de l'image dus au mode d'échantillonnage spatial, à l'oblicité de la direction
de visée, au déplacement de la cible, etc.
- le filtrage ou réduction de fréquences parasites, par exemple dus à des vibrations du capteur.
- les dégradations de l'image dues à la présence de matière entre le capteur et le milieu observé.
Ainsi, une image acquise par un satellite est souvent perturbée par l'atmosphère.
b.) Amélioration d'image
Elle a pour but d'améliorer la visualisation des images. Pour cela, elle élimine / réduit le bruit de
l'image et/ou met en évidence certains éléments (frontières, etc.) de l'image. Elle est souvent
appliquée sans connaissance à priori des éléments de l'image. Les principales techniques sont :
- l'amélioration de contraste,
- le filtrage linéaire (lissage, mise en évidence des frontières avec l'opérateur "Image - Image lissée",
etc.) et transformée de Fourier pour faire apparaître / disparaître certaines fréquences dans l'image.
- filtrage non linéaire (filtres médians, etc.) pour éliminer le bruit sans trop affecter les frontières,...
33
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
c.) Analyse d'image
Le but de l’analyse d’images est d'extraire et de mesurer certaines caractéristiques de l'image traitée
en vue de son interprétation. Ces caractéristiques peuvent être des données statistiques sur des
comptes numériques (moyenne, histogramme, etc.), ou sur des données dérivées (e.g., dimensions,
ou orientation d’objets présents dans l’image). En général, le type d'information recherché dépend du
niveau de connaissance requis pour interpréter l'image. Les applications dans le domaine du guidage
et de la télédétection nécessitent souvent des connaissances différentes et de plus haut niveau (e.g.,
cartes 3-D) que dans les domaines du médical, de la géologie, du contrôle de qualité, etc. Ainsi, un
robot en déplacement ne nécessite pas le même type d'information qu'un système utilisé pour détecter
la présence de matériaux défectueux. Pour ce dernier, il faut prendre uniquement la décision "non
défectueux ou défectueux". Cette décision peut être prise à partir d'un "raisonnement" plus ou moins
complexe (e.g. détection de la présence de raies d'absorption caractéristiques d'une impureté). Pour
le robot, il faut simuler le processus décisionnel d’un individu en déplacement, ce qui nécessite au
préalable de reconstituer une carte du lieu de déplacement en temps réel, avec les obstacles à éviter.
d.) Interprétation
L'interprétation d'image est en général la dernière phase qui précède la prise de décision (e.g.,
matériau conforme ou non). Elle donne une signification à l'information, par exemple en comparant
cette information avec une base de données pré-établie. Ainsi, il peut être établi qu'un ensemble
connexe de pixels d'une image est par exemple la lettre "e". L'interprétation peut nécessiter des
approches très complexes comme l'intelligence artificielle, les réseaux neuronaux et la logique floue.
I.4.2 Avantages et inconvénients du traitement d'images
Quelques avantages et inconvénients du traitement d'images sont indiqués ci-dessous.
(i) Rapidité. Le traitement d'images accélère beaucoup les travaux traditionnellement réalisés par
photo-interprétation, mais qui sont automatisables et donc reproductibles (e.g., vérification de la
bonne disposition d'étiquettes sur les bouteilles produites par une usine d'eau minérale). Dans des
cas défavorables, l'interprétation visuelle d'image peut être plus rapide et précise que
l'interprétation numérique. En effet, l'opérateur humain peut s'adapter à des conditions hors des
limites de bon fonctionnement du système d'analyse numérique (e.g., image déformée du fait d'un
éclairage défectueux non modélisable). Ainsi, un opérateur peut plus ou moins faire abstraction de
la présence de "bruit" dans une partie de l'image lors de l'analyse de celle-ci. De manière intuitive,
il arrive à séparer le bruit et l'information recherchée dans l'image. Ceci est le cas d'une image qui
contient une route en partie au soleil et à l'ombre. Un photo interprète peut immédiatement réaliser
qu'il s'agit d'un même objet alors qu'une interprétation purement numérique réalisée par un logiciel
non adapté peut mener à la conclusion qu'il s'agit de deux objets différents. L'extraction numérique
d'information dans une image "bruitée" nécessite des algorithmes complexes capables d'utiliser des
informations annexes qui renseignent sur les caractéristiques du bruit présent.
(ii) Travaux répétés et fastidieux. Ces travaux (correction géométrique, étalonnage, gestion de base de
données,…) sont souvent difficiles à réaliser, sinon impossibles, de manière non numérique. Ceci
explique pourquoi les images analogiques sont souvent numérisées pour être "interprétées".
(iii) Reproductibilité de l'analyse et de l'interprétation. L'interprétation humaine (i.e., photointerprétation) est souvent fastidieuse, longue, coûteuse, difficilement reproductible et très
dépendante de l'opérateur. Ainsi, l'interprétation d'une même image par plusieurs photo interprètes
donne souvent des résultats très différents, car les êtres humains n'ont pas la même sensibilité aux
couleurs, au contexte des objets analysés, etc. Par exemple, un photo interprète peut confondre 2
niveaux de gris alors qu'un ordinateur ne peut confondre 2 valeurs numériques.
(iv) Quantification. Un intérêt majeur du numérique est de donner une information quantifiée.
* Dimensions (aire, périmètre, etc.) de tout ou partie d'un matériau (i.e., nombre de pixels), à
partir d'une délimitation numérique ou manuelle.
* Concentrations chimiques par le biais des caractéristiques spectrales d'objets de l'image.
* Grandeurs physiques (rugosité, etc.) dérivées de propriétés optiques comme la réflectance.
34
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
I.5 EXEMPLES D'EMPLOI DU TRAITEMENT D'IMAGES
I.5.1 Le contrôle des fibres
Le prix de vente de la laine est très dépendant de sa qualité. En général, la qualité d'une fibre est
d'autant meilleure qu'elle est fine. Elle dépend aussi de sa longueur et de sa résistance. Pour beaucoup
de raisons (coût, etc.), il est important d'évaluer la qualité des fibres de laine, à la fois pour les produits
fabriqués localement et les produits achetés. Ce contrôle intéresse donc d'une part le producteur de
matière (laine, poils de lapin, etc.) qui peut ainsi maîtriser sa production, et d'autre part l'industriel qui
s'assure de la qualité de ses fournitures. Le traitement d'image fournit un moyen de contrôle sûr,
reproductible et s'affranchissant le plus possible de la subjectivité d'un opérateur.
Déroulement d'un contrôle non automatique
Un échantillon représentatif du lot de fibres à contrôler est tout d'abord prélevé, puis placé sous un
microscope afin d'évaluer le diamètre de chaque fibre. Le nombre d'échantillons à observer pour
qualifier un jeu de fibres est fonction de la dispersion du diamètre des fibres. Plus elle est faible, plus
le nombre d'échantillons peut être petit. Avant l'introduction de techniques d'automatisation le
contrôle était manuel : le manipulateur estimait "à l'œil" la valeur du diamètre de chaque fibre. Cette
mesure était donc peu précise. De plus, la nécessité d'analyser un grand nombre de fibres afin
d'obtenir des résultats statistiquement fiables rendait cette opération longue et coûteuse.
Déroulement d'un contrôle automatisé
L'Institut Textile de France (Mazamet) évalue la qualité des fibres avec un système de vision
industrielle qui comprend un microscope, une caméra, un NS 150001 (micro-ordinateur et logiciel),
et une imprimante. Il permet de mesurer le diamètre des fibres. En présence d'un mélange de fibres,
le système compte les diverses sortes de fibres par classe. Le contrôle comprend plusieurs étapes :
- Prélèvement d'un échantillon dans le lot à contrôler, puis l'opérateur prépare une lame avec ces fibres
et la place sous le microscope.
- Visualisation de l'image sur le moniteur de l'analyseur après numérisation en temps réel par une
caméra (512 x 512 pixels avec 256 niveaux de gris). Le logiciel offre des possibilités d'amélioration
de contraste et de compensation des défauts de l'image tels qu'un éclairage non uniforme.
- Etalonnage éventuel du système par l'opérateur.
- Binarisation de l'image afin de déterminer les contours de la fibre à l'aide d'opérateurs
morphologiques complexes, réalisés avec des mailles hexagonales ou dodécagonales. Le système trie
les objets selon leur taille, identifie les objets incomplets, sépare les particules agglomérées, et
connecte des lignes interrompues. Les résultats (surface, périmètre, longueur, largeur, cordonnées,
etc.) sont rangés dans un tableau qui peut contenir jusqu'à 8000 objets.
- Marquage de chaque côté des fibres. Le logiciel trace alors une ligne, détermine les intersections
avec les bords de chaque fibre, ce qui permet de calculer le diamètre de chaque fibre intersectée.
L'analyse d'un lot de 1200 échantillons, avec plusieurs types de fibres, nécessite environ 2 heures.
I.5.2 La mesure de pollution des fluides
Les performances des systèmes hydrauliques doivent sans cesse s'améliorer du fait de l'évolution des
techniques aérospatiales et de la recherche d'un maximum de sécurité, d'efficacité et de fiabilité. Ces 3
propriétés sont très liées à la propreté du fluide hydraulique. La nécessité de maintenir une très faible
pollution (norme NF L 41-101) implique un contrôle régulier et fiable. L'origine de la pollution peut
être diverse (air, eau, micro-organismes, particules solides, réaction chimique, etc.).
Contrôle non automatique de la pollution d'un fluide
- Filtrage du fluide (e.g. échantillon de 100cm3) à analyser avec une membrane Millipore. Celle-ci
est ensuite placée sous un microscope.
- Comptage par l'opérateur sur un nombre fixe d'échantillons du nombre de particules sur le filtre. Ce
comptage manuel est long, fastidieux et parfois incertain.
1
Micro-contrôle - Division Nachet.
35
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Contrôle automatique de la pollution d'un fluide
Le système de comptage automatique de contrôle de fluide hydraulique décrit ici est appliqué par plus
d'une douzaine de bases aériennes en France. Il permet un contrôle plus systématique et plus
rigoureux. En effet, l'analyse est effectuée de manière répétitive et sur une plus grande surface du filtre
que lors du comptage manuel. Il comprend 3 parties principales : un microscope électronique et le
système informatique NS 15000 (micro-ordinateur + logiciel) qui traite les images. Il identifie et classe
selon leurs dimensions les particules emprisonnées dans le filtre Millipore. Le microscope utilisé
permet l'observation en réflexion et transmission avec plusieurs grandissements et filtres. La précision
des déplacements est de 0.25µm. Les déplacements, l'éclairage et l'autofocus sont contrôlés par
l'intermédiaire d'une carte placée dans le système informatique, et pilotée par celui-ci. Cette approche
assure l'automatisation de l'opération d'analyse et la reproductibilité des conditions d'observation d'un
filtre à l'autre. Plus de 1800 échantillons peuvent être analysés en environ une heure. Les particules
sont isolées, classées selon leur longueur et comptées. Cinq classes de longueur sont retenues : 515µm, 15-25µm, 25-50µm, 50-100µm et >100µm.
I.5.3 Système de contrôle de laminé
Ce système de vision industrielle de Delta Technologie* détecte et repère recherche en temps réel, la
présence de perforations sur du laminé défilant à grande vitesse.
Caractéristiques :
- Défaut perforant minimal de 1 mm2 (à la vitesse de 250m/min).
- Localisation du défaut à ± 0,5 mm pour une largeur d'inspection de 1050 mm.
- Largeur de la zone d'inspection paramétrable à ±1 mm.
- Environ 1800 mesures par seconde.
- Vitesse de défilement du laminé de 0 à 250 m/min.
- Autotest à chaque mise en route du système.
Le système de contrôle comprend deux ensembles d'acquisition identiques implantés en deux endroits
du site de production. Une armoire industrielle déportée centralise les signaux, traite et génère si
besoin des alarmes (sonore et visuelle) à destination de chaque site. Le paramétrage des sites s'effectue
au démarrage et/ou en cours de production. Le système de contrôle comporte :
- Mécanique : supports caméras, éclairage et capotage des zones d'inspection.
- Acquisition d'images : deux postes de prise de vue protégés comprenant chacun une caméra linéaire
haute définition et un ensemble d'éclairage haute fréquence.
- Traitement d'images : deux cartes d'acquisition et de traitement installées dans un calculateur
industriel doté du logiciel spécifique dédié à l'application.
- Interface homme/machine : menu convivial pour saisir au clavier des paramètres de production
avec accès réglementé. Un écran informe l'opérateur de l'état de fonctionnement du système. Sur
chaque site, les alarmes sonores et visuelles révèlent l'emplacement des défauts sur le laminé.
Client utilisateur: Union Minière France S.A. - VIVIEZ - France - septembre 1994
Clients potentiels: développé pour l'industrie de la transformation de métaux, ce produit s'adapte à
l'inspection de feuillard, bande, tôle mince en métal, film plastique ou papier opaque,...
I.5.4 Système de mesure de capabilité d'équipement
Destiné aux industriels de l'électronique, ce système de vision industrielle de Delta Technologies
mesure le niveau de réglage des équipements de report composant (±5µm), de dépose de points de
colle (±15µm) ou les mires de sérigraphie (±2µm). Avant chaque procédure de mesure, le système
s'auto-teste et s'auto-étalonne. Toutes les localisations de mesure sont paramétrables, soit par des
fichiers de configuration (composants), soit par menu interactif (colle). Ce système comprend :
- une station de travail autonome (micro-ordinateur, clavier, écran VGA, etc.),
*
Delta Technologies : La Maison des Lois - 2, Rue Michel Labrousse - BP 1137 - 31036 Toulouse cdx - Tel:
0561402030 - Fax : 61402037. http://www.delta-technologies.fr
36
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
- un système d'acquisition d'images (caméra matricielle haute définition, éclairage annulaire haute
fréquence),
- un système de traitement d'images composé d'une carte d'acquisition et de traitement, installée dans
le micro-ordinateur, avec un logiciel spécifique dédié à la mesure de positionnement.
Clients utilisateurs: SIEMENS AUTOMOTIVE S.A. (Toulouse - 1994 et Foix - 1994).
I.5.5 Système de contrôle du maillage des tissus
Destiné aux industriels du tricotage, ce système de Delta Technologies contrôle la largeur et le
maillage des tissus. La vitesse de défilement des tissus est de 50 à 60m/s. Une caméra linéaire fournit
des images 1-D à partir desquelles il est possible de mesurer une largeur de laize en 0.2s, avec une
précision de ±2mm pour une laize de 1000mm. Une caméra matricielle fournit des images 2-D à partir
desquelles il est possible de compter les mailles en rangées et colonnes en 3s (objectif de 1s), avec une
précision de ±1 maille sur 30mmx30mm inspectés. Ce contrôle non destructif sans contact garantit un
suivi continu de la structure du tissu au cours de son traitement. A chaque mise en route du système,
une procédure automatique d'inspection des équipements est réalisée.
Avant toute opération, l'opérateur entre dans une base de données des informations sur le tissu
(référence, No de lot, largeur, etc.). Le contrôle est initié par l'opérateur après engagement du tissu,
son arrêt est automatique en fin de passe. Les mesures effectuées sont stockées dans des fichiers ainsi
que le jour et l'heure de réalisation de la mesure en vue d'une exploitation ultérieure.
Le système de contrôle se compose des éléments suivants :
- des équipements de commande dans une armoire industrielle équipée d'une interface conviviale.
- 2 postes de prise de vue ("caméra matricielle + éclairage stroboscopique", "caméra linéaire haute
définition + éclairage fluorescent haute fréquence") sur un châssis amovible au-dessus du tissu.
- six afficheurs pour afficher en temps réel les mesures de laize. Des alarmes visuelles (flash) se
déclenchent en cas de dépassement des consignes tolérées pour le tissu en cours d'exploitation.
Clients utilisateurs: Tricotage Toulousain - Toulouse, France - Septembre 1994
I.5.6 La vision artificielle
Deux exemples de systèmes dotés d'une vision intelligente sont indiqués ci-dessous :
- robot capable de se déplacer le long d'un trottoir, de détecter et vérifier les panneaux de circulation
aux carrefours, et de vous dire "bonjour" en reconnaissant votre visage. La première, et certainement
la plus facile, étape consiste à simuler la vision pour que le robot perçoive son environnement à
l'aide de capteurs électromagnétiques (caméra CCD, laser, etc.). Des logiciels spécifiques ont pour
but de faire aussi bien et même mieux que les systèmes de visualisation et d'interprétation de
l'homme.
- caméra placée le long d'une route et capable de reconnaître les voitures qui roulent trop vite, de les
prendre en photo, de détecter la voiture dans l'image, puis la plaque d'immatriculation sur la voiture,
de lire automatiquement le numéro de la plaque d'immatriculation, puis de trouver dans une banque
de données le nom et l'adresse du conducteur.
37
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
I.6 ANNEXE 1 : FORMATS ET COMPRESSION DES FICHIERS IMAGES
Les images numériques sont créées par de nombreux capteurs (caméras CCD, scanners, appareils
photo numériques, logiciels de dessin et de traitement d'images, etc.) avec des formats souvent très
différents. Pour pouvoir être lues par un logiciel autre que celui qui les a créées, tout fichier "image"
doit contenir des informations autres que l'image proprement dite : dimension de l'image (nombre de
lignes et de colonnes), mode de représentation visuelle (type de représentation couleur, noir et blanc,
etc.), type et niveau de compression, etc.
I.6.1 Formats des fichiers images
Il n'existe pas de format idéal. Selon le cas, certains formats peuvent être préférables. Le terme bitmap
employé ci-dessous fait référence aux formats de fichier qui stockent les pixels sous forme de tableau
de points, avec une gestion des couleurs soit en couleur vraie soit par le biais d'une palette indexée.
● Format RAW (.raw). Format de stockage des données brutes (pas d'en-tête, etc.).
● Format GIF (.gif). Format de fichier graphique bitmap (raster) relativement dépassé. Il est utilisé
pour des images codées sur 8 bits au plus, c'est à dire des images de basse qualité : 2 à 256 couleurs
(2, 4, 8, 16, 32, 64, 128 ou 256) parmi 16.8 millions. Grâce à cette palette limitée en nombre de
couleurs, les images GIF ont une taille généralement très faible. De plus, l'affichage est très rapide,
car les systèmes de visualisation gèrent très bien 256 couleurs par pixel. Les images GIF sont
toujours compressées (compression LZW). Il y a possibilité d'avoir des images animées (appelées
GIFs animés) en stockant plusieurs images au sein du même fichier. Vu le caractère propriétaire de
l'algorithme de compression LZW, tous les éditeurs de logiciel manipulant des images GIF doivent
payer une redevance à la société détentrice des droits, Unisys. C'est une des raisons pour lesquelles
le format PNG est de plus en plus préféré par rapport au format GIF.
● Format TGA. Il est très utilisé pour stocker les images en vraie couleur codées sur 24 ou 32 bits.
● Format JPEG (.jpg) et JPEG 2000 (.jp2). Le plus connu et le plus employé pour ses modes de
compression variés. La compression JPEG (regroupement de carrés de 8x8 pixels) est destructrice,
car elle diminue la qualité. Son niveau varie de 0 (compression maximale et faible qualité) à 10
(compression minimale et minimum de pertes en qualité). Le niveau 8 est souvent conseillé.
● Format TIFF (.tif). Ancien format de fichier graphique bitmap (raster) très utilisé. Il a été mis au
point en 1987 par la société Aldus (appartenant désormais à Adobe) pour faciliter l'échange entre
programmes et pour sauvegarder sans perte (compression LZW réversible) des images de taille
importante (plus de 4 Go compressé) issues de diverses sources (scanners, caméras, etc.),
indépendamment des plates formes ou des périphériques (DIB : Device-Independant Bitmap). De
plus, il a été structuré pour pouvoir être facilement mis à jour en intégrant de nouvelles données
(e.g., pour tenir compte de l'évolution des cartes graphiques et des résolutions des scanners et
caméras). Le format TIFF permet de stocker des images en noir et blanc, en couleurs réelles (True
colour, jusqu'à 32 bits par pixels) ainsi que des images indexées, faisant usage d'une palette de
couleurs. Il permet plusieurs espaces de couleurs : RGB, CMYK, CIE L*a*b et YUV / YCrCb.
Une particularité du format TIF est de définir des balises (en anglais tags, d'où le nom Tagged Image
File Format) qui décrivent les caractéristiques de l'image. Les balises servent pour stocker diverses
informations : dimensions de l'image, nombre de couleurs utilisées, type de compression (de
nombreux algorithmes peuvent être utilisés Packbits / CCITT G3&4 / RLE / JPEG / LZW / UIT-T),
et correction gamma (définition du facteur gamma γ : "Codage = (Flux lumineux)γ"). La description
de l'image par balise facilite le développement d'un logiciel qui doit enregistrer au format TIFF. En
contrepartie, la multiplicité des options proposées est telle que nombre de lecteurs d'images
supportant le format TIFF ne les intègrent pas toutes. Par suite, certains systèmes peuvent lire
certaines images TIFF et pas d'autres.
● Format PCX. Ce format bitmap a été mis au point par la société ZSoft, concepteur du logiciel
PaintBrush qui équipe en standard les systèmes d'exploitation Microsoft Windows depuis les années
80. Il permet d'encoder des images dont la dimension peut aller jusqu'à 65536 par 65536 et codées
sur 1 bit, 4 bit, 8 bit ou 24 bit (i.e., 2, 16, 256 ou 16 millions de couleurs). Sa structure est :
- En-tête sur 128 octets. Il renseigne sur le type et la version du fichier, ainsi que sur l'image :
méthode d'encodage, nombre de bits par pixel, abscisse et ordonnée des coins supérieur gauche et
inférieur droit, résolutions horizontale et verticale, palette, nombre de plans de couleur, etc.
38
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
- Corps de l'image. L'image est codée en écrivant à la suite les bits associés à chaque pixel, ligne par
ligne depuis le pixel en haut à gauche, puis en parcourant de gauche à droite et de haut en bas.
- Informations
- Palette des couleurs (optionnelle). Il s'agit d'un champ de 768 octets permettant de stocker les
différentes valeurs de rouge, de vert et de bleu (RVB) de chaque élément de la palette
● Format PNG (Portable Network Graphics, ou format Ping). Ce format bitmap a été mis au point en
1995 pour fournir une alternative libre au format GIF. Il permet de stocker des images en noir et
blanc (jusqu'à 16 bits par pixel de profondeur de codage), en couleurs réelles (True colour, jusqu'à
48 bits par pixel de profondeur de codage) et des images indexées, faisant usage d'une palette de 256
couleurs. De plus, il supporte la transparence par couche alpha (possibilité de définir 256 niveaux de
transparence), alors que le format GIF ne peut définir qu'une seule couleur de la palette comme
transparente. Il possède aussi une fonction d'entrelacement qui permet d'afficher l'image
progressivement. La compression proposée par ce format est sans perte (lossless compression) et est
5 à 25% meilleure que la compression GIF.
Un fichier PNG stocke une signature qui signale qu'il s'agit d'un fichier PNG, puis une série de
segments appelés chunks qui stockent la taille du segment, le type de données du segment (chunk
data : palette, données image, gamma de l'image (la correction gamma permet une indépendance visà-vis des périphériques d'affichage), histogramme de l'image,....) et le CRC (cyclic redundancy
check), un code correcteur de 4 octets permettant de vérifier l'intégrité du segment.
● Format BMP. C'est un des formats bitmaps les plus simples. Ayant été développé par Microsoft et
IBM, il est très répandu sur les plates formes Windows et OS/2. Il a été conçu pour être indépendant
du périphérique d'affichage (DIB, Device independent bitmap). Sa structure est la suivante :
- En-tête du fichier (en anglais file header)
- En-tête du bitmap (en anglais bitmap information header, appelé aussi information Header)
- Palette (optionnellement)
- Corps de l'image
L'en-tête du fichier comprend 4 champs qui indiquent :
- La signature (2 octets) donne la nature du fichier BMP : Bitmap Windows, Bitmap OS/2, etc.
- La taille totale du fichier en octets (codée sur 4 octets)
- Un champ réservé (sur 4 octets)
- L'offset de l'image (sur 4 octets), en français décalage, c'est-à-dire l'adresse relative du début des
informations concernant l'image par rapport au début du fichier
L'en-tête de l'image renseigne sur les dimensions, couleurs, etc. :
- Taille de l'entête de l'image en octets (codée sur 4 octets).
- Largeur de l'image (sur 4 octets) ; i.e., nombre de pixels horizontalement (en anglais width)
- Hauteur de l'image (sur 4 octets) ; i.e., nombre de pixels verticalement (en anglais height)
- Nombre de plans (sur 2 octets). Cette valeur vaut toujours 1
- Profondeur de codage de la couleur (sur 2 octets) ; i.e., 1, 4, 8, 16, 24 ou 32.
- Méthode de compression (sur 4 octets). Cette valeur vaut 0 pour une image non compressée, 1 pour
un codage RLE de 8 bits par pixels, 2 pour un codage RLE de 4 bits par pixel, et 3 pour un codage
bitfields : la couleur est codée par un triple masque représenté par la palette.
- Taille totale de l'image en octets (sur 4 octets).
- Résolution horizontale (sur 4 octets), c'est-à-dire le nombre de pixels par mètre horizontalement
- Résolution verticale (sur 4 octets), c'est-à-dire le nombre de pixels par mètre verticalement
- Nombre de couleurs de la palette (sur 4 octets)
- Nombre de couleurs importantes de la palette (sur 4 octets). Ce champ peut être égal à 0 si chaque
couleur a son importance.
La palette est optionnelle. Elle est définie par 4 octets pour chacune de ses entrées représentant :
- La composante bleue (sur un octet)
- La composante verte (sur un octet)
- La composante rouge (sur un octet)
- Un champ réservé (sur un octet)
39
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Le codage de l'image se fait en écrivant successivement les bits correspondant à chaque pixel, ligne
par ligne en commençant par le pixel en bas à gauche.
- Les images en 2 couleurs utilisent 1 bit par pixel. Un octet permet donc de coder 8 pixels
- Les images en 16 couleurs utilisent 4 bits par pixel. Un octet permet donc de coder 2 pixels
- Les images en 256 couleurs utilisent 8 bits par pixel, ce qui signifie qu'un octet code chaque pixel
- Les images en couleurs réelles utilisent 24 bits par pixel, ce qui signifie qu'il faut 3 octets pour
coder chaque pixel, en prenant soin de respecter l'ordre bleu / vert / rouge.
Chaque ligne de l'image doit comporter un nombre total d'octets qui est un multiple de 4; si ce n'est
pas le cas, la ligne doit être complétée par des 0 de telle manière à respecter ce critère.
Extension
gif
jpg
bmp
pic
pcx
tif
Type de fichier
compressé, courant, Compuserve
compressé, courant, librement utilisable
utilisé par windows (bitmap)
picture (macintosh)
compressé, courant
courant, scanner, gros fichiers
Extension
wav
midi
mp3, mp4
mpg, mov
avi
wma
Type de fichier
son sous Windows
son midi
son compressé
animation, film
vidéo standard sous windows
Nouveau format audio
Extensions de fichiers multimédia
.BMP
MS Windows BitMap
. PICT
.GIF
Graphic Interchange
.JPG ou .JPEG
Joint Photographic Experts Group
.TIF ou .TIFF
Tagged Image File Format
.PNG
Portable Network graphics
.PSD
(propre à Photoshop)
.EPS
Encapsulated PostScript
.PDF
Portable document format
Images jusqu'à 16.7 millions de couleurs. Sans compression ou RLE. Format
non supporté pour la publication sur internet.
Quasi équivalent technique du "BMP", mais pour Mac et non pour PC.
Format graphique le plus fréquent sur Internet avec le ".jpg". Images jusqu'à
16000 x 16000 pixels codées en 256 couleurs. Compression LZW.
Très utilisé pour la publication sur internet. Images jusqu'à 16.7 millions de
couleurs. Compression JPEG.
Permet l'échange entre Macintosh et PC et les impressions haute résolution.
Non supporté pour la publication sur Internet. Diverses compressions.
Récent. Accélère et améliore l'affichage. Code jusqu'à 24 bits (16.7 106
couleurs). Signature électronique (nom d'auteur, etc.). Compression RLE.
Conserve l'ensemble des données d'un travail réalisé sous Photoshop (calques,
etc.) sans perte (pas de compression). Images jusqu'à 32 bits.
Adapté à la PAO. Images (vectorielles, bitmap) et données de mise en page.
• fichier TIF de prévisualisation (basse résolution) pour la mise en page,
• peut compresser en JPEG les couches CMJN (1 ou 4 fichiers distincts).
Multi plateforme (Mac, Windows, Unix, Dos), très pratique avec logiciel
Acrobat Reader. Images vectorielles et bitmap. Fichier plus compact qu'en
postscript, avec compressions JPEG, LZW et CCITT. Ex. : PDF peut diviser
par 10 la taille de fichier Word ou Excel, avec compression des images.
Fichiers graphiques les plus courants
Extension
txt
wp
doc
xls
wks
wkz
db
dbf
Type de fichier
texte
Wordperfect
WinWord
Excel
Lotus123
Wingz
database en général
dbase
Extension
asc
rtf
html
xml
sgml
dvi
pdf
ps
tex
Type de fichier
ASCII (les .txt sont aussi des fichiers ascii
Rich Text format, fichiers d'échanges Microsoft
HyperText Markup Language, web
Extensible Markup Language, formatage de textes
Standard Generalized Markup Language, formatage de textes
Device independant, format independant du périphérique
Portable document format, Adobe
Postscript, langage d'impression
LaTeX, formatage de textes
Fichiers bases de données et tableurs
40
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
I.6.2 Compression
Aujourd'hui, la puissance des processeurs croît plus vite que les capacités de stockage, et beaucoup
plus vite que la bande passante des réseaux. Il est donc fréquent de réduire la taille des données en
exploitant la puissance des processeurs plutôt que d'augmenter les capacités de stockage et de
transmission des données. La méthode de compression dépend intrinsèquement du type de données à
compresser : on ne compresse pas de la même façon une image qu'un fichier audio. Elle cherche à
éviter de coder des informations redondantes dans l'espace, le temps ou l'espace des couleurs.
Un compresseur utilise un algorithme qui sert à optimiser les données en utilisant des considérations
propres au type de données à compresser. Un décompresseur est donc nécessaire pour reconstruire les
données originelles grâce à l'algorithme inverse de celui utilisé pour la compression.
La compression peut se définir par :
- Quotient de compression : rapport des nombres de bits de l'image compressée et d'origine.
- Taux de compression. Souvent utilisé. C'est l'inverse du quotient de compression (%).
- Gain de compression. Complément à 1 du taux de compression (%).
Il existe deux modes de compression :
- compression non destructive (lossless compression), sans perte d'information (i.e., réversible).
- compression destructive (lossy compression). Cette compression irréversible dégrade plus ou moins
l'information (image ou son).
La compression peut être symétrique ou non symétrique. Elle dite symétrique si la même méthode est
utilisée pour compresser et décompresser l'information : il faut donc la même quantité de travail pour
chacune de ces opérations. Ce type de compression est généralement utilisé dans les transmissions de
données. La compression asymétrique demande plus de travail pour l'une des deux opérations. On
recherche souvent des algorithmes pour lesquels la compression est plus lente que la décompression.
Des algorithmes plus rapides en compression qu'en décompression peuvent être utiles pour obtenir des
fichiers compacts auxquels on accède peu.
D'autre part, la compression peut être dite adaptive, non adaptive ou semi adaptive selon qu'elle
s'adapte ou non à la donnée à compresser (e.g., emploi de dictionnaire pré-défini).
a.) La compression non destructive
Cette compression code l'information, sans la modifier. Elle est surtout utile pour les images
contenant des zones de couleurs unies (i.e., zones de nombres identiques). Le taux de compression
n'est pas très bon (de 20 à 1 au mieux). Il peut être amélioré en diminuant le nombre de couleurs.
Ainsi, le format GIF constitue une palette de 256 couleurs en regroupant les couleurs proches. Les
modes de compression les plus employés sont le RLE, le LZW et le codage de Huffman.
• RLE (Run Length Encoding)
Méthode basique (BMP, PCX, TIFF, etc.) qui repère des répétitions de valeurs identiques (i.e., bits
ou octets). Elle stocke ensuite la valeur et le nombre de répétitions consécutives. Selon ce principe,
la chaîne "AAAAAHHHHHHHHHHHHHH" compressée donne "5A14H". Le gain de
compression est ainsi de (19-5)/19 soit ≈ 73,7%. Par contre, la compression de la chaîne
"REELLEMENT", où la redondance des caractères est faible, donne "1R2E2L1E1M1E1N1T" ; la
compression est alors très coûteuse, avec un gain négatif valant (10-16)/10 soit -60%!.
En fait, un certain nombre de règles permettent de compresser quand cela est nécessaire et de
laisser la chaîne telle quelle quand la compression induit un gaspillage :
- Si 3 éléments identiques ou plus se suivent, alors la méthode de compression RLE est utilisée
- Sinon, un caractère de contrôle (00) est inséré, suivi du nombre d'éléments de la chaîne non
compressée puis de cette dernière
- Si le nombre d'éléments de la chaîne est impair, le caractère de contrôle (00) est ajouté à la fin
- Enfin des caractères de contrôles spécifiques ont été définis afin de coder une fin de ligne (00
01), la fin de l'image (00 00) et un déplacement du pointeur dans l'image de XX colonnes et de
YY lignes dans le sens de la lecture (00 02 XX YY).
41
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
La compression RLE n'a du sens que pour les données possédant de nombreux éléments
consécutifs redondants, notamment les images possédant de grandes parties uniformes. Elle offre
l'avantage d'être peu difficile à mettre en oeuvre. Il existe des variantes dans lesquelles l'image est
encodée par pavés de points, selon des lignes, ou bien même en zigzag.
• LZW (Lempel-Ziv-Welch)
Le compresseur LZ77 a été inventé en 1977 par A. Lempel et J. Ziv pour pour l'archivage de
données (les formats ZIP, ARJ et LHA l'utilisent). En 1978 ils créent le compresseur LZ78
spécialisé dans la compression d'images (ou tout type de fichier de type binaire). En 1984, T.
Welch de la société Unisys le modifia pour l'utiliser dans des contrôleurs de disques durs, son
initiale vint donc se rajouter à l'abréviation LZ pour donner LZW.
LZW est un algorithme très rapide aussi bien en compression qu'en décompression. Il détecte la
multiplicité des occurrences de séquences de caractères dans la chaîne à encoder, et il substitue ces
motifs par un code d'affectation (indice) en construisant au fur et à mesure un dictionnaire. Au
départ, ce dernier est initialisé avec les 256 valeurs de la table ASCI. Lors de la décompression,
l'algorithme reconstruit le dictionnaire dans le sens inverse. Il n'est donc pas nécessaire de stocker
le dictionnaire. De plus, LZW travaille sur des bits et non sur des octets, il ne dépend donc pas de
la manière dont le processeur code les informations. C'est un des algorithmes les plus populaires
(e.g., formats TIFF et GIF). La méthode de compression LZW ayant été brevetée par la société
Unisys, c'est l'algorithme LZ77, libre de droit, qui est utilisé dans les images PNG
• Codage de HUFFMAN
Même principe que le LZW, mais le codage est à longueur variable (VLC: variable code length) :
la longueur du code d'identification dépend de la fréquence du motif. Pour distinguer les codes
entre eux, chaque code binaire commence par un 0 suivis d'un ou plusieurs 0 ou 1. Le 0 est donc le
signal de changement de code. Le codeur de Huffman crée un arbre ordonné à partir de tous les
symboles et de leur fréquence d'apparition. Les branches sont construites récursivement en partant
des symboles les moins fréquents. La construction de l'arbre se fait en ordonnant dans un premier
temps les symboles par fréquence d'apparition. Successivement, les deux symboles de plus faible
fréquence d'apparition sont retirés de la liste et rattachés à un noeud dont le poids vaut la somme
des fréquences des deux symboles. Le symbole de plus faible poids est affecté à la branche 1,
l'autre à la branche 0 et ainsi de suite en considérant chaque noeud formé comme un nouveau
symbole, jusqu'à obtenir un seul noeud parent appelé racine. Le code de chaque symbole
correspond à la suite des codes le long du chemin allant de ce caractère à la racine. Ainsi, plus le
symbole est "profond" dans l'arbre, plus le mot de code est long
Soit la phrase "COMMENT_CA_MARCHE". Les fréquences d'apparitions des lettres sont :
M
A
3
2
C
2
E
2
_
2
H
1
O
1
N
1
T
1
R
1
Voici l'arbre correspondant :
Les codes correspondants à chaque caractère sont tels que les codes des caractères les plus fréquents
sont courts et ceux correspondant aux symboles les moins fréquents sont longs :
M A
C
E
_
H
O
N
T
R
00 100 110 010 011 1110 1111 1010 10110 10111
42
43
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
b) La compression destructive
Ce type de compression est très utilisé pour deux raisons majeures :
- Il permet d'atteindre des taux de compression très élevé (e.g., jusqu'à 100:1 pour le JPeg),
- Nos yeux perçoivent peu les petits détails et davantage les variations de lumière que de couleurs.
Image
source
Transformation:
réorganisation de
l'information
Quantification:
Codage entropique
élimination des
(sans perte)
éléments secondaires
Schéma de codage : Transformation + Quantification + Codage entropique.
Image
compressée
L’approche repose sur la réduction de l'information "haute fréquence", car celle-ci est en général
moins significative que l'information "Basse fréquence". Le filtrage spectral est appliqué à la
représentation spectrale de l'image. Pour cela, il serait possible d’utiliser la FFT (transformée de
Fourier), mais la DCT (JPeg, MPeg) et surtout les ondelettes donnent de meilleurs résultats.
• JPeg (norme ISO/CEI). Ce format emploie quatre méthodes de compression :
1) Traduction de l'image RVB en YCrCb. Puis, chaque pixel conserve son information Y de
luminosité, mais tout groupe de quatre pixels (2x2) reçoit la moyenne de la chrominance (Cr et
Cb), car l'oeil discerne peu ou pas de différence de chrominance dans un carré de 2x2 points.
2) L’image est découpée en blocs de 8 x 8, taille optimisée expérimentalement, où on applique une
fonction mathématique, appelée Transformée en cosinus discrète ou TCD (DCT : Discrete
Cosine Transform), qui transforme les variations de luminosité en 64 fréquences. La TCD est
une transformation proche de la transformée de Fourier discrète (DFT). Le noyau de projection
étant un cosinus, il génère des coefficients réels, contrairement à la DFT, dont le noyau est une
exponentielle complexe et qui génère donc des coefficients complexes.
3) Application d'un coefficient de perte (il permet de connaître le ratio taille/qualité) pour annuler
ou diminuer les hautes fréquences. Ceci permet d'atténuer les détails en parcourant le bloc
intelligemment avec un codage RLE (en zigzag pour enlever un maximum de valeurs nulles).
4) Encodage de l'image puis compression avec la méthode de Huffman.
Un fort taux de compression dégrade la qualité de l'image : apparition de tâches (effet de blocs) et
bavures dans les zones de transition entre couleurs. Il existe un codage JPEG sans perte (appelé
lossless), très utilisé pour les images qui ne souffrent pas les erreurs (e.g., images médicales).
Fichier original au format BMP : 144 Ko
Fichier JPG compressé avec un indice 20 :
5.18 Ko, soit une compression de 28:1. La
qualité est acceptable à l'œil, tant au niveau
des détails que des couleurs.
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
44
Fichier JPG compressé avec un indice 50 :
2.97 Ko, soit une compression de 48,5 : 1.
La qualité se dégrade, l'image se pixellise.
Figure I.42: Compression JPG d'image BMP.
• Ondelettes (www.polyvalens.com/, www-cenerg.cma.fr/~st/rp/dea_ptt/, www.cmi.univ-mrs.fr/~torresan/universalis/ondel.html)
L’analyse par ondelette a été conçue dans les années 1980 pour faire apparaître simultanément
dans 2 domaines l’information de tout signal ; pour les images, ces 2 domaines sont l’espace (x, y)
et les fréquences (fx, fy). C’est une analyse multi - résolution de l’image, utilisée sur plusieurs
couches. A chaque couche, les dimensions géométriques de l’image sont réduites d’un facteur 2 par
un ensemble de filtres orthogonaux dont les caractéristiques dépendent de la famille d’ondelettes
utilisée. Ceci donne 4 petites images : l’image source réduite et 3 images qui stockent l’information
"hautes fréquences spatiales" ainsi perdues selon la verticale, l’horizontale et la diagonale.
Analyse multirésolution de l’image sur 3 couches.
Filtre passe bas
Filtre passe bas
Filtre passe bas
Filtre passe haut
Filtre passe haut
Codage par ondelettes.
Les images D, E, F et G codent A. Ce sont:
"division de la résolution de A" et "écarts par
rapport à A" (i.e., coefficients d’ondelette). La
décomposition se poursuit avec un rejet des
images "écart" inférieures à un seuil (i.e.,
compression destructive). La valeur de ce
seuil fixe la taille du fichier compressé (pas
celle du JPeg). Les images retenues sont
compressées de manière non destructrice.
1. Création de B et C. B = division par 2 de la
définition horizontale de A (pixels
moyennés 2 à 2 selon Ox).
C: tout pixel = écart entre A et B.
2. Création de D et E. D = division par 2 de la
définition verticale de B (pixels moyennés 2
à 2 selon Oy).
E : tout pixel = écart entre B et D
3. F et G : étape 2 appliquée à C.
En pratique, une compression en ondelettes permet de coder précisément les zones complexes et de
coder grossièrement les zones uniformes. Ainsi, on ne code les détails que là où il sont nécessaires.
L’emploi des ondelettes permet de meilleurs taux de compression que le JPeg, même si un très fort
taux de compression détériore bien évidemment la qualité. A la différence du JPeg, cette
détérioration ne se manifeste pas par une pixellisation de l’image restituée, mais un flou de plus en
plus important. De plus, l'entête des fichiers images est plus compact que celui du JPeg.
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
45
La figure suivante illustre le fait que la compression d’image par ondelette est très puissante. Ainsi, le fait de ne
conserver que 3% des coefficients d’ondelette donne une image très similaire à l’image originale.
Images compressées après élimination de 90% (a) et 97% (b) des coefficients d’ondelette. (c) Image originale.
• Emploi de fractale (format de fichier : FIF)
Figure I.43: La répétition à l'infini d'un motif donne un objet fractal.
La compression d'images par transformation fractale (i.e., codage des images en fractales) fait l'objet
d'un brevet de Iterated Systems Inc. Elle utilise le fait qu'une image peut être décrite à partir d'un
ensemble de motifs identiques en nombre limité, transformés par translations, rotations, symétries et
agrandissements ou réductions. Pour coder l'image, il suffit de décrire les motifs originaux ainsi que
les transformations utilisées. Le codage d'une image tend donc à devenir indépendant de sa taille. La
compression peut être effectuée soit par logiciel, ou par carte accélératrice spécialisée. Le problème
est en général que la compression est très longue, alors qu'à l'inverse la décompression est très
rapide. Contrairement au JPeg, en forçant le taux de compression, l'image devient floue mais ne se
pixélise pas. De même, un zoom ne fait pas apparaître de pixellisation.
Le meilleur compromis "qualité d'image / poids du fichier" est souvent le format TIFF (avec / sans
compression LZW) pour les images en cours de traitement ou les archives haute définition et le format
JPEG pour l'archivage de documents finis à leur taille et résolution d'impression.
TIFF
TIFF+LZW
JPEG qualité 10
JPEG qualité 8
55,2 Mo
42,9 MO
21,5 MO
6,7 Mo
Exemple avec une image 24x36 scannée à 4000 Dpi
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
I.7 Annexe II : Vidéo
Une vidéo est une succession d'images à une certaine cadence. L'oeil humain ne peut distinguer des
images qui défilent à un rythme de 20 images par seconde. Ainsi, un taux de plus de 20 images par
seconde trompe l'oeil et lui faire croire à une image animée. On appelle fluidité d'une vidéo le nombre
d'images par secondes (frame rate), exprimé en FPS (Frames per second : trames par seconde).
D'autre part, la vidéo au sens multimédia du terme est généralement accompagnée de son, c'est-à-dire
de données audio. On distingue généralement plusieurs grandes familles d'"images animées" :
- Le cinéma. Il stocke sur une pellicule la succession d'images en négatif. Le film est restitué avec une
source lumineuse projetant, à partir d'une copie en positif, les images successives sur un écran.
- La vidéo analogique, représentant l'information comme un flux continu de données analogiques,
destiné à être affichées sur un écran de télévision (basé sur le principe du balayage. Il existe
plusieurs normes pour la vidéo analogique. Les trois principales sont PAL, NSTC et SECAM.
- La vidéo numérique, consistant à coder la vidéo en une succession d'images numériques.
Norme PAL/SECAM (Phase Alternating Line/Séquentiel Couleur avec Mémoire). Utilisé en Europe
pour la télévision hertzienne, il permet de coder les vidéos sur 625 lignes (576 seulement sont
affichées car 8% des lignes servent à la synchronisation), à raison de 25 images par seconde à un
format 4:3 (c'est-à-dire que le rapport largeur sur hauteur vaut 4/3).
Or à 25 images par seconde, de nombreuses personnes perçoivent un battement dans l'image. Ainsi,
étant donné qu'il n'était pas possible d'envoyer plus d'informations en raison de la limitation de bande
passante, il a été décidé d'entrelacer les images, c'est-à-dire d'envoyer en premier lieu les lignes
paires, puis les lignes impaires. Le terme "champ" désigne ainsi la "demi-image" formée soit par les
lignes paires, soit par les lignes impaires. L'ensemble constitué par deux champs est appelé trame
entrelacée. Lorsqu'il n'y a pas d'entrelacement le terme de trame progressive est utilisé. Grâce à ce
procédé appelé "entrelacement", le téléviseur PAL/SECAM affiche 50 champs par seconde (à une
fréquence de 50 Hz), soit 2x25 images en deux secondes.
- Norme NTSC (National Television Standards Committee). Utilisé aux Etats-Unis et au Japon, il
utilise un système de 525 lignes entrelacées à 30 images/sec (donc à une fréquence de 60Hz).
Comme dans le cas du PAL/SECAM, 8% des lignes servent à synchroniser le récepteur. Ainsi, étant
donné que le NTSC affiche un format d'image 4:3, la résolution réellement affichée est de 640x480.
La vidéo numérique consiste à afficher une succession d'images numériques. A priori, le débit
nécessaire pour afficher une vidéo (octets / seconde) est égal à la taille d'une image que multiplie le
nombre d'images par seconde. Ainsi, considérons une image true color (24 bits) ayant une définition
de 640 pixels par 480. L'affichage correct d'une vidéo ayant cette définition implique d'afficher au
moins 30 images par seconde, c'est-à-dire un débit égal à : 900 Ko * 30 = 27 Mo/s !!!! Diverses
techniques permettent de réduire ce volume. Ainsi, la technique dite de sous-échantillonnage en
chrominance (chroma subsampling), appelée également décimation, supprime des informations de
chrominance dans un groupe de 4x4 pixels, car l'oeil est peu sensible aux variations de chrominance.
Une image d'une vidéo non compressée occupe une taille d'environ 1 Mo. L'obtention d'une vidéo
paraissant fluide requiert une fréquence d'au moins 25 ou 30 images par seconde, c'est à dire un flux
de données d'environ 30 Mo/s, soit plus de 1.5 Go par minute. Ce type de débit n'est pas du tout
compatible avec les espaces de stockage des ordinateurs personnels ni même avec les connexions
réseau de particuliers ou de petites ou moyennes entreprises. Afin de pallier cette difficulté, il est
possible de recourir à des algorithmes permettant de réduire significativement les flux de données en
compressant / décompressant les données vidéos. On appelle ces algorithmes CoDec (pour
COmpression / DECompression). Cette compression peut se faire sur deux plans: spatial où chaque
image est codée et temporel où l'image est mise en relation avec les précédentes.
● Format M-JPEG (Motion JPeg)
Le principe du Motion JPEG (MJPEG ou M-JPEG) est d'appliquer successivement l'algorithme de
compression JPEG aux différentes images d'une séquence vidéo. Cette opération requiert des cartes
d'acquisition avec des processeurs spécialisés. D'autres systèmes sont employés pour créer des fichiers
AVI ou Quick Time lors de l'acquisition sur PC ou Mac. Aucun de ces systèmes n'est utilisé pour
diffuser des chaînes numériques ou produire des DVD: c'est la réussite du MPEG. Vu que chaque
46
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
image de la séquence est codée indépendamment des autres, il est possible d'accéder aléatoirement à
n'importe quelle partie d'une vidéo. Son débit de 8 à 10 Mbps le rend utilisable dans les studios de
montage numérique.
● Format MPEG (Moving Pictures Experts Group)
Beaucoup de scènes des séquences vidéos sont fixes ou changent très peu. Il y a donc une redondance
temporelle. Quand seules les lèvres de l'acteur bougent, seuls les pixels de la bouche sont modifiés
d'une image à l'autre. Par rapport au M-JPEG, il suffit donc de décrire seulement le changement d'une
image à l'autre. Cette méthode est cependant beaucoup moins efficace avec une scène d'action. La
compression MPeg utilise cette constatation. Elle a été conçue par le groupe MPEG, et établie en 1988
pour développer des standards internationaux de compression, décompression, traitement et codage
d'image animées et de données audio. Les taux de compression peuvent atteindre 1:50 à 1:200. La
compression MPeg utilise deux systèmes complémentaires :
1) A intervalle régulier (en général toutes les 12 images - 25 par seconde), on enregistre des images
de référence que l'on code en JPeg. Appelons ces images Ref.
2) On compare les autres images aux Ref et seules les différences sont stockées. Chaque image est
découpée en blocs de 16 x 16 pixels. Pour chaque bloc, l'algorithme tente de trouver un bloc
identique dans l'image précédente. S'il y parvient, il code le déplacement du bloc et, si besoin, les
légères transformations qu'il a subies. S'il ne le trouve pas, il est enregistré entièrement. Si
beaucoup de blocs sont dans ce cas (e.g., changements de plans), une nouvelle Ref est créée.
Il existe plusieurs standards MPEG
- MPEG-1. Standard de compression des données vidéos et des canaux audio associés (jusqu'à 2
canaux pour une écoute stéréo) apparu en 1992. Il permet de stocker des vidéos à un débit de
1.5Mbps dans une qualité proche des cassettes VHS sur un support CD appelé VCD (Vidéo CD) : 30
images "352x240" / seconde en NTSC et 25 images "352x288" / seconde en PAL/SECAM. Il
emploie plusieurs techniques :
* Intra coded frames (Frames I ou codage interne): les images sont codées séparément sans faire
référence aux images précédentes. Il y a environ 2 telles images référence par seconde.
* Predictive coded frames (Frames P ou codage prédictif): l'encodeur décrit l'image par différence
avec l'image précédente. Pour cela, il définit des blocs, appelés macroblocs (16x16 pixels) qui se
superposeront à l'image précédente. Il compare les 2 images bloc par bloc et à partir d'un certain
seuil de différence, il considère le bloc de l'image précédente différent de celui de l'image en
cours et lui applique une compression JPEG. La vitesse de l'encodage est déterminée par la
recherche des macroblocs : plus l'algorithme cherche des "bons" blocs, plus il perd de temps. Par
rapport aux frames-I (compressant directement), les frames-P demandent d'avoir toujours en
mémoire l'image précédente
* Bidirectionally predictive coded frames (Frames B): les images sont décrites par différence avec
l'image précédente ou avec l'image suivante. Ceci améliore la compression, mais augmente le
temps calcul, car il faut stocker et traiter trois images (la précédente, l'actuelle et la suivante)
* DC Coded frames: les images sont décodées en faisant des moyennes par bloc. Cela donne une
très basse résolution, mais permet une décompression très rapide. C'est très utile pour visualiser
en avance rapide car le décodage "normal" demanderait trop de ressources processeur
En pratique, afin d'optimiser le codage MPEG, les séquences d'images sont codées en tant que
suite d'images I, B, et P, dans un ordre déterminé expérimentalement. La séquence type appelée
GOP (Group Of Pictures : groupe d'images) est "IBBPBBPBBPBBI". Une image I est donc
insérée toutes les 12 frames
- MPEG-2. Standard dédié originalement à la télévision numérique (HDTV) offrant une qualité élevé à
un débit pouvant aller jusqu'à 40 Mbps, et 5 canaux audio surround. Le MPEG-2 permet de plus une
identification et une protection contre le piratage. Il s'agit du format utilisé par les DVD vidéos.
- MPEG-4. Standard destiné à permettre le codage de données multimédia sous formes d'objets
numériques, afin d'obtenir une plus grande interactivité, ce qui rend son usage particulièrement
adapté au Web et aux périphériques mobiles.
- MPEG-7. Standard visant à fournir une représentation standard des données audio et visuelles afin de
rendre possible la recherche d'information dans de tels flux de données.
47
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
- MPEG-21. En cours d'élaboration. Le but est de fournir un cadre de travail (en anglais framework)
pour l'ensemble des acteurs du numériques (producteurs, consommateurs, ...) afin de standardiser la
gestion de ces contenus, les droits d'accès, les droits d'auteurs, ...
● Format DivX
Le format DivX est un format de compression/décompression vidéo permettant d'obtenir des vidéos
compressées très peu volumineuses avec une perte de qualité très raisonnable. Ainsi le format DivX
permet de stocker un film complet sur un CD-ROM de 650 ou 700 Mo.
Le format DivX a été mis au point en 1999 par un développeur français de 27 ans, du nom de Jérôme
Rota, à partir du codec MPEG-4 v3 de Microsoft. En effet le codec MPEG-4 fourni en standard avec
la version Bêta du lecteur multimédia Windows Media Player était parfaitement opérationnel mais à la
sortie de la version officielle, celui-ci ne fonctionnait plus correctement. C'est la raison pour laquelle J.
Rota décida de le corriger et d'y ajouter la possibilité de compresser le son au format MP3. Il mit ainsi
au point ce qui allait devenir le format "DivX. Le codec, jusqu'à sa version 3.11 alpha, était un projet
OpenSource (appelé OpenDivX et porté par le Project Mayo) basé sur un "hack" du codec de
Microsoft. En 2001, J. Rota fonda l'entreprise DivX Networks afin de produire un nouveau codec
propriétaire entièrement réécrit afin de s'affranchir des droits vis-à-vis de la firme Microsoft, ce qui
déboucha sur la version 4 du codec, baptisée DivX4. Lors du passage à la version 5 du codec
(nommée DivX5), le codec de compression DivX est devenu payant (DivX®) ou bien contient un
spyware dans sa version gratuite (DivXTM).
Le format DivX (à partir des versions 4 et supérieures) ainsi que les autres formats vidéos ne sont pas
illégaux en soi, mais leur utilisation peut l'être en raison du droit d'auteur qui s'applique sur les oeuvres
compressées. Ainsi les articles L122-5-2 et L211-3 du code de la propriété intellectuelle autorisent la
copie privée d'une oeuvre à partir d'un original acquis légalement (par exemple un DVD de location),
pour un usage privé et dans un cercle familial. Une taxe a ainsi été appliquée aux supports de stockage
(CD-R) afin de compenser le manque à gagner des artistes provoqué par le droit à la copie privée. En
contrepartie, la diffusion (mise en partage sur Internet, envoi par messagerie ou tout autre moyen ou
via un logiciel d'échange de fichiers) et le téléchargement d'oeuvres protégées par le droit d'auteur sont
interdits par la loi et le cas échéant sanctionnés pour contrefaçon.
● Autres formats
Format XviD. C'est une implémentation OpenSource du codec Divx, développée à partir de 2001, à
l'occasion du passage du format DivX original (porté par le groupe Project Mayo) à un format
propriétaire. Le format XviD propose aussi une compression de très bonne qualité.
Format VP3. C'est un format alternatif Open Source développé par la société On2. La qualité des
vidéos est moindre qu'en DivX mais le format VP3 est surtout destiné à une utilisation en streaming.
Format 3ivX. C'est un format de compression vidéo alternatif permettant une compression MPEG-4
dans des fichiers Apple QuickTime (extension .mov). Sa qualité est bien moindre que celle du DivX.
Format MKV (Matroska Video). C'est un format vidéo entièrement libre. En fait, c'est un conteneur
(d'où le nom Matroska, en référence aux poupées russes) qui peut contenir de la vidéo (DivX, Xvid,
RV9, etc.), du son (MP3, MP2, AC3, Ogg, AAC, DTS, PCM), et des sous-titres (SRT, ASS, SSA,
USF, etc.) dans un même fichier. Le format MKV est basé sur une structure dérivée de XML, appelée
EBML (Extensible Binary Meta Language). Ainsi grâce au format Matroska, il est notamment possible
de réaliser des fonctions de chapîtrage, de créer des menus, de faire des recherches dans le fichier, de
sélectionner une source sonore ou bien de choisir un sous-titrage.
48
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
I.8 ANNEXE III : LES TECHNIQUES : CAPTEURS 2D OU CAPTEURS 3D
Selon qu'un robot doit repérer une pièce dans un plan ou dans l'espace, on utilise des capteurs 2D ou
des capteurs 3D. Pour tout capteur, une phase d'étalonnage est nécessaire pour définir un repère
commun à la vision et au robot. De plus, le capteur peut être fixe ou embarqué.
● Capteurs 2D
Ils servent par exemple à la prise de pièce sur convoyeur et à la mise en position de pièce. La figure
ci-jointe illustre un cas où la vision apprend les coordonnées de la tôle dans sa position correcte.
Pour chaque nouvelle tôle présentée au capteur 2D, la vision calcule les ∆X, ∆Y et l'angle de
rotation α. Elle transmet ces coordonnées au robot qui peut ainsi recaler sa trajectoire et déposer
correctement la pièce.
Capteur 2D : un robot dépile des tôles et doit les déposer dans une position bien définie.
● Les capteurs 3D
Ils servent par exemple à l'assemblage automatique et à la mise en position de pièce. Deux
techniques sont utilisées : la stéréoscopie et la triangulation laser
- La stéréoscopie :
Elle emploie 2 caméras regardant la
même pièce (P) à un instant donné
sous 2 angles différents. En
combinant ces 2 images 2D
obtenues, la vision détermine la
position (x, y, z) et d'éventuels
décalages (∆x, ∆y, ∆z) et rotations
(θx, θy, θz) de la pièce.
- La triangulation laser :
Un plan laser est projeté sur une
pièce observée par une caméra.
Cette technique permet de déduire
la hauteur z de la pièce avec une
seule caméra. Elle permet aussi de
s'affranchir de la lumière ambiante
et de l'aspect des pièces.
49
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
La stéréoscopie laser permet de détecter l'empilement de 4 produits.
Balayage laser de la pièce. Il peut s'effectuer de 2 manières :
- La caméra et la pièce sont fixes : seul le faisceau laser est orienté par un moteur pas à pas pour
balayer la totalité de l'objet à mesurer.
- La pièce défile sous le plan laser. Les images de la pièce sont prises lors du défilé.
50
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
I.9 ANNEXE IV : EXEMPLE DE CAMERA INFRAROUGE INDUSTRIELLE (FLIR Systems : www.flir.fr)
Les caméras infrarouge thermique ont des caractéristiques variables selon les applications envisagées.
Ainsi, la ThermaCAM P640 possède une matrice de 640x480 éléments, soit 307.200 pixels. Sa
précision est 0.06°C à 30°C. Elle a un viseur (écran LCD) et un zoom. Elle peut enregistrer des
séquences vidéo. La ThermoVision SC6000 possède un détecteur (antimoniure d'indium InSb, InGaAs
ou QWIP, selon les cas d’étude) de 640x512 éléments (327.680 pixels) avec une sensibilité thermique
de 18mK. La ThermoVision™ A10 est très petite, avec cependant une bonne qualité d'image
[160x128 pixels] et une résolution thermique de 0.08°C. Elle est très utile pour les applications
d'imagerie (surveillance des procédés industriels, détection et prévention des incendies, robotique,
surveillance, etc.) à poste fixe, lorsque l'opérateur est confronté à des contraintes d'espace, de poids
et/ou de puissance, mais aussi pour tout type d'application embarquée.
Thermacam P640
ThermoVision™ A10
La Thermovision 320 est une caméra infrarouge industrielle : matrice microbolomètre de 320 x 240
éléments. Ses spécifications techniques (indice de protection IP65, résistance aux chocs de 25 G, etc.)
sont parfaitement adaptées aux besoins de l'Automation. Des sorties analogiques et des ports logiques
vers un automate permettent son intégration dans tout type de procédé industriel. Elle peut fonctionner
avec une interface compatible LabView de National Instruments, des optiques additionnelles, des
filtres hautes températures, des enceintes climatiques ou de protection...
Certaines caméras (e.g., caméra GasFindIR de FLIR Systems) permettent de localiser en temps réel et
facilement les fuites de gaz et/ou autres composés organiques volatiles (COV). Il est ainsi possible
d'inspecter, en peu de temps, de grandes zones et même des kilomètres de gazoduc. Les fuites prennent
à l'écran l'apparence d'un panache de fumée.
Mesure du laitier et de la température de la coulée
Dans un convertisseur, on produit de l’acier par injection d’oxygène dans de la fonte en fusion au
moyen d’une lance. Le procédé génère des scories qui se mélangent à l’acier brut lors de la coulée,
entraînant ainsi une baisse significative de la qualité de l’acier. Le moyen de contrôle idéal est de
visualiser la coulée d’acier se déversant dans la poche, et d’arrêter le remplissage de celle-ci dès
51
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
l’apparition de scories en quantité significative. Cette approche est compliquée par le fait que la coulée
ayant une température supérieure à 1700°C génère un fort rayonnement lumineux, en plus de
poussières denses et de vapeur d’eau. De plus, les scories et l’acier s’écoulent en continu.
La détection de scories en mouvement repose sur l’emploi d’une caméra matricielle avec une cadence
image assez élevée pour mesurer la température et l’émissivité des objets en mouvement. Le contraste
des scories et de l’acier est maximum dans la bande [8µm 12µm]. Il est 4.5 fois supérieur à celui
obtenu dans la bande [3µm 5µm].
Image de la coulée lors du
passage de l’acier
Image de la coulée lors du
passage des scories
Contrôle des moules de moussage
Les sièges, les dossiers, les repose-têtes et les accoudoirs des véhicules (automobiles, bus, avions, etc.)
sont fabriqués par expansion d’un produit plastique à l’intérieur d’un moule fermé en aluminium. Des
opérateurs disposent manuellement des renforts dans ces moules quand ils sont ils ouverts. Toute
défaillance dans le choix et/ou le positionnement d’un renfort entraîne le rebutage de la pièce
fabriquée. Il convient donc de contrôler les moules et la mise en place des renforts. La solution
apportée par FLIR Systems est une caméra de thermographie infrarouge (thermovision 320M). Par
rapport à une caméra visible, elle donne un meilleur contraste, ce qui facilite le traitement d’images.
De plus, elle permet un suivi de température des moules sur les zones sensibles.
Images d’un moule. a) Caméra visible. b) Caméra infrarouge thermique.
Contrôle du formage de matière plastique
Le thermoformage s’applique à une grande variété de pièces en matière plastique pour de nombreux
secteurs industriels. Cela consiste à chauffer une feuille plane dans un four, puis une fois ramollie la
placer entre une matrice et une contre forme. C’est ainsi que sont fabriqués dans l’industrie automobile
les moquettes, panneaux de portes, etc. L’emploi d’une caméra matricielle à haut débit (50 Hz) fournit
l’obtention de thermogrammes avec un débit suffisant.
52
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Thermogramme de feuille plastique en sortie de zone de chauffe. Profil horizontal de l’hétérogénéité.
Détection d'anomalies sur cartes électroniques
La réparation d’équipements audiovisuels requiert une expertise rapide et fiable des cartes
électroniques. Les tests électroniques permettent en général de découvrir les défauts, mais il sont
longs et dépendants de l’expérience de l’opérateur, compte tenu de la diversité des cartes à traiter et
de leur fréquente méconnaissance, ne serait-ce que par raison de confidentialité de la part du client.
De plus, ce type de réparation ne fournit aucune information sur l’état des composants électroniques
de la zone endommagée, et donc aucune information sur la durée de vie future de la carte. Les
caméras infrarouge thermique constituent une bonne solution (e.g., thermo vision 320M).
Image thermique d’une carte
électronique par la caméra
thermovision 320M.
Contrôle de soudure on line en temps réel
Beaucoup d’industries cherchent à assurer en temps réel un contrôle simple et fiable des soudures.
Le but est d’améliorer la qualité des produits, et aussi d’éviter le rebus de pièces qui ne sont jugées
défectueuses qu’en fin de chaîne. En effet, une correction apportée en temps réel durant le soudage
suffit souvent à produire des pièces conformes. Ainsi, le contrôle visuel en temps réel des zones
chaudes le long du filée de soudure permet de détecter des défauts de structure internes (bulle d’air,
soudure sèche, etc.). De plus, la mesure de température précise permet de corriger une dérive du
process. Les caméras visibles ne conviennent pas, car elles sont éblouies par le rayonnement. De
plus, elles ne mesurent pas la température et ne donnent pas d’image nette à travers la fumée, la
poussière, et la vapeur d’eau ou d’huile. Les caméras thermiques constituent une très bonne solution.
Soudure laser YAG (1064nm)
Soudure par chauffage / emboutissage
53
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
Thérapie de la douleur
La douleur produit des impulsions
électriques dans les nerfs, qui génèrent
alors de la chaleur. L’emploi d’une
caméra infrarouge thermique permet de
détecter ces zones de douleur et d’assurer
leur suivi dans le temps.
Application dans l'industrie de la verrerie
L’industrie du verre (bouteille, pare-brise, etc.) utilise la thermographie infrarouge. Ainsi, la
cartographie d’une pièce en verre en sortie du four permet de détecter un manque de matière (i.e.,
produit plus fragile), et un surplus de matière (i.e., poids et contenance modifiés). La surveillance
des zones et gradients de chauffe est aussi très utile pour améliorer la qualité finale du produit.
Contrôle sur ligne de fabrication de bouteilles et d’ampoules.
54
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
I.10 ANNEXE IV : SYSTEME D'OBSERVATION SATELLITAIRE
I.10.1 Acquisition d'images
Il est considéré un capteur satellite qui observe la Terre dans le domaine spectral du rayonnement
solaire réfléchi (e.g., visible). La réflectance spectrale est donc la grandeur physique en général
recherchée. Les résolutions spatiale, radiométrique et spectrale dépendent directement des
caractéristiques du capteur et de la nature des prétraitements réalisés. Parmi toutes les corrections
d'image (e.g., capteur, atmosphère, relief, etc.) nécessaires pour estimer correctement la réflectance de
surface, les corrections des effets instrumentaux sont les mieux maîtrisées aujourd'hui. Ces corrections
font appel à la physique instrumentale et au traitement du signal. Elles s'appuient sur la fonction de
transfert du capteur. Elles sont de plus en plus importantes dans la définition des capteurs optiques
satellites. Par contre, la correction des autres effets (i.e., atmosphère, relief, etc.) requiert des
connaissances différentes (e.g., transfert radiatif dans l'atmosphère). La notion de fonction de transfert
instrumentale associée à l'acquisition d'images est brièvement rappelée ci-dessous.
Une image est une matrice de pixels repérés par leur numéro de ligne l et de colonne c. Tout pixel
correspond à un élément de surface (∆x,∆y) centré sur le point de coordonnées (x,y) dans le plan focal
du système d'acquisition, ou bien correspond à un élément de surface au sol (∆X,∆Y) centré sur le
point (X,Y). Ainsi, la surface au sol d'un pixel associé à une observation du capteur SPOT XS à la
verticale (nadir) de la Terre est un carré de 20m de côté. En fait, toute mesure en un point (x,y) dépend
du point (X,Y) qui lui est géométriquement associé ainsi que du voisinage de ce point (X,Y).
Soit le cas idéal {capteur satellite au nadir, pas d'atmosphère} où la mesure en tout point (dx,dy) ne
dépend que de la surface (dX,dY) qui lui est géométriquement associée. Alors, la puissance incidente
au point (dx,dy) du plan image est :
s(x,y) ≈ K.
∆λ(X,Y).dX.dY = K.J. ∆λ(x,y).dx.dy
où ∆λ(X,Y) = < λ. λ>∆λ, K ne dépend que des caractéristiques du capteur et J représente la
transformation géométrique de (X,Y) à (x,y).
En fait toute mesure en (x,y) dépend à la fois de (X,Y) et de son environnement. Ainsi, l'influence de
(dx',dy') sur la puissance recueillie en un point (dx.dy) du plan image est :
ds(x,y) = K.J.
∆λ(x',y').h(x-x',y-y').dx'.dy'
+∝
+∝
où h(x,y) est la réponse impulsionnelle de l'optique normalisée : ⌠ ⌠
⌡h(x,y).dx.dy = 1.
⌡
-∝
+∝ +∝
L'ensemble du paysage donne donc : s(x,y) = K.J. ⌠ ⌠
⌡
⌡
-∝
∆λ(x',y').h(x-x',y-y').dx'.dy' = K.J.(h* ∆λ)(x,y)
-∝ -∝
où le symbole * représente le produit de convolution.
Le signal s(x,y) est une fonction linéaire de < λ. λ>∆λ si la luminance de la scène est uniforme, i.e.
λ(x,y) = cste ∀ (x,y). D'autre part, h est à priori indépendant de (x,y). Le déplacement du capteur
complique le problème. Par suite, il est souvent considéré que h est une réponse impulsionnelle totale
qui intègre l'ensemble des effets instrumentaux et pas seulement ceux de l'optique.
La mesure Q(c,l) résulte de l'échantillonnage de s(x,y). Elle résulte donc d'une convolution suivie d'un
échantillonnage. Ainsi, avec un peigne de Dirac dont le pas d'échantillonnage spatial est Le :
Q(c,l) = K'.[Σ
δ(x - c.Le).δ(y - l.Le)].[(h*< λ. λ>∆λ)(x,y)]
c,l
La transformée de Fourier de l'image est : S(fx,fy) = K'.P(fx,fy,Le)*[E(fx,fy).H(fx,fy)]
1
- P(fx,fy,fe) = Σ
δ(fx - i.fe).δ(fy - j.fe) où fe = . : transformée de Fourier du peigne de Dirac.
i,j
Le
- E(fx,fy) : spectre fréquentiel de la scène. C'est le signal que l'on veut récupérer.
- H(fx,fy) : fonction de transfert de modulation du système avec la fréquence de coupure fc. Elle
diminue les hautes fréquences spatiales de l'image, par rapport à la scène réelle.
55
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
L'échantillonnage fe explique que le spectre de l'image des pixels Q(c,l) est la somme de contributions
centrées sur les fréquences 0, ±fe, ±2fe, etc. En présence d'un repliement de spectre, le compte
numérique de tout pixel dépend de celui d'autres pixels. Ainsi, pour un signal 1-D (Figure I.31) :
n=+∝
S(f) = Σ E(f-n.fe).H(f-n.fe)
n=-∝
(S(f) est périodique de période fe)
Pour le capteur SPOT, Le=20m et fe≈0.05m-1.
I.10.2 Reconstruction d'image
a.) Principe
Toute reconstruction ou rectification d'image implique de rechercher pour tout point de l'image
résultat son point homologue dans l'image brute. Un tel point homologue ne coïncide en général pas
avec les nœuds de la grille d'échantillonnage de l'image brute. Il est repéré par:
- la ligne l et la colonne c du nœud le plus proche de la grille d'échantillonnage de l'image brute.
- l'écart (α,β) au nœud le plus proche. Ici, il est normalisé par rapport au pas d'échantillonnage L.
L'information radiométrique attribuée au point de l'image résultat est la valeur radiométrique du
point de coordonnées [(p+α).L,(l+β).L] dans l'image brute. Or, seule la radiométrie sc,l aux points
d'indice (c,l) est connue. Il s'agit donc de calculer dans le plan de l'image brute la valeur d'une
fonction que l'on ne connaît qu'aux nœuds d'un maillage régulier (c.L, l.L). Il s'agit donc d'une
interpolation. La fonction utilisée doit être continue. Elle est appelée fonction de reconstruction
d'image r(x,y). En pratique, elle correspond à une simple combinaison linéaire de la forme :
i=i2 j=j2
s'[(c + α).L, (l + β).L] = Σ Σ Cij(α,β).sc-i,l-j
i=i1 j=j1
avec Cij(α,β) = r((i+α).L,(j+β).L)
s'(x,y) résulte donc de la convolution de l'image brute s(x,y) par la fonction de reconstruction r(x,y).
Pour des raisons de coût calcul on utilise souvent l'approximation : Cij(α,β) = Ci(α).Cj(β).
Le spectre de l'image reconstruite est le produit du spectre de l'image brute par la fonction de
transfert R(fx,fy) qui est la transformée de Fourier de r(x,y). Le choix de R(fx,fy) est important. Ainsi,
R(fx,fy) peut être conçu pour compenser des effets instrumentaux, e.g. si H(fx,fy) est trop faible à
haute fréquence spatiale. R(fx,fy) représente alors une déconvolution. Si l'on ne cherche pas à
compenser un défaut instrumental, R(fx,fy) représente alors une simple interpolation.
D'un point de vue formel, la reconstruction d'image correspond à l'enchaînement de deux processus :
(i) combinaison linéaire visant à reconstituer dans le plan une fonction continue s'(x,y) dont les
valeurs ne sont initialement connues qu'aux seuls nœuds d'un maillage régulier.
(ii) ré-échantillonnage à la fréquence spatiale f'e de s'(x,y) sur une grille régulière. f'e peut différer de
l'échantillonnage fe de l'image brute. Le ré-échantillonnage f'e correspond à l'application d'un
peigne de Dirac. Il peut donc entraîner un repliement de spectre. Trois cas sont à considérer :
- f'e ≈ fe. Pour que les images brute et rectifiée aient un contenu fréquentiel semblable, R(f) doit
conserver l'information pour |f| < fe/2 et la détruire pour |f| > fe/2. En effet, toute information que
R(f) laisse passer au-delà de |f| > fe/2 produit un repliement de spectres qui perturbe le signal
aux fréquences utiles (|f| < fe/2).
- f'e > fe. La bande [fe/2 f'e/2] contient de l'information "artificielle" issue du premier repliement
de spectre à la fréquence fe. Ceci souligne l'intérêt d'un filtrage efficace pour f > fe/2 par R(f).
- f'e < fe. L'information, à priori significative, contenue dans la bande [f'e/2 fe/2] peut polluer par
repliement de spectres autour de f'e/2, la nouvelle bande utile: [0 f'e/2]. Si cet effet est jugé
nuisible, il faut que la fréquence de coupure de R(f) soit f'e/2 et non fe/2.
b.) Interpolation
De manière à minimiser la dégradation du contenu fréquentiel de l'image, le spectre R(f) de la
fonction de reconstruction doit être une fonction porte qui vérifie :
- |R(f)| ≈ 1 pour f < fe/2 pour ne pas atténuer les hautes fréquences utiles de l'image. En effet, une telle
atténuation se traduit par une perte de contraste (sensation de flou).
56
IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL
- |R(f)| ≈ 0 pour f > fe/2, pour ne pas introduire de hautes fréquences parasites sans signification.
Par suite :
r(x) =
sin(π.x/L)
π.x/L
et
donc Ci(α) =
sin(π.(i+α))
π.(i+α)
avec i∈]-∝ +∝[
Cette approche préserve au mieux, globalement, les fréquences spatiales de la scène. Cependant, elle
a deux inconvénients. (1) Elle nécessite un nombre infini (i∈]-∝ +∝[) de coefficients, ce qui est
irréalisable en pratique. (2) L'emploi de coefficients négatifs peut induire des rebonds
radiométriques, et donc créer de faux contours. Ces deux inconvénients sont souvent minimisés en
utilisant une fonction R(f) qui passe progressivement, et non de manière abrupte, de 1 à 0 à f ≈ fe/2.
Les méthodes d'interpolation utilisées diffèrent selon le nombre et la valeur des coefficients Ci :
- Méthode du plus proche voisin : un seul coefficient.
- Interpolation linéaire : quatre coefficients associés aux quatre nœuds les plus proches.
- Interpolation bi-cubique : coefficients de polynômes de degré inférieur ou égal à 3 qui approchent
sinc(π.x) sur des intervalles du type [k k+1] et qui assurent la continuité des valeurs et des dérivées
aux points de jonction. Cette interpolation minimise les rebonds radiométriques.
c.) Déconvolution
Il existe un cas simple où l'emploi de R(fX,fY) permet, au moins théoriquement, de retrouver le
δ(x - c.Le).δ(y - l.Le)].[E(fx,fy).H(fx,fy)].
spectre E(fx,fy) où fX,fY∈[0, fe/2], à partir de S(fx,fy) = K'.[Σ
c,l
fe
fe
Supposons pour cela que [H.E](f) est nul au-delà de (i.e., H(f) et/ou E(f) = 0 pour f > ). Dans ce
2
2
fe fe
].
cas, le premier repliement de spectre ne perturbe pas l'information utile dans la bande [2 2
I(f)
fe
fe
Choisissons alors : R(f) =
, où I(f) est la fonction porte (I(f) = 1 pour |f| < et I(f) = 0 pour |f| > ).
H(f)
2
2
fe fe
Le spectre de l'image résultat est alors égal à E(f) sur la bande [], car R(f) remonte les
2 2
fréquences spatiales altérées par H(f). En fait, la fonction R(f) est incorrecte, car elle remonte aussi
le bruit présent dans l'image et les erreurs résiduelles de repliement de spectre. Ainsi, en appelant
B(f) le spectre du bruit instrumental avant le premier échantillonnage, S(f) peut s'écrire :
S(f) = E(f).H(f) + Σ E(f-n.fe).H(f-n.fe) + Σ B(f-n.fe)
n≠0
n
Le spectre de l'image reconstruite est donc: R(f).S(f) = E(f).I(f) + Σ E(f-n.fe).
n≠0
H(f-n.fe).I(f)
B(f-n.fe).I(f)
+Σ
H(f)
n
H(f)
Les termes parasites (bruit et repliement de spectre) peuvent donc être très amplifiés si H(f) a de très
faibles valeurs. Par suite, il est souvent choisi une déconvolution R(f) = I(f) / H(f), où I(f) passe
fe
graduellement à 0 au voisinage de , et non brutalement comme avec une fonction porte.
2
Outre le désavantage possible de remonter les bruits et les erreurs de repliement de spectres, la
déconvolution peut faire apparaître des rebonds radiométriques indésirables (i.e., points brillants et
noirs) au voisinage de structures marquées de la scène. Ceci peut faire apparaître de faux contours,
alors que l'atténuation des contrastes peut s'avérer moins perturbante. Il ne convient donc pas
d'appliquer systématiquement une déconvolution. En fait, l'emploi d'une déconvolution est
indispensable uniquement si la fonction de transfert de modulation du système est très dégradée.
57
II PHYSIQUE DU RAYONNEMENT
Une image acquise par un capteur est une distribution spatiale de caractéristiques du rayonnement
incident (i.e., puissance, amplitude du champ électrique, polarisation, phase, fréquence ou direction de
propagation). Ayant été réfléchi, transmis ou émis par l'objet observé, ce rayonnement est supposé
transporter "l'empreinte" de l'objet, c'est à dire une information qui peut être géométrique (e.g.,
dimension, forme, rugosité de surface), physico-chimique (e.g., présence et densité d'impuretés), etc.
L'interprétation de cette information requiert souvent une bonne compréhension des mécanismes
électromagnétiques, électroniques, etc. à l'origine de l'image. Ce chapitre introduit les bases
essentielles pour comprendre les mécanismes électromagnétiques mis en jeu.
II.1 LE RAYONNEMENT ELECTROMAGNETIQUE
II.1.1 Principales caractéristiques
ξ
Le terme "onde" de vitesse v désigne une variation spatio-temporelle Ψ(t± ) où t est la variable temps
v
et ξ est la variable espace. Lors de sa propagation, une onde ne transporte que de l'énergie. Elle ne
transporte pas de matière (e.g., les vagues ne déplacent pas les bateaux). Un point atteint par une onde
reproduit l'état de sa source avec une amplitude inférieure ou égale et un retard du au temps mis par
l'onde pour parcourir le trajet depuis la source. Les ondes lumineuses sont transverses, car les champs
Ψ transportés (i.e., champs déplacement D et magnétique B) sont normaux à la vitesse de déplacement
Depuis une source ponctuelle, l'onde se propage dans toutes les
directions sous forme d'onde sphérique. Les fronts d'onde associés sont
déformés si le milieu n'est pas homogène (i.e., variation d'indice de
réfraction). Par suite, la direction de propagation change. Ainsi, une
lentille de verre peut transformer une onde sphérique en onde plane.
Une onde est dite plane si sa direction de propagation u- est unique et si en tout point -r de l'espace ξ = u.r-. Alors, ξ est constant en tout point de chaque plan normal à la direction de propagation. Un tel plan
est une surface de phase constante, à un instant donné.
L'onde est dite monochromatique (Erreur ! Source du renvoi introuvable.) si D et B ont des
variations sinusoïdales en phase, infinies dans le temps et l'espace. Elle est caractérisée par sa
fréquence temporelle f, sa longueur d'onde λ (i.e., période spatiale) et sa phase φ en un point origine et
à un instant initial. Sa phase se déplace à une vitesse de phase v = λ.f. Son écriture mathématique est :
2πx
x
2πx
- - D = Do.cos(ω.t-k.x+φ) = Do.cos(2π.f.t+φ) = Do.cos[2π.f.(t- )+φ] ⇔ D = Do.{exp[j(2π.f.t+φ)]}
v
λ
λ
Do : amplitude du champ déplacement D. L'orientation de D indique la polarisation de l'onde.
2π
ω : fréquence angulaire ou pulsation, avec ω = 2πf. La période de l'onde est T = .
ω
2π
v
- 2π k=
: nombre d'onde k = .u est le vecteur d'onde. λ décroît avec f, car λ = = v.T.
f
λ
λ
ωt - kx + φ : phase de l'onde à l'instant t et au lieu x.
D
Champ déplacement
k
Longueur d'onde λ (période spatiale)
B
Champ induction magnétique
Direction de
propagation
Fréquence f (nbre de cycles/s)
Figure II.1 : Propagation d'une onde plane de polarisation rectiligne.
La longueur d'onde λ et la vitesse v, contrairement à la fréquence, dépendent des propriétés électriques
vitesse c dans le vide
λvide
du milieu de propagation, et donc de son indice de réfraction n =
=
(e.g.,
vitesse v dans le milieu λmilieu
59
PHYSIQUE DU RAYONNEMENT
n(vide) = 1, n(paroi cellulaire hydratée) ≈ 1.4 et n(eau) ≈ 1.33). La propagation d'une onde est
rectiligne / non rectiligne dans les milieux homogènes (i.e., n constant) / hétérogènes (i.e., n variable).
Un rayonnement ne peut durer qu'un temps fini et ne peut être totalement monochromatique. Sa
représentation mathématique est donc la superposition d'un grand nombre d'ondes monochromatiques
avec des fréquences distribuées sur un intervalle ∆f. On parle alors de vibration ou de train d'ondes.
L'intervalle ∆f est d'autant plus petit que le rayonnement ressemble à une onde monochromatique.
II.1.2 Sources de rayonnement électromagnétique
Une source peut être naturelle ou artificielle, et ponctuelle ou étendue.
• Sources naturelles : elles génèrent un rayonnement par émission thermique (e.g., soleil, Terre)
et/ou par diffusion de rayonnement issu d'autres sources (e.g., Terre).
• Sources artificielles (e.g., radar, laser, four micro onde): un de leur intérêt majeur est d'émettre un
rayonnement avec des caractéristiques (fréquence, amplitude, direction, polarisation, phase) définies.
Près d'une source ponctuelle et isotrope le rayonnement émis est composé d’ondes sphériques, c'est à
dire d'ondes identiques sur la surface de sphères centrées sur la source de rayonnement. La surface de
phase constante d'une onde sphérique est donc une sphère centrée sur la source de rayonnement. Par
contre, loin de toute source, le rayonnement tend à être composé d'ondes planes.
Les champs D et B forment avec u- un trièdre direct: D = v.ε.B Λ u-, où v est la vitesse de propagation et
ε la permittivité électrique du milieu de propagation. D et B sont donc normaux à la vitesse v- de
v propagation. La puissance électromagnétique instantanée est .|D|2. Dans le vide, v = c ≈ 3.108 m.s-1.
ε
II.1.3 Le spectre électromagnétique
Les sources naturelles ne sont en général pas des sources quasi-monochromatiques. Ainsi, le soleil
émet par émission thermique un rayonnement, dit "rayonnement solaire", qui est la superposition
d'ondes électromagnétiques dont les fréquences couvrent un très large domaine. L'ensemble de ces
ondes constitue le spectre électromagnétique du rayonnement solaire. La Figure II.2 illustre la
décomposition du rayonnement solaire selon ses composantes spectrales (ondes "monochromatiques").
Seules les composantes dans le domaine du visible sont représentées. Les principaux domaines
spectraux utilisés en télédétection sont le visible, le proche infrarouge, le moyen infrarouge,
l'infrarouge thermique et les hyperfréquences (Table 1).
Ultraviolet
Violet
Bleu
Vert
Jaune
Orange
Rouge
Infrarouge
Prisme
Dispersion
Figure II.2 : Décomposition spectrale du rayonnement solaire.
En fait, l'être humain ne perçoit qu'une petite fraction du spectre du rayonnement solaire. Nos yeux
constituent un système optique où le cristallin est une lentille de focale variable, la pupille un diaphragme
automatique et la rétine un plan image. La rétine comprend deux types de photorécepteurs qui ne sont
sensibles qu'au domaine spectral du visible, i.e. de 380 nm à 780 nm. Ces photorécepteurs sont:
- bâtonnets. Ce sont des photorécepteurs panchromatiques qui donnent une seule réponse pour tout le
visible. Leur sensibilité spectrale varie peu avec la longueur d'onde. Leur dimension est ≈2.5-3 µm et
leur distance mutuelle est ≈10-20 µm.
60
PHYSIQUE DU RAYONNEMENT
- cônes. Ils autorisent la vision des couleurs. En effet, il y a 3 types de cônes respectivement sensibles
à des domaines spectraux centrés sur le bleu, le vert et le jaune - vert (Figure II.3). Par rapport aux
bâtonnets, leur sensibilité radiométrique est moindre, ils permettent une meilleure résolution spatiale,
ils sont plus petits (≈ 1-2 µm), ils sont plus serrés (≈ 2.5-10 µm), ils sont concentrés autour de la
fovéa et ils sont moins nombreux (≈ 6-7 millions de cônes pour ≈ 120 millions de bâtonnets).
Domaine spectral
λ
f
Capteurs
Radio LF MF HF VHF UHF
Micro-ondes
P
UHF
L
S
C
X
K
Infrarouge
Lointain
Thermique
Moyen
Proche
3 km - 3 m
136 cm - 100 cm
100 cm - 30 cm
30 cm - 15 cm
15 cm - 7.5 cm
7.5 cm - 3.75 cm
3.75 cm - 2.4 cm
2.4 cm - 0.75 cm
0.75 cm - 15 µm
15 µm - 3 µm
2.5 µm - 1.4 µm
1.4 µm - 0.7 µm
100 kHz - 100 MHz
221 MHz - 300 MHz
3 00MHz - 1 GHz
1 GHz - 2 GHz
2 GHz - 4 GHz
4 GHz - 8 GHz
8 GHz - 12.5 GHz
12.5 GHz - 40 GHz
40 GHz - 2.104 GHz
2.104 GHz - 105 GHz
1.2 105 GHz - 2.1 105 GHz
2.1 105 GHz - 4.3 105 GHz
non utilisé
Visible
700 nm
550 nm
400 nm
400 nm - 290 nm
290 nm - 0.3 A
0.3 A - 0.03 A
4.29 105 GHz
5.45 105 GHz
7.5 105 GHz
7.5 105 GHz - 106 GHz
106 GHz - 1010 GHz
1010 GHz - 1011 GHz
Rouge
Jaune Vert
Violet
Ultraviolet
Rayons X
Rayons gamma
Radars (SAR,
SLAR,
diffusiomètres),
Radiomètres.
Radiomètres
optiques IR
Radiomètres
optiques VIS
peu utilisé
non utilisé
non utilisé
Table 1: Domaines du spectre électromagnétique et types de capteurs de télédétection.
1 m = 106 µm = 109 nm = 1010 A ; 1 GHz = 103 MHz = 106 kHz = 109 Hz. λ = c/f.
100
A b s o r p t i o n r e la t i v e
S e n s i b i l i t é r e la t i v e
80
C ô n e v e rt:
0 .5 5 5 µ m
60
C ô n e ja u n e v e r t : 0 .5 8 5 µ m
40
20
C ô n e b le u :
0 .4 3 µ m
0 .7 8 µ m
0
0 .3 8
0 .5
0 .6
0 .7 µ m
Figure II.3: Caractéristiques spectrales des
cônes de la rétine humaine.
L'intensité lumineuse spectrale effectivement
captée par l'œil est absorbée par les pigments
des 3 types de cônes présents. Les courbes en
trait plein représentent l'absorption relative
associée. La couleur perçue est due à l'énergie
spectrale absorbée mais aussi à la sensibilité
relative des types de cônes (courbes en
pointillé). La sensibilité totale est souvent
notée K.S(λ) avec S(λ) la sensibilité relative.
II.1.4 Interactions "Rayonnement - Matière"
Tout rayonnement qui se propage ou qui est incident sur un milieu réagit avec celui-ci. Les principaux
mécanismes d'interaction sont rappelés ici. Ils dépendent à la fois du rayonnement (e.g. fréquence,
polarisation) et des propriétés électromagnétiques et géométriques du milieu. Toute interaction
correspond à une interception de rayonnement, sachant que le rayonnement intercepté est diffusé et/ou
absorbé. Les interactions diffèrent selon le milieu. Il est généralement considéré :
- interaction de volume: propagation de rayonnement dans un fluide (Figure II.4), et
- interaction de surface: rayonnement incident sur un solide semi-opaque (Figure II.9).
• Milieu gazeux
Tout rayonnement de densité de flux E (W.m-2) incident sur un fluide est plus ou moins intercepté
(i.e., diffusé et/ou absorbé). En l'absence de diffusions multiples, l'interception, l'absorption et la
PHYSIQUE DU RAYONNEMENT
diffusion sont souvent exprimés avec des coefficients égaux à la densité volumique de section
efficace du fluide vis à vis de ces phénomènes. Leur unité est donc (m-1: m2.m-3). Ce sont les
coefficients d'extinction αe, d'extinction pour l'absorption αa et d'extinction pour la diffusion αd. Ils
dépendent en général de la direction incidente Ω, avec en plus la direction de diffusion Ωd pour αd.
D'un point de vue microscopique, les mécanismes d'absorption et de diffusion sont dus à l'interaction
des champs électriques et magnétiques du rayonnement avec les charges électriques du milieu.
Diffusion: E.αd.dr
E
Interception: E.αe.dr ≈ E.[1-e-αe.dr]
Absorption: E.αa.dr
E.(1-αe.dr) ≈ E.e-αe.dr
dr
Figure II.4: Absorption, diffusion et transmission d'un flux E par un gaz sur un trajet dr.
- Diffusion L'intensité diffusée est αd.E.dr, où αd est le coefficient de diffusion. La variation spectrale
de αd est continue, avec une variation qui dépend du milieu. La diffusion est dite élastique si l'onde
diffusée a la même longueur d'onde que l'onde interceptée. Même si l'absorption est nulle, la
diffusion atténue le flux incident, car elle redistribue dans l'espace 4π tout ou partie du flux
intercepté. Les gaz ont une diffusion beaucoup plus isotrope que les aérosols.
- Absorption. L'intensité absorbée est αa.E.dr, où αa est le coefficient d'absorption. Contrairement à
αd, la variation spectrale de αa est discontinue si le fluide a des raies d'absorption (i.e., αe(λ) très
élevé). L'absorption contribue au chauffage du milieu. Un milieu absorbant est dit dissipatif.
- Interception. L'intensité interceptée est dE = -αe.E.dr, où αe est le coefficient d'interception. C'est la
somme de l'absorption et de la diffusion: αe = αa + αd. Le flux transmis sans interception par le
-∆τ
fluide après un trajet ∆r, où ∆τ = ⌠
⌡αe(r).dr est l'épaisseur optique du milieu le long de ∆r, est E.e
∆r
(loi de Beer Lambert). En fait, le flux transmis est supérieur, car le rayonnement intercepté est en
partie diffusé selon la direction incidente.
Dans l'atmosphère terrestre, l'absorption est surtout due aux gaz alors que la diffusion est due aux gaz
et aérosols, dans une proportion qui dépend du domaine spectral. Les gaz ont beaucoup de raies
d'absorption. Dans certains domaines spectraux, ces raies sont assez rapprochées pour former une
bande d'absorption plus ou moins large (e.g., quelques nanomètres à beaucoup plus). Cette absorption
explique qu'un gaz entre un capteur et une cible peut beaucoup perturber l'observation de cette cible.
Par suite, l'observation de la Terre depuis l'espace (i.e., télédétection) utilise des domaines spectraux,
appelés "fenêtres atmosphériques" (Figure II.5), où l'atmosphère a peu ou pas de bandes d'absorption.
Les principales fenêtres atmosphériques utiles en télédétection sont:
- Visible et très proche infrarouge [0,3 - 1,1µm].
- Proche infrarouge [1,1 - 3µm], sous réserve d'une faible teneur en vapeur d'eau.
- Infrarouge thermique [3-5µm], [8-9,5µm] et [10,5 - 13,5µm].
- Micro-ondes, de 1cm à 1m.
Elles dépendent des principaux gaz absorbants de l'atmosphère. Ainsi, entre 0,3 et 20µm, on a :
- Vapeur d'eau (H2O) : elle est située au niveau du sol et ne doit pas être confondue avec les masses
condensées des nuages et brumes. Elle représente l'essentiel de l'absorption au delà de 0,7µm, ne
laissant que quelques fenêtres, c'est à dire des intervalles spectraux sans absorption
atmosphérique, autour de 1,06µm, 1,22µm, 1,6µm et 2,2µm.
- Gaz carbonique (CO2) : il est responsable de plusieurs bandes d'absorption dans le proche
infrarouge et arrête tout rayonnement infrarouge à partir de 14µm.
- Ozone (O3) : l'ozone de la haute atmosphère atténue beaucoup le rayonnement ultraviolet (<0,3µm).
- Combinaisons de l'atome d'oxygène dans les plus hautes couches atmosphériques: O3, N2O, etc.
61
62
PHYSIQUE DU RAYONNEMENT
U ltr a v io le t
V isib le
Infra rouge
E m issio n T he r m iq ue : T e r r e + A tm o sp hè r e
R é fle c ta nc e : T e r r e + A tm o sp hè r e
100%
H 2O
O3
H 2O
O3
H 2O
CO2
H 2O
CO 2
CO2
N 2O
0
0 .5
1 .0
1 .5
2 .0
3 .0
10
15
20
30µ m
M ic r o -O nd e s
Infra rouge
100%
4 .0 5 .0
R a dio
E m issio n T he r m iq ue : T e r r e + A tm o sp hè r e
H 2O
L
Ka
0
500 µ m
0 .1 cm
0 .5 cm
1 .0 cm
X
L ongueur d'onde
5 .0 cm
5 0 cm
1 0 cm
Figure II.5: Transmittance spectrale atmosphérique et principaux gaz absorbants.
Dans l'atmosphère, la diffusion est souvent assimilée à une source de bruit. La variation spectrale de
αd(λ) dépend du rapport "taille des particules diffusantes / longueur d'onde". Ainsi, dans le visible la
diffusion gazeuse est surtout due aux gaz O2 et N2, avec αd(λ) qui décroît comme λ-4. C'est la diffusion
Rayleigh. Par suite, l'atmosphère diffuse beaucoup plus dans le bleu (400 - 450 nm) que dans le rouge
(650 - 700 nm). Pour λ > 1µm la diffusion de Rayleigh est souvent négligée. La diffusion de Rayleigh
explique la couleur bleue du ciel (Figure II.6), la couleur rouge du ciel lors de couchers de soleil, et la
plus grande netteté des ombres dans le proche infrarouge. Pour des particules de dimension similaire à
λ, la diffusion est dite de Mie. αd(λ) décroît alors comme λ-n. Cette diffusion est très anisotrope. Dans
le visible, les aérosols donnent une diffusion de Mie avec n ≈ 0.5-2. La diffusion est dite non sélective
quand les particules ont une taille supérieure à la longueur d'onde. Elle tend alors à être similaire à
toutes les longueurs d'onde. Ainsi, dans le visible, la diffusion des gouttelettes d'eau des nuages
explique leur couleur blanche. Dans les micro-ondes, les gouttelettes d'eau sont les principaux
éléments diffusants.
rouge
Gaz atmosphériques
bleu
(A) : surtout
du rouge
(B) : surtout du bleu
Figure II.6 : Diffusion atmosphérique : le bleu est plus diffusé que le rouge.
En l'absence d'atmosphère l'observateur (A) perçoit du "noir" et (B) perçoit le "jaune" du soleil.
En présence d'atmosphère (A) perçoit la couleur bleue, alors que (B) perçoit la couleur rouge.
L'énergie absorbée αa.E.dr augmente l'énergie interne du fluide. Si celui-ci est à l'équilibre
thermodynamique avec son rayonnement, il émet un rayonnement, dit thermique, égal à αa.E.dr sur un
domaine spectral étendu qui diffère en général de celui du rayonnement incident. En fait, cette
émission ne survient que dans les domaines spectraux où le gaz peut absorber (i.e., αa(λ) ≠ 0), même si
l'absorption effective αa(λ).E(λ) est nulle du fait que le rayonnement incident est nul (E(λ) = 0).
L'atmosphère n'émet donc un rayonnement thermique que dans les bandes spectrales où elle absorbe
(Figure II.7). Un milieu qui à toute longueur d'onde absorbe tout rayonnement qu'il intercepte (i.e.,
αa(λ) = αe(λ)) est appelé "corps noir". Par suite, un corps noir émet sous forme de rayonnement
thermique toute l'énergie qu'il intercepte. Le rayonnement thermique d'un corps noir ne dépend que de
son énergie interne, et donc de sa température. Il est représenté de manière analytique par la loi de
63
PHYSIQUE DU RAYONNEMENT
Planck. Ainsi, le rayonnement du soleil correspond au rayonnement thermique d'un corps noir dont la
température est ≈ 6000 K (Figure II.8).
Transm ittance (% )
atmosphérique
CO2
O3
Absorption
atm osphérique
80
CO2
60
40
H 2O
H 2O
20
(a)
0
4
6
8
10
12
14
16
Em ittance (W .m -2 .µm -1 )
atmosphérique
18
20
22
24
26
24
(µ m )
Em ission
atmosphérique
200
Emission du
corps noir
100
(b)
0
4
6
8
10
12
14
16
18
20
22
Figure II.7 : (a) Bandes de transmission (%) et (b) d'émission thermique des gaz atmosphériques
(W.m-2.µm-1). Les bandes d'absorption sont aussi des bandes d'émission thermique.
Longueur d'onde (µm)
Emission du corps noir. T=5450°C et 3450°C. La longueur d'onde du maximum croît avec T (loi de Wien).
E λ (kW .m -2 .µm -1 )
E clairem ent sp ectral solaire au -dessu s d e l'atm osp h ère
E clairem en t spectral solaire au n iveau d e la m er (soleil au zénith )
2 .0
C ou rbe d u corp s n oir à 5 9 00 K
O3
1 .5
H 2O
O2
A b sorp tion gazeu se
D iffusion (gaz + aérosols)
H 2O
1 .0
A dapté de
V alley (1965).
H 2O , C O 2
0 .5
H 2O , C O 2
O3
0 .0
0.0
0.2
0.4
0 .6
0 .8
1 .0
1 .2
1 .4
1 .6
1 .8
2 .0
2 .2
H 2O , C O 2
2 .4
2.6
2.8
3 µm
Figure II.8: Eclairement solaire spectral en haut et en bas de l'atmosphère.
La loi de Planck ne peut être directement appliquée aux corps naturels, car ce ne sont pas des corps
noirs : ils diffusent une partie du rayonnement qu'ils interceptent (i.e., αd ≠ 0, car αa(λ) < αe(λ)). Leur
émission thermique est en général exprimée comme l'émission thermique du corps noir de même
64
PHYSIQUE DU RAYONNEMENT
αa(λ)
. En fait, un milieu
αe(λ)
peut se comporter comme un corps noir (i.e., αa(λ) ≈ αe(λ)) dans certains domaines spectraux et
comme un corps non noir dans les autres domaines spectraux.
température qu'eux multipliée par un coefficient appelé "émissivité ε" égal à
• Milieu solide semi - opaque
L'interaction d'un rayonnement d'intensité E (W.m-2) incident sur un milieu solide (Figure II.9) semi opaque n'est en général pas représentée avec des coefficients αa(λ), αd(λ) et αe(λ), mais avec des
termes "macroscopiques" appelés coefficients de réflectance R, de transmittance T et d'absorption A.
Ces coefficients dépendent des caractéristiques électriques (n) et géométriques (rugosité,...) du
milieu. Comme αe, αa et αd, ils dépendent en général de la longueur d'onde et des directions de
propagation du rayonnement. Ils peuvent se déduire des coefficients αe, αa et αd combinés aux
équations qui représentent la propagation du rayonnement dans le milieu, ainsi que des équations de
continuité des champs électromagnétiques à l'interface du milieu (équations de Fresnel). Le
rayonnement absorbé est A.E, le rayonnement transmis est T.E et le rayonnement diffusé est R.E.
Contrairement au cas d'un milieu gazeux, le rayonnement intercepté est égal au rayonnement
incident. Le rayonnement diffusé est souvent considéré être la somme d'un rayonnement réfléchi de
manière spéculaire (i.e. réflexion de Fresnel) selon la direction telle que "angle de réflexion = angle
d'incidence" et d'un rayonnement réfléchi de manière diffuse (selon des directions quelconques).
La conservation de l'énergie implique l'égalité : R + T + A = 1. Pour un corps opaque, la
transmittance T est nulle, car il intercepte tout rayonnement incident. Par suite son absorption est
A = 1 - R et son émissivité est ε = 1 - R (loi de Kirchoff).
Réflexion (diffus + spéculaire)
i
r
Source
R.Ε
E
Absorption
Transmission
(diffuse + spéculaire)
R+T+A=1
A.Ε
T.Ε
Figure II.9: Absorption, réflexion et transmission d'un rayonnement E avec un solide.
Les figures qui suivent illustrent l'impact des configurations expérimentale et instrumentale sur les
images acquises.
Effets d'ombre dus à des nuages : éclairement spatialement hétérogène
Reflets du soleil : effets spéculaires sur l'eau
65
PHYSIQUE DU RAYONNEMENT
Avec des vagues de directions zénithales
extrêmes α, l'angle de vue est 4α.
Effet d'opposition (hot spot) : taches claires dans les images
Direction d'observation quasi spéculaire, avec / sans surface "spéculaire"
a) Eclairement solaire direct.
b) Eclairement diffus.
Ombres et contrastes très
marqués, avec réduction de
l'information spectrale.
• Profondeur de pénétration
Un rayon incident sur un milieu pénètre d'autant plus celui-ci que son coefficient d'extinction αe est
4π.ni
faible. L'indice de réfraction complexe ni est alors faible, car αe =
. Ainsi, l'intensité d'une onde
λo
1
λo
décroît d'un facteur e après un trajet ∆l = =
. Ce trajet est la profondeur de pénétration. La
αe 4π.ni
Figure II.10 illustre ceci à partir de la réflectance ρ d'un réflecteur parfait (ρ = 100%) sous une
couche d'eau. Ce réflecteur n'influence pas la mesure dans le proche infrarouge, car le coefficient
d'extinction de l'eau est alors très fort. Par contre, il influence la mesure dans le visible, car le
coefficient d'extinction de l'eau est alors relativement faible. En fait, le coefficient d'extinction de
l'eau est très élevé sur tout le spectre, avec un minimum dans le visible. L'albédo de diffusion de l'eau
étant toujours très faible, une forte épaisseur d'eau absorbe donc la quasi totalité de tout rayonnement
incident qui n'a pas été réfléchi de manière spéculaire.
Eau
Plaque blanche
Profondeur
0.5 - 0.6 µm
0.6 - 0.7 µm
0.7 - 0.8 µm
0.8 - 1.1 µm
1m
5m
ρ = 92%
ρ = 67%
0.04
ρ = 55%
ρ = 5%
0.30
ρ = 9%
ρ = 0%
1.2
ρ = 0.2%
ρ = 0%
3.1
αe (m-1)
Figure II.10: Réflectance non spéculaire de "surface d'eau sur réflecteur parfait (ρ=100%)".
La 4ème ligne donne le coefficient d'extinction de l'eau (non pure).
Plusieurs phénomènes radiatifs majeurs sont indiqués ci-dessous.
66
PHYSIQUE DU RAYONNEMENT
• Dispersion
Un milieu est dit dispersif si son indice de réfraction varie avec la fréquence. L'impact d'un milieu
dispersif sur une onde qui interagit avec lui dépend donc de la fréquence de cette onde. Ainsi, la
vitesse de propagation de l’onde dépend de sa fréquence. Un rayonnement quasi monochromatique
(i.e., constitué d'ondes monochromatiques de fréquences très proches) qui se propage dans un milieu
dispersif devient donc de moins en moins monochromatique durant sa propagation. Ceci explique
l'apparition d'aberrations chromatiques dans les systèmes optiques.
• Polarisation
La polarisation (direction de D) d'une onde peut varier selon les caractéristiques du milieu
d'interaction. C'est souvent la densité pour un rayonnement transmis dans un gaz et la "rugosité" de
surface pour un rayonnement réfléchi. Il existe différents types de polarisation :
- Polarisation elliptique : le champ D décrit une ellipse,
- Polarisation circulaire : le champ D décrit un cercle,
- Polarisation rectiligne : la direction du champ D est constante. La polarisation est dite horizontale
si D est normal au plan d’incidence (i.e., plan défini par la direction de propagation et la verticale
locale). Elle est dite verticale si D est dans le plan d'incidence.
La loi de Kirchoff indique que le degré de polarisation d'un milieu dépend de sa réflectance selon les
polarisations horizontale et verticale. L'émission thermique des milieux naturels est souvent peu ou
pas polarisée. Par contre, des sources artificielles comme les radars sont conçues pour émettre un
rayonnement polarisé. Lors de son interaction avec un milieu, une onde non polarisée peut devenir
plus ou moins polarisée. Ceci survient lors de la diffusion du rayonnement solaire par les surfaces
terrestres ou par les aérosols et les gaz atmosphériques. Ainsi, l'éclairement d'un lac par un
rayonnement non polarisé avec un angle d’incidence proche de l'angle de Brewster (e.g., θB = 42° si
n = 1.5, et θB = 46° si n = 1.4), donne un rayonnement réfléchi avec une très forte polarisation
horizontale. En général, la mesure du degré de polarisation d’un rayonnement renseigne sur les
caractéristiques électriques et géométriques des milieux avec lesquels ce rayonnement a interagi.
Ainsi, des objets verticaux comme les troncs d'arbres interagissent plus avec les ondes hyperfréquence
de polarisation verticale qu'avec les ondes hyperfréquence de polarisation horizontale. Ceci explique
l'intérêt de mesurer par télédétection la polarisation du rayonnement.
• Interférence
Le phénomène d'interférence survient s'il a superposition d'ondes cohérentes de même fréquence. Les
ondes peuvent alors se renforcer ou se détruire mutuellement. Une conséquence importante de
l'interférence est qu'une surface homogène peut engendrer une diffusion dont la distribution spatiale
est hétérogène. Par suite, son image peut être hétérogène. L'interférence est aussi mise à profit pour
la réalisation de filtres interférentiels, c'est à dire des filtres qui transmettent le rayonnement dans un
domaine spectral très étroit. Ainsi, considérons un rayonnement incident sur un morceau de verre
plan d'épaisseur ∆r dont les faces internes sont très réfléchissantes (Figure II.11). Pour les ondes
telles que λ = 2.∆r, les réflexions d'ordres différents qui surviennent sur les 2 faces de la lame de
verre sont en phase, si bien que l'amplitude de l'onde n'est pas réduite. La transmittance est donc
forte. Par contre, pour les autres ondes (λ ≠ 2.∆r), les réflexions ne sont pas en phase. Par suite, leur
amplitude décroît : la transmittance est très faible.
Figure II.11 :
Filtre interférentiel demilongueur d’onde.
λ
2
λ
2
λ
2
67
PHYSIQUE DU RAYONNEMENT
• Diffraction
La diffraction explique qu'un faisceau de rayons parallèles devient moins directionnel quand il
traverse une ouverture de dimension finie. Elle apparaît dans tout système optique du fait de la
présence des lentilles et des diaphragmes. Par suite, la focalisation de rayons parallèles ne donne pas
un point image infinitésimal mais une tâche circulaire lumineuse entourée de cercles noirs
concentriques. Dans le cas d'un système optique (Figure II.12) caractérisé par une pupille de sortie
λ.f
de rayon a avec une focale f, le rayon du premier cercle noir est : ≈ 1.22 .
a
La tâche de diffraction explique qu'en deçà d'une distance minimale sensiblement égale au rayon de
la tâche de diffraction, deux objets ne peuvent être distingués. La diffraction réduit donc la
résolution des capteurs. Cette réduction est d'autant plus forte que la longueur d'onde est grande.
Ainsi, la tache de diffraction est 20 fois plus grande dans l’infrarouge thermique (λ ≈ 10 µm) que
dans le vert (λ ≈ 0.5 µm).
Lentille
Source
ponctuelle
Ouverture a
Lentille
Plan image
Diamètre de
la tache de
diffraction
λ.f
(2 x 1.22 )
a
Ondes sphériques
Ondes planes
diffractées ⇒
infinité d'ondes sphériques
Ondes planes
Tache de
diffraction
Figure II.12: Diffraction de rayonnement issu d'une source ponctuelle quasi-monochromatique.
II.2 NOTIONS DE PHOTOMETRIE
L'interprétation de mesures radiométriques acquises en tant qu'image ou signal ponctuel requiert
souvent l'emploi de la notion d'intensité des mesures, selon le domaine spectral et le capteur (matrice
CCD, œil humain, film photographique, etc.) considérés. Pour cela, l'intensité est en général quantifiée
avec des grandeurs plus ou moins dérivées de la notion de carré de l'amplitude d'une onde sinusoïdale
(i.e., monochromatique). Deux types de grandeurs, dite photométriques, sont présentés ci-dessous :
- grandeurs énergétiques, dites aussi radiométriques. Elles sont adaptées à tout type de capteur, et
- grandeurs visuelles. Elles caractérisent la sensation lumineuse perçue par l'œil.
• Energie Rayonnante (Joules) : Q
C'est l'énergie émise, transportée ou reçue sous forme de rayonnement durant un temps ∆t.
dQ
dt
Φ est le flux d'énergie rayonnante par seconde. Cette puissance est proportionnelle au carré de
l'amplitude de l'onde pour une onde monochromatique. En fait, toute vibration s'étendant sur un
domaine spectral ∆λ non infiniment petit, Φ est défini par sa densité spectrale de puissance, c'est-àdΦ
26
dire Φλ =
, avec Φ = ⌠
⌡Φλ.dλ. Le soleil émet Φ = 3.9 10 W.
dλ
• Flux Energétique (Watts) : Φ =
∆λ
Les grandeurs visuelles associées à Φ et à Φλ sont les flux lumineux F et Fλ. Ils quantifient la
puissance radiométrique effective sur l'œil humain, compte tenu de la sensibilité spectrale de l'œil
K.S(λ), avec K = 685 lm.W-1 et S(555 nm) = 1 (Figure II.3) :
780
Fλ = K.Φλ.S(λ)
et
F = K. ⌠
⌡Φλ.S(λ).dλ (lumen : lm)
380
F
dépend du domaine spectral. F = 685 lm si Φ = 1W avec λ = 550 nm, car S(0.55 µm) = 1.
Φ
68
PHYSIQUE DU RAYONNEMENT
dΦ
dS
C'est une densité énergétique par unité de surface dS. Elle est appelée "éclairement E" de dS si la
radiation est incidente sur dS et "exitance M" de dS si elle provient de dS.
• Densité de Flux Energétique (W.m-2) :
Eclairement solaire d'une surface : Es.|cosθs|, où θs est l'angle "direction solaire - normale à la
3.9 1026
surface" et où Es est la constante solaire. Es =
= 6.34 107 W.m-2 au niveau du rayon solaire
4π.(7.108)2
visible (7.108 m) et Es = 1370 W.m-2 au niveau de la Terre (150 106 km).
Es
Exitance planétaire : M = Mdiffusion + Mthermique = A. + B.σ.T4, où A ≈ 30% et T sont l'albédo et la
4
Es
température planétaires. Avec l'approximation {B = (1-A)}, l'équilibre radiatif (i.e., M = ) implique
4
Es
: σ.T4 = . Par suite : (1-A).σ.T4 = 240 W.m-2 et T ≈ 255K.
4
dΦ
dF
La grandeur visuelle associée à
est . Son unité est le lux (lm.m-2).
dS
dS
dΦ
dΩ
La distribution directionnelle du rayonnement réfléchi ou émis est
souvent anisotrope. Elle est représentée par l'intensité énergétique (flux
énergétique par unité d'angle solide selon une direction donnée). Ici,
toute direction est notée Ω et est repérée par les angles zénithal θ et
azimutal φ du système d'Euler (θ∈[0 π], φ∈[0 2π]). Avec dS la surface
de la sphère de rayon r couverte par dΩ, l'angle solide (Ω, dΩ) centré
sur Ω (θ,φ) (Erreur ! Source du renvoi introuvable.) est
Intensité Energétique (W.sr-1) : I(θ,φ) =
2π
dΩ = sinθ.dθ.dφ =
θ
(Ω,dΩ)
dSapp
r
π/2
dS
, où ⌠
⌡dφ. ⌠
⌡sinθ.dθ = 2π.
r2
0
z
x
0
y
dΣ
φ
dF
. Son unité est le candela (cd). Un candela
dΩ
est à peu près l'intensité d'une bougie à 555nm. On a 1W.sr-1 ≈ 685cd.
La grandeur visuelle associée à I est l'intensité visuelle
d 2Φ
dΩ.dΣapp
La luminance LΣ(Ω) est le flux énergétique par unité d'angle solide (dΩ) et de surface apparente
dΣapp selon la direction (Ω). La surface apparente dΣapp d'une surface dΣ est la projection de dΣ dans
- le plan normal à (Ω). On a : dΣ.|Ω.Ωn|, où (Ωn) est le vecteur unité normal à la surface dΣ qui selon
le cas intercepte, émet ou diffuse. Par suite : dΣapp = dΣ.cosθ, où θ est l'angle entre (Ω) et (Ωn).
Luminance Energétique (W.m-2.sr-1) : LΣ(θ,φ) =
Une source est dite homogène si sa luminance est constante en tout point. Elle est dite isotrope si sa
luminance ne dépend pas de la direction (Ω) selon laquelle elle diffuse ou émet le rayonnement. Une
surface solide isotrope est dite lambertienne. On a alors :
MΣ = π.LΣ
car
- - MΣ = ⌠
⌡LΣ(Ω).|Ω.Ωn|.dΩ = LΣ(Ω).⌠
⌡|Ω.Ωn|.dΩ = π.LΣ
2π
2π
De même, l'éclairement EΣ d'une surface Σ du à un éclairage L(Ω) isotrope est EΣ = π.L
Alors que l'éclairement et l'intensité dus à une source ponctuelle varient en r-2 par rapport à celle-ci,
la luminance se propage sans atténuation dans le vide. Ceci est illustré ici avec le cas d'un capteur
qui vise selon la direction (Ωc) une surface dΣ de luminance LΣ (Figure II.13). L'optique a une
pupille d'entrée de surface dSc et un demi angle d'ouverture αc La surface dΣ "voit" dSc selon l'angle
2π
αd/2
2
solide dω. L'angle solide de l'ouverture du capteur est ∆Ωc = ⌠
⌡dφ.⌠
⌡sinθ.dθ = 2π.(1-cosαc) ≈ π.αc si αc << π
0
0
69
PHYSIQUE DU RAYONNEMENT
Plan image
αd
Pupille d'entrée dSc
θ
θd
Figure II.13: Conservation de la luminance dans le vide.
dΣ envoie sur le capteur : Φc = E.dSc = LΣ.dω.cosθ.dΣ
où θ = angle entre (Ωc) et normale locale à dΣ.
Pupille de sortie
(focale f, diamètre D)
dΩc
dω
Point
image dSd
dΣ.cosθ.dω = dΩc.dSc.cosθc ⇒ Φc = LΣ.dΩc.dSc.cosθc
où θc = angle entre (Ωc) et l'axe optique du capteur.
θc
2 αc
Altitude du capteur
En fait, le capteur mesure Φc = LΣ' .dΩc.dSc.cosθc
où LΣ' = luminance due à dΣ au niveau de dSc.
⇒ La luminance se conserve dans le vide : LΣ = LΣ'
dΣ
Pour une surface Σ composée de petits paysages de
luminance L(r,Ω) et de taille < aire ∆x.∆y des pixels:
Φc ≈ dω.
Rayons terrestres
⌠
⌡L(x,y,Ω).cosθ.dx.dy = dSc. ⌠
⌡L(x,y,Ωc).cosθc.dΩc
∆x,∆y
∆Ωc
Démonstration : Ld = LΣ.
dω.dΣ.cosθ est l'étendue géométrique du pinceau sous lequel dΣ voit dSc. De même, si dΩd est
l'angle solide sous lequel un élément dSd du plan image voit la pupille de sortie et θd l'angle qui
repère tout pixel (surface dSd) du plan image, dΩd.dSd.cosθd est l'étendue géométrique du pinceau
sous lequel dSd voit la pupille de sortie. Supposons vérifiée l'approximation usuelle des sinus
d'Abbe "dΣ.cosθ.sin2αΣ = dSd.cosθd.sin2αd, où αΣ et αd sont les demi angles sous lesquels les
pupilles d'entrée et de sortie sont respectivement vues par dΣ et dSd. Vu que dω ≈ 2π.(12
2
cosαΣ) ≈ π.sinαΣ et dΩd ≈ 2π.(1-cosαd) ≈ π.sinαd, on a "dω.dΣ.cosθ = dΩd.dSd.cosθd" : un
système optique conserve l'étendue géométrique. Vu que l'énergie est conservée (i.e., Φc = Φd) la
luminance Ld incidente sur dSd est donc égale à la luminance LΣ issue de dΣ.
Φd π.D2.cos4θd
=
.dSd
4.f2
LΣ
Pourquoi en haut de l'atmosphère, la Terre diffuse (≈14W/m2) moins qu'elle émet ≈21W/m2, alors
que la luminance spectrale "visible" (≈ 50W/m2/sr/µm) est très supérieure à la luminance
"infrarouge thermique" à ≈ 10µm (≈ 5W.m-2.sr-1.µm-1).
Avec une optique de pupille de sortie de focale f et de diamètre D :
La quantité lumineuse associée à la luminance énergétique est la luminance lumineuse (cd.m-2).
L'œil distingue une large gamme de luminances : 3 10-6 à 3 105 cd.m-2 (limite d'éblouissement). La
luminance d'un écran vidéo est en général ≈ 10-103 cd.m-2.
Les surfaces étudiées par le biais de mesures optiques sont souvent caractérisées par des quantités qui
quantifient leur capacité à réfléchir (i.e., réflectance) et émettre (i.e., émissivité) le rayonnement selon
l'espace 4π. En effet, une mesure ne peut directement caractériser un milieu. Ainsi, le rayonnement
émis dépend à la fois de l'émissivité et de la température du milieu. D'autre part, le rayonnement
réfléchi dépend à la fois de la réflectance du milieu et de son éclairement. Ainsi, une mesure de
rayonnement réfléchi est doublée si l'éclairement est doublé. La réflectance ne dépend pas du
rayonnement incident, car elle est définie comme le rapport d'une mesure par l'éclairement.
• Réflectance
La réflectance (rij, Rij ou rij) dépend de la configuration d'éclairement et de visée. Elle est dite
hémisphérique si l'angle solide d'éclairement (indice i = h) et/ou de visée (indice j = h) couvre un
hémisphère. C'est le cas d'un éclairement du à un ciel couvert. Elle est dite directionnelle si l'angle
solide d'éclairement (indice i = d) et/ou de visée (indice i = d) est très petit. C'est le cas de
l'éclairement solaire de la Terre en l'absence de diffusion atmosphérique. Plusieurs définitions
classiques sont données ici.
70
PHYSIQUE DU RAYONNEMENT
⌠
⌡L(Ωr).cosθr.dΩr
Mesure : cible
(
)
Mesure : référence
∆Ωr
- Facteur de réflectance : Rij =
⌠Lref(Ωr).cosθr.dΩr
⌡
∆Ωr
Direction
d'éclairement
θv
θs
1
Rdd(θs,θv)
0.5
Figure II.14: Rdd(Ω) dans le plan d'incidence.
Direction d'éclairement fixe, direction de
diffusion variable et 2 types de surfaces:
- surface lambertienne : Rdd(Ω) = cste. Surface
blanche (Rdd = 1) et grise (Rdd < 1).
Direction
spéculaire
0.5
- surface naturelle : Rdd(Ω) varie. Souvent maximal
pour la direction spéculaire et maximum local
pour la direction d'éclairement.
1
R est l'efficacité de diffusion d'un milieu rapport à une surface de référence (blanche lambertienne)
observée dans la même configuration. Il est très employé, car il est facile à mesurer : c'est le
rapport de 2 mesures radiométriques, si la réponse du capteur est proportionnelle à l'énergie reçue.
Référence blanche : Mref = E éclairement de la cible et de la référence
⌠
⌡L(Ωr).cosθr.dΩr
Référence lambertienne : Lref(Ωr) = cste ⇒ Rij =
∆Ωr
Lref. ⌠
⌡cosθr.dΩr
=
<L(Ωr)>cosθr,∆Ωr
Lref
∆Ωr
Référence blanche et lambertienne : Mref = π.Lref = E ⇒ Lref =
⇒
Rij = π.
<L(Ωr)>cosθr,∆Ωr
E
soit
R=
π.L(Ωr)
E
- Fonction de distribution de la réflectance bi-directionnelle : BRDF =
- Réflectance de Fresnel : |rFresnel(Ωi,Ωr,λ)|2 =
E
π
si ∆Ωr << π
Rdd(Ωi,Ωr,λ) rdd(Ωi,Ωr,λ)
=
π
cosθi
L(Ωi)
.δ(θi-θr).δ(φi-φr+π)
L(Ωr)
- Coefficient de rétrodiffusion (radar : Ωr = |Ωi|) : σo = γ.cosθi = 4π.BRDF.cosθi = 4 Rdd.cosθi
Exprimez Rdh, Rhd et Rhh en fonction de Rdd
Pour une surface purement spéculaire, donnez Rdh, Rhd et Rhh en fonction de |rFresnel(Ωi,Ωr,λ)|2
Donnez un exemple où le facteur de réflectance est supérieur à 1.
- Albédo : Adh ou Ahh =
Emittance due à la réflexion
(Tableau II.1)
Eclairement (d ou h)
Matériau
Neige : fraîche et sèche / vieille
Albédo (%)
≈ 33 (≈ 36 pour le spectre visible)
5-65
30-85
75 - 90 / 45 - 70
Sol: - sable blanc
- sombre humide /sec
Végétation: - culture (verte)
- forêt
Eau: zénith solaire 0°/30°/60°/70°/80°/85°/>87°
35 - 40; croît du bleu → rouge
5 - 6 / 5 - 15; croît du bleu → rouge
5 - 15; pic dans le vert
5 - 10; pic dans le vert
2/ 2,2 / 6 / 13,4 / 35,8 / ≈60 / >90
Albédo planétaire:
Nuage (stratus): - épaisseur < 200 m
- épaisseur [200 1000 m]
Tableau II.1: Albédo de matériaux terrestres. Il est très variable.
71
PHYSIQUE DU RAYONNEMENT
⌠⌡
⌠R (Ω ,Ω ,λ).µr.Eλ(Ωi).µi.dΩr .dλ
 dd i r
⌡2 π
1 ∆λ
L'albédo de notre planète est Adh(Ωi, ∆λ) = .
π
.
⌠
⌡ Eλ(Ωi).µi.dλ
∆λ
Il est régulièrement mesuré depuis l'espace avec ∆λ ≈ [0,2 4 µm]. Si Eλ varie peu sur l'intervalle
∆λ, alors Adh est une "simple" réflectance "direct - hémisphérique" :
1
Adh(Ωi, ∆λ) ≈ . ⌠⌠
R (Ω ,Ω ,λ).µr. dΩr .dλ ≈
π ⌡ dd i r
⌡2 π
⌠
⌡Rdh(Ωi,λ).dλ
µr = cosθr
∆λ
∆λ
Lr(Ωr)
luminance
(sr-1) (
)
éclairement Ei ⊥ Ωi
Li(Ωi).dΩi
rdd est l'efficacité d'un milieu éclairé selon (Ωi) à diffuser selon (Ωr). Ici, Ei = Li(Ωi).dΩi
- Coefficient de réflectance bidirectionnelle : rdd(Ωi,Ωr,λ) =
⌠
⌡L(Ωr).cosθr.dΩr
Mλ 2π+
émittance
- Coefficient de réflectance direct-hémisphérique : rdh(Ωr,λ) =
=
(
)
Eλ,i
L(Ωi).dΩi
éclairement Ei ⊥ Ωi
rdh est l'efficacité d'un milieu éclairé selon (Ωi) à diffuser selon toutes les directions montantes
(demi hémisphère supérieur 2π+).
- Coefficient de réflectance hémisphérique-direct : rhd(Ωr,λ) =
L(Ωr)
Lλ,r
=
Eλ
⌠
⌡L(Ωi).cosθi.dΩi
(
luminance
)
éclairement h
2π-
rhd indique l'efficacité de la diffusion d'une surface selon toute direction (Ωr), dans le cas d'un
éclairement selon toutes les directions descendantes (demi hémisphère 2π-).
⌠
⌡L(Ωr).cosθr.dΩr
- Coefficient de réflectance bi-hémisphérique : rhh(λ) =
Mλ 2π+
=
Eλ
L(Ω ).cosθ .dΩ
⌠
⌡
i
i
(
i
émittance
)
éclairement h
2π-
rhh est l'efficacité d'une surface à diffuser dans le demi hémisphère supérieur (2π+), lors d'un
éclairement incident descendant selon le demi hémisphère supérieur (2π-).
Coefficient de réflectance r
rdd(Ωi,Ωr) =
Surface
Facteur de réflectance R
L(Ωr)
(sr-1)
Ei
Rdd(Ωi,Ωr) =
⌠Lr(Ωr).cosθr.dΩr
⌡
quelconque
rdh(Ωi) =
r
Surface
lambertienne
lamb
dd
r
2π
Ei
(Ωi,Ωr) =
lamb
dh
(Ωi) =
L(Ωr) π.L(Ωr)
rdd(Ωi,Ωr)
=
= π.
Lref
Ei.cosθi
cosθi
⌠L(Ωr).cosθr.dΩr
⌡
Rdh(Ωi) =
Lr
= cste (sr-1)
Ei
lamb
π.Lr
= π.r dd
Ei
2π
=⌡
⌠Rdd(Ωi,Ωr).cosθr.dΩr =
Ei.cosθi
2π
rdh(Ωi)
cosθi
lamb
lamb
R
dd
r dd
π.L(Ωr)
(Ωi,Ωr) =
= π.
= cste
Ei.cosθi
cosθi
lamb
lamb
R
h
lamb
(Ωi) = R
dd
r dd
(Ωi,Ωr) = π.
= cste
cosθi
Tableau II.2: Exemple de relations entre coefficients et facteurs de réflectance.
Eclairement de la surface : Ei.cosθi, où θi = angle(normale, direction d'éclairement).
• Transmittance : T(λ) =
énergie transmise
énergie interceptée
La transmittance d'un milieu plan est "direct - direct" si le rayonnement incident est direct
(∆Ωi ≈ 0) et si l'on considère une seule direction de transmission (∆Ωr ≈ 0) :
72
PHYSIQUE DU RAYONNEMENT
Lλt(Ωt)
Mλt(Ωt)
. Elle est "direct - hémisphérique" Tdh(λ,Ωi,Ωt) =
ou
Lλi(Ωi)
Eλi(Ωi).cosθi
Mλt
"hémisphérique - hémisphérique" Thh(λ) =
s'il est considéré le flux Mλt transmis selon
Eλ
l'ensemble du demi hémisphère "avant". Elle est simplement dite directe si les directions des flux
Lλt(Ω)
incidents et transmis sont identiques : Td(λ,Ω) =
.
Lλi(Ω)
Tdd(λ,Ωi,Ωt) =
• Absorptance : A(λ) =
énergie absorbée
énergie interceptée
A(λ) est le rapport de l'énergie absorbée par l'énergie interceptée. Il est directionnel, car l'énergie
incidente peut être directe ou hémisphérique. Avec un éclairement direct : Ad(λ) = 1 - Tdh(λ) Rdh(λ). Avec un éclairement isotrope : Ah(λ) = 1 - Th(λ) - Rhh(λ).
• Emissivité : ε(Ω,∆Ω,λ) =
énergie spectrale émise selon (Ω,∆Ω) par un corps de température T
énergie spectrale émise selon (Ω,∆Ω) par corps noir de température T
ε est l'efficacité du corps à rayonner versus le corps noir. Elle est directionnelle (εd(Ω,λ)) ou
hémisphérique (εh(λ)) selon que ∆Ω est très petit ou égal à 2π. Avec un corps noir de luminance
L(Ω,λ)
M(λ)
et εh(λ) =
LB(Ω) et d'exitance MB(Ω) = π.LB(Ω), on a : εd(Ω,λ) =
LB(Ω,λ)
MB(λ)
Pour un milieu à l'équilibre thermodynamique avec son rayonnement, la loi de Kirchoff donne :
εd(Ω,λ) = Ad(Ω,λ) et εh(λ) = Ah(λ) ∀(Ω,λ)
Pour un milieu opaque (i.e., Th = Td = 0), la conservation de l'énergie radiative implique:
∀λ: Ah(λ) = 1 - Rhh(λ)
Par suite :
εh(λ) = 1 - Rhh(λ)
et
et
Ad(Ω,λ) = 1 - Rdh(Ω,λ) ∀(Ω,λ)
εd(λ) = 1 - Rdh(λ)
où Rdh(λ) = Rhd(λ)
Ces relations sont cohérentes avec le fait qu'un corps noir a une réflectance et une transmittance
nulles, avec une absorptance (A) et une émissivité (ε) égales à 1.
λ (µm)
θ=0°
θ=60°
Tableau II.3 : Emissivité de l'eau
10,5
0,9916
0,9833
3,8
0,9752
0,9608
θ = Angle (Ωv,Ωn) où Ωn est la
direction de la normale à la surface.
Métaux : ε est faible (quelques % ⇒ fort ρ). Il augmente avec T et croit beaucoup en présence de
couches superficielles d'oxyde.
Non métaux : en général ε est supérieur à 0.8 et décroît avec T.
Neige : ρ(visible) élevé ⇒ ε(visible) faible. Cependant : T=0°C ⇒ émission centrée à 10.5 µm,
principalement entre 3 et 70µm, zone où l'émissivité de la neige est élevée.
Matériau
Métaux
Neige (comprimée)
Glace (glacier)
Dunite
Obsidienne
Feldspath
Sol sec sableux
Granit rugueux
Bois
Emissivité
0.01 - 0.6
0.7 - 0.85
0.85
0.856
0.862
0.870
0.88-0.94
0.898
≈0.9
Matériau
Verre
Sol humide
Sable
Basalte, rugueux
Asphalte
Feuille sèche
Route bitumée
Neige
Eau + film de pétrole
Emissivité
0.94
0.94-0.95
0.95-0.96
0.958
0.959
0.96
≈0.97
0.97-1
0.972
73
PHYSIQUE DU RAYONNEMENT
Granit rugueux
Grès siliceux poli
Plâtre
Sable/quartz, gros grain
Béton
Sol sec argileux
Brique
0.9
0.909
0.91
0.914
0.92 - 0.97
0.92
0.93
Glace
Peau (humaine)
Tourbe
Herbe verte
Feuille humide
Eau pure
0.98
0.98
0.98
0.98-0.99
0.99
0.993
Tableau II.4 : Emissivité moyenne, entre 8 et 12µm, de quelques matériaux
Propagation du rayonnement dans un milieu
Une onde qui se propage dans un milieu est partiellement interceptée par celui-ci, ce qui diminue
son amplitude. Ainsi, pour une propagation selon l'axe Ox l'on a :
__
- - i.(k.x - ω.t)
D = Do.e
soit en notation réelles D = Do(x,t).cos(ω.t-k.x+φ)
_ _
où : Do(x,t)=Do(0,0).e
- (k).x
: amplitude de l'onde au lieu x et à l'instant t.
ω : fréquence angulaire ou pulsation, avec ω=2πν. La période est T=2π/ω.
2π
λo
k : nombre d'onde. (k)= . λ= . Le terme complexe (k) indique l'absorption du milieu.
n
λ
1
La profondeur de pénétration est la distance à laquelle l'amplitude de D décroît de e-1: δAp =
(k)
La profondeur de pénétration définie pour la puissance est : δp = δAp/2.
L'absorption, et donc l'atténuation, d'un rayonnement dépendent de sa longueur d'onde et du milieu
de propagation. Ces phénomènes sont souvent représentés par un coefficient d'extinction αe,λ égal à
une densité volumique de section efficace : dL(Ω)=-αe,λ(Ω).L(Ω), pour la direction de propagation
(Ω). L'intégration de αe,λ le long d'un trajet ∆r(Ω), i.e. épaisseur optique ∆τλ(Ω), donne la capacité
du milieu à atténuer / intercepter un rayonnement le long de ∆r(Ω). La transmittance directionnelle
Lλ(r,Ω)
est
= e-∆τλ(Ω), i.e. loi d'atténuation de Beer-Lambert. ∆τλ(Ω) = ⌠
⌡αe,λ(Ω).dr(Ω).
Lλ(r+∆r,Ω)
∆r(Ω)
10
3
E
P ro fo n d e u r d e p é n é tra tio n (m )
D
10
B
1 0 -1
A
C
1 0 -2
1 0 -5
1 0 -2
1
102
104
105
106
107
108
109
M Hz
Figure II.15 : Profondeur de pénétration (m). Eau de mer (A), sol humide (B), eau douce (C),
sol très sec (D) et glace (E) pour des fréquences de 109 MHz (0.3µm) à 10-2 MHz (10km).
II.3 DISTRIBUTION SPECTRALE DE LA REFLEXION
Les empreintes laissées par les surfaces réfléchissantes dans le rayonnement réfléchi ne peuvent être
mesurées que si les propriétés optiques types de ces surfaces sont connues. Les réflectances spectrales
types de l'eau, des sols et de la végétation dans le visible et proche infrarouge sont indiquées ici.
(i) le coefficient de réflexion de l'eau est localement décroît en général du bleu (<10-15%. Il est
d'autant plus fort que l'eau est turbide) au proche infrarouge où il est toujours presque nul.
(ii) le coefficient de réflexion des sols croit régulièrement du bleu (≈5-15%) au proche infrarouge
(≈25-40%). Il peut être très fort pour des sols calcaires (blancs), et faible pour des sols foncés.
74
PHYSIQUE DU RAYONNEMENT
(iii) le coefficient de réflexion de la végétation est faible dans le visible (≈ 15% pour le vert et
≈10% pour le rouge et le bleu), et beaucoup plus fort dans le proche infrarouge (jusqu'à 50%).
Le maximum local de la réflectance dans le vert explique la couleur verte de la végétation.
NOAA
R éflec tan c e
AVHRR2
AVHRR1
2
1
3
1
4
3
2
L a nd sat T M
0 .4
SPO T X S
S o l c lair
0.3
S o l fo nc é
0.2
V égé ta tio n
0.1
Eau
0
40 0
500
600
70 0
800
90 0
1 0 00 n m
Figure II.16 : Luminances en haut
de
l'atmosphère.
Couvert
végétal, eau et sols clair / foncé.
Bandes spectrales des capteurs
spatiaux SPOT HRV, Landsat TM et
NOAA AVHRR :
- SPOT HRV. Mode XS (20m) : 0.500.59µm, 0.61-0.68µm, 0.79-0.89µm.
Mode P (10m) : 0.51-0.73µm.
- Landsat TM : 0.45-0.52µm, 0.520.6µm, 0.63-0.69µm, 0.76-0.9µm,
1.55-1.75µm, 10.4-11.7µm, 2.082.35µm.
- NOAA
AVHRR :
0.58-0.68µm,
0.725-1.1µm, 3.55-3.93µm, 10.311.3µm, 11.5-12.5µm.
En fait, l'atmosphère affecte beaucoup les mesures L(λ) des surfaces terrestres (Figure II.17).
NOAA
O 3 H 2O O 2
2
1
AVHRR2
AVHRR1
Luminance (W/m 2 /µm/sr)
H 2O
3
1
H 2O
4
Landsat TM
3
2
SPOT XS
40
Les bandes d'absorption gazeuse
sont indiquées. Pour une
atmosphère claire, la constante
solaire ≈1500W.m-2.µm-1 à
500nm et ≈1000W.m-2.µm-1 à
700nm. Par suite : éclairement
solaire
≈750W.m-2.µm-1
à
-2
-1
500nm et ≈500W.m .µm à
700nm si le zénith solaire vaut
60°. Dans ce cas, la réflectance
du sol clair est ≈15% à 500nm
et ≈30% à 700nm.
Sol clair
30
20
Sol foncé
10
Végétation
Eau
0
400
500
600
Figure II.17 : Luminances en
haut de l'atmosphère du couvert
végétal, eau et sols clair/foncé
de la Figure II.16.
700
800
900
1000nm
La variation spectrale de la luminance L(λ) est semblable à celle de la réflectance ρ(λ). Ainsi, de
400nm à 700nm, L(λ) augmente régulièrement pour les sols, alors que pour la végétation L(λ) varie de
manière non monotone avec de très faibles valeurs dans le visible et de fortes valeurs dans le proche
infrarouge. La variabilité spectrale de l'émission solaire et les bandes d'absorption des gaz
atmosphériques (O2, O3, H2O) expliquent à la fois certaines similitudes entre les luminances d'éléments
différents et certaines différences entre la luminance et la réflectance d'un même élément. Ainsi, la
luminance des sols décroît au-delà de 800nm, contrairement à l'augmentation monotone de leur
réflectance, du fait de la forte diminution de l'éclairement solaire à ces longueurs d'onde.
Les différences relatives entre les réflectances spectrales des milieux terrestres sont souvent utilisées
pour discriminer et reconnaître les catégories principales de ces milieux. L'image multispectrale SPOT
(Figure II.18) illustre cette possibilité. Elle comprend 3 images mono-canal acquises dans les
domaines spectraux du vert (image XS1), du rouge (image XS2) et du proche infrarouge (image XS3).
Elle représente une partie de l'île de Cook (Pacifique). Celle-ci est recouverte de végétation et est
située dans un lagon borné par une barrière de corail (écume), lui-même entouré par l'océan. Les
teintes de gris indiquent des niveaux de réflectance apparente. Les différences de réflectance apparente
dans ou entre les images permettent de discriminer les milieux présents.
PHYSIQUE DU RAYONNEMENT
- océan : teintes sombres dans les 3 images, surtout XS3, dues à la faible réflectance de l'eau.
- écume : sa forte réflectance spectrale explique sa teinte claire dans les 3 images.
- lagon : sa teinte claire dans l'image XS2 est due à la réflectance du fond du lagon. En effet, l'eau est
relativement transparente dans ce domaine spectral et la profondeur du lagon est faible.
- végétation : sa forte réflectance infrarouge explique sa teinte claire dans l'image XS3. Inversement,
sa faible réflectance visible explique sa teinte sombre dans les images XS1 et XS2.
a.)
b.)
Océan
Ile (végétation)
Lagon
Ecume
c.)
d)
Figure II.18: Image SPOT d'un îlot du Pacifique.
a) XS1, b) XS2, c) XS3.d) Composition colorée avec XS1, XS2 et XS3.
Figure II.19: Ile Aitutaki (île de Cook) du Pacifique. Carte, photographie aérienne et image Ikonos.
75
76
PHYSIQUE DU RAYONNEMENT
II.4 EMISSION THERMIQUE
Tout milieu ou surface émet un rayonnement, ce qui permet d'obtenir des images avec des capteurs
sensibles aux fréquences d'émission. Ce rayonnement est souvent appelé rayonnement thermique, car il
est une fonction de la température du milieu et de la fréquence ν d'émission. Il ne dépend pas de la
direction Ω d'émission (i.e. corps Lambertien). La loi de Planck donne la luminance thermique :
2.h.ν3
Lν(T) =
(W.m-2.sr-1.Hz-1)
hν
Lλ(T) =
⇔
c2.(ekT-1)
La densité d'énergie radiative est : u(T) =
4π
.⌡LB(λ).dλ ⇒
c ⌠
dL(T) δL(T) δν
=
. = Lλ(T) =
dλ
δν δλ
2.h.c2
hc
λ5.(eλkT-1)
A.c
4
4
⌠
⌡LB(λ).dλ = 4π .T car u(T)=A.T .
• Emittance
M=⌡
⌠M(λ).dλ
sachant que pour une surface lambertienne M(λ) = π.Lλ(Ω).
Corps noir : M(λ) = π.LB(λ,Ω) = π.LB(λ)
M=⌡
⌠M(λ).dλ = π.⌡
⌠LB(λ).dλ
et
2π5.k4 4
.T = σ.T4
avec σ = 5.67 10-8 W.m-2.K-4 et k = 1.381 10-23 J.K-1
15c2.h3
a
λ=λm= (a=2898 µm.K) ⇒ M(λ) maximal. M(λm)=bT5 avec b = 1.3 10-5 W.m-3.K-5
T
⇒M=
107
10
L u m in a n c e ( W .m - 2 .s r - 1 .H z - 1 )
3
108 K
Luminance de corps noirs.
1 0 -1
1 0 -5
1 0 -9
107 K
2 .k .ν 2
P e n te :
c2
Différentes températures.
(h ν < < kT )
106 K
1 0 -1 3
Représentation
logarithmique de Lν(T).
100 K
105 K
1 0 -1 7
Echelle en W.m-2.sr-1.Hz-1.
10 K
1 0 -2 1
1 0 -2 5 8
10
Figure II.20
1 K
1 0 10
102
1
1 0 12
1 0 14
1 0 16
1 0 -2
1 0 -4
1 0 -6
1 0 18
1 0 -8
1 0 20 H z
1 0 -1 0 c m
Remarques :
* T(Terre) ≈ 300K ⇒ maximum à 9.66 µm.
* T(Soleil) ≈ 6000K ⇒ maximum à 0.48 µm. Au niveau de la surface terrestre la constante solaire
est égale à la luminance d'un corps noir (TB≈6000K) multipliée par l'angle solide d'observation du
2
2
soleil, i.e. π.R s /DST ≈ 0.685 10-4 où DST est la distance "Soleil - Terre" et Rs est le rayon solaire.
L'albédo terrestre étant de l'ordre de 10% la luminance solaire réfléchie par les surfaces terrestres
est négligeable devant l'émission thermique terrestre dans la bande [10µm 15µm] de l'infrarouge
thermique, alors que l'émission thermique terrestre est négligeable devant l'énergie solaire
réfléchie aux longueurs d'onde inférieures à 2500nm (UV, visible, proche infrarouge).
• Loi de Rayleigh Jeans
La loi de Rayleigh-Jeans est une simplification de la loi de Planck pour les basses fréquences telles
que hν<<k.T ; e.g. dans le domaine des micro-ondes (λ>1cm ; ν<300GHz), avec T<300K. L'énergie
émise dépend linéairement de la température du corps.
T
T
Lν(T) = 2k. 2 et
Lλ(T) = 2.c.k. 4
λ
λ
• Loi de Wien
Aux grandes fréquences (i.e. hν>>kT) : Lν(T) =
2h.ν3
h.ν
2h.c2
h.ν
] et Lλ(T) = 5 .exp[- ]
2 .exp[c
k.T
k.T
λ
III LA TELEDETECTION
III.1 PRESENTATION
L'observation spatiale et aéroportée des surfaces planétaires et de leurs atmosphères est souvent
appelée "télédétection". En fait, ce terme recouvre souvent l'ensemble des connaissances et techniques
utilisées pour l'observation de notre environnement, et pour l'analyse, l'interprétation et la gestion des
informations ainsi obtenues. Dans de nombreux cas, l'objectif de la télédétection est de déterminer des
caractéristiques physiques et biologiques d'objets par des mesures effectuées à distance, sans contact
matériel avec ceux-ci. La télédétection dont il est question ici se rapporte à la mesure du rayonnement
électromagnétique émis ou réfléchi par les objets observés. La mesure est donc de type radiométrique.
Elle peut être ponctuelle ou spatiale sous forme d'image. De plus, elle peut être analogique ou
numérique. Un avantage majeur des données spatiales est d'autoriser une analyse à la fois synoptique,
spectrale et répétitive. De plus, ces données peuvent être acquises avec une très bonne résolution
spatiale et une bonne géométrie. Leurs domaines d'application sont variés et nombreux : foresterie,
cartographie, météorologie, pêche, environnement, etc.
Télédétection
Rayonnement
solaire
Bilan radiatif "Terre atmosphère"
Réflexion
Emission
Figure III.1 : Bilan radiatif et observation satellitaire du système "Terre - atmosphère".
Au début du 20ème siècle cette discipline était exclusivement basée sur la photographie aérienne. Les
progrès technologiques font qu'elle est de plus en plus utilisée pour remplacer ou compléter des
méthodes traditionnelles de recueil de l'information et de surveillance qui sont désormais trop
coûteuses et longues à mettre en oeuvre. Elle repose sur les développements les plus récents de
plusieurs domaines (physique, informatique, etc.). Selon le type d'application elle s'appuie sur des
disciplines comme l'écologie, la biologie végétale, la foresterie, la cartographie,...
Plusieurs termes souvent utilisés en télédétection sont tout d'abord précisés.
Capteur : appareillage (appareil photographique, détecteur unique + miroir oscillant ou barrette de
détecteurs couplée à une électronique de mesure, etc.) qui recueille et mesure le rayonnement incident
provenant de tout ou partie de la surface observée, puis le transforme en un signal, souvent électrique
enregistré sous forme de compte numérique. Le type et les caractéristiques (résolution spectrale,
radiométrique, angulaire, etc.) du capteur utilisé dépendent de l'application envisagée.
Ligne image
Ligne image
Barrette de
détecteurs
Détecteur
unique
Miroir
oscillant
Signal
Surface
Rayons parallèles
Signal
Surface
Figure III.2 : Deux technologies de capteurs satellite. Scanner (gauche) et "push broom" (droite).
TELEDETECTION
78
Vecteur : véhicule aérien ou spatial sur lequel est embarqué le capteur. Les conditions expérimentales
de prise de vue, et donc l'attitude de vol du vecteur, sont des paramètres essentiels pour corriger les
mesures dans le but d'assurer une interprétation correcte. Selon le domaine d'application, et donc selon
le type de capteur embarqué, un satellite est dit météorologique (NOAA, Météosat, GOES, GMS),
océanographique (ERS, JERS) ou d'observation de la Terre (SPOT, Landsat, MOS). Un satellite peut
embarquer plusieurs capteurs. Il est dit héliosynchrone si ses orbites passent toujours à la même heure
solaire au dessus d'un même lieu (i.e. condition d'ensoleillement constante). Il est dit géostationnaire si
sa position relative à la Terre est constante.
Image : représentation plane, numérique ou analogique, de mesures structurées acquises par un
capteur. C'est un tableau de points en général distribués régulièrement sur une grille 2-D. Une image
peut correspondre à un volume 3-D (e.g. image tomographique) ou à la combinaison d'images 2-D
(e.g. image multi-canal de télédétection). Dans une image numérique 2-D tout point de coordonnées
(x,y) a une valeur, souvent appelée intensité ou compte numérique, codée sur 8 bits ou plus. L'image
est le concept de base de la télédétection.
Pixel (de l'américain "picture element") : plus petite surface homogène constitutive d'une image
enregistrée. Ses dimensions sont définies par la résolution du capteur combinée à la taille de la maille
d'échantillonnage. La valeur du pixel résulte d'une intégration à la fois spatiale et spectrale.
Source : objet/système à l'origine du rayonnement mesuré par le capteur après avoir interagi avec la
cible observée. Selon que la source est naturelle ou artificielle le capteur est dit passif ou actif.
Télédétection passive (visible, infrarouge)
Le soleil est la source. Le capteur mesure le
rayonnement solaire, en général visible et/ou
infrarouge, réfléchi par la cible observée.
Le capteur est appelé scanner s'il est pourvu d'un
système de balayage qui, combiné au déplacement
du vecteur, lui permet de former des images ; un
capteur de type push broom ne nécessite pas de
système de balayage pour former des images.
Capteur
Réflexion
Cible
Télédétection passive (infrarouge et micro-onde)
La cible observée est la source. Le capteur mesure
l'émission thermique de cibles terrestres et marines
et de l'atmosphère.
Les capteurs sont appelés radiomètres infrarouge
s'ils opèrent dans l'infrarouge thermique (émission
terrestre maximum) et radiomètres hyperfréquence
s'ils opèrent dans le domaine des micro-ondes.
Télédétection active (surtout hyperfréquences)
Le capteur et la source des rayonnements mesurés
sont tous deux à bord du vecteur ; la source est
donc artificielle. Le capteur (antenne radar,
système laser) mesure le rayonnement (visible,
infrarouge et surtout hyperfréquence) rétrodiffusé
(réflexion) par la cible.
Capteur
Emission
Cible
Source + Capteur
Rétrodiffusion
Cible
Figure III.3 : Les 3 modes majeurs d'acquisition en télédétection. Ils correspondent à la mesure
d'énergie électromagnétique réfléchie/diffusée ou émise par les surfaces/objets observés.
Les capteurs satellite qui fonctionnent dans le visible et le proche infrarouge ne peuvent opérer que de
jour. De plus, leurs images sont très perturbées par l'atmosphère. Les systèmes hyperfréquences n'ont
pas cette contrainte. Ce sont des capteurs "tout temps" qui peuvent opérer de jour et de nuit. De plus, il
est possible de régler/modifier les caractéristiques (fréquence, polarisation,...) de l'onde émise.
TELEDETECTION
79
III.2 PRINCIPAUX OBJECTIFS DE LA TELEDETECTION
De par sa capacité d'observation synoptique et répétitive à différents niveaux de qualité géométrique et
spectrale, la télédétection est très utile pour la reconnaissance, cartographie et caractérisation spatiale
ou fonctionnelle à une date donnée ou dans le temps de surfaces/objets de notre environnement.
Quelques domaines d'application sont indiqués ci-dessous.
- Cartographie : les images satellitaires qui ont un très faible rapport "taille de l'image" vs. "distance
satellite - Terre" ont de très bonnes caractéristiques géométriques, ce qui justifie leur utilisation pour
l'établissement de documents cartographiques à moyenne et petite échelle. Elles sont parfois
directement utilisées comme document cartographique de base.
- Thématique : les images spatiales sont utilisées pour (1) reconnaître et caractériser les éléments du
paysage, et (2) établir des documents thématiques, sous forme statistique ou cartographique pour la
foresterie, l'urbanisme, l'agriculture (e.g., carte d'occupation des sols : carte de la distribution spatiale
des éléments du paysage), la pêche (e.g., cartes de températures des surfaces terrestres), la géologie,
l'hydrologie, la surveillance des catastrophes naturelles, etc.
- Climatologie et changements globaux : les satellites dits météorologiques, par opposition aux
satellites dits à haute résolution, constituent la principale source d'information pour les études
globales telles que le suivi de la nébulosité, la caractérisation des différents constituants de
l'atmosphère, la cartographie des températures marines, les échanges biosphère - atmosphère, etc. Ils
sont caractérisés par un grand champ de vue, une faible résolution spatiale de l'ordre du kilomètre et
plus, et une relativement importante fréquence temporelle.
L'amélioration des caractéristiques radiométriques, spatiales, spectrales et temporelles des capteurs
conduit à des systèmes d'observation de mieux en mieux adaptés aux activités scientifiques et
applications actuellement poursuivies. Ces progrès devraient rendre opérationnels de nombreux
domaines d'application (e.g., prévision des récoltes, mesure des champs de vent océanographiques) et
scientifiques du type "surveillance de notre environnement" (e.g. la mesure des échanges en énergie et
matière "biosphère - atmosphère" et "océan - atmosphère").
L(λ)
(λ i, ∆λ i)
R(λ)
λ
Figure III.4 : Problématique simplifiée de la Télédétection
Toute surface est caractérisée par une réflectance spectrale R(λ) qui dépend de sa nature et de
sa géométrie. Un capteur à N bandes spectrales ∆λn (ici, N=3) donne N mesures spectrales
L(λ). Leur division par l'éclairement solaire spectral associé donne N réflectances moyennes.
Un objectif est de déterminer les propriétés de la surface à partir de ces N valeurs discrètes.
Un intérêt majeur des images de télédétection spatiale est de fournir des images avec très peu de
déformations géométriques. Ainsi, la Figure III.5 illustre la déformation qui apparaît dans une
photographie aérienne lors de l'observation d'un ensemble de parallélépipèdes parallèles. Les
parallélépipèdes situés sur les bords de l'image sont agrandis. La même zone, vue de l'espace, ne
présente pas cette déformation, ou du moins beaucoup moins, car l'ensemble de la surface est observée
avec quasiment la même direction d'observation.
TELEDETECTION
Avion
80
Satellite
(directions d'observation
quasi parallèles)
Figure III.5 : Acquisition d'image instantanée (avion) et échelonnée dans le temps (satellite).
Les bords de la photographie aérienne sont très déformés que ceux de l'image satellite.
• Codage
Durant le temps d'acquisition tout détecteur mesure la somme de l'énergie électromagnétique issue
d'une surface au sol correspondant à un pixel. Cette mesure se traduit par une intensité électrique,
c'est à dire un signal analogique. Elle est transmise sous forme codée compte tenu (1) de contraintes
concernant le volume de données, et (2) de la difficulté de corriger les perturbations pouvant altérer
la transmission d'un signal analogique. Le nombre de bits de codage varie en général de 7 à 12 selon
la sensibilité des capteurs et la dynamique des valeurs à mesurer.
Les valeurs numériques d'une image satellite ne peuvent être directement exprimées en luminance
(W.m-2.sr-1) compte tenu de la sensibilité des détecteurs et du codage effectué pour la transmission.
Ce sont des comptes numériques de la luminance du canal spectral concerné. L'emploi de
coefficients d'étalonnage permet de les transformer en luminance. L'impact de l'atmosphère explique
que cette luminance n'est pas vraiment la luminance réfléchie ou émise par les surfaces terrestres.
L'atmosphère s'avère souvent être une source de bruit importante pour l'étude des surfaces terrestres.
• Transmission
Afin de réduire l'impact du bruit du à la transmission de l'information entre les satellites et les
stations de réception, et donc améliorer le rapport signal/bruit, un bit de contrôle, appelé bit de
parité, est souvent ajouté à chaque donnée transmise. Ce bit indique si le nombre de bits à 1 de la
donnée est pair (bit de parité = 1) ou impair (bit de parité = 0). A la réception, ce bit de parité permet
de vérifier que le nombre de bits à 1 est correct. En vue d'une correction ultérieure des données il est
aussi transmis des informations concernant l'étalonnage des capteurs, l'heure interne du satellite, etc.
• Réception et stockage
Les images, de même que les données annexes telles que la date d'acquisition de l'image, sont
stockées. Elles sont fournies aux utilisateurs sur divers supports : CD Rom, papier photographique,
etc. Les données relatives à chaque canal peuvent être entrelacées (format BIL : Band Interlaced),
placées les unes à la suite des autres (BSQ : Band Sequential), etc.
• Prétraitements
Les données satellites sont transmises aux stations de réception qui les archivent et effectuent des
traitements, souvent appelés prétraitements, avant de les rendre disponibles à l'utilisateur.
* Corrections radiométriques à partir des propriétés des détecteurs, de l'optique, etc.
* Corrections géométriques à partir :
(i) conditions de prise de vue, angle de visée, mouvement relatif du satellite et de la terre, etc.
Ces conditions de prise de vue sont soit déterminées directement par un système de
localisation du satellite, soit calculées à l'aide d'un modèle de navigation du satellite.
(ii) points de contrôle, aussi appelés points amers, dont la position géographique est connue.
(iii) modèle de transformation de grille ; c'est à dire un modèle de transformation géométrique
qui rend superposables une grille géographique de référence et la grille géographique
d'acquisition déterminée à l'aide des conditions de prise de vue.
D'autres prétraitements du type "correction" atmosphérique peuvent aussi être réalisés si l'on dispose
d'information fiable quant aux caractéristiques atmosphériques lors de l'acquisition des données.
TELEDETECTION
III.3 LE SYSTEME SPOT
III.3.1 Le programme SPOT (http://spot5.cnes.fr/satellite/satellite.htm)
En 1978, le gouvernement français décide de réaliser un programme d’observation de la Terre, SPOT.
Il en confie la conception au CNES (Centre National d’Études Spatiales) qui développera ce
programme en coopération avec la Belgique et la Suède. Le système d’observation comprend une série
de satellites et des infrastructures terrestres assurant leur contrôle en orbite, leur programmation et la
production d’images. Les satellites SPOT sont construits par la société Astrium et opérés par le CNES
(Centre National d'Etudes Spatiales). Les produits SPOT sont exploités par la société SPOT Image,
une entreprise Toulousaine à capital privé détenue en partie par des partenaires français, suédois,
belges et italiens. Les images SPOT apportent une information actualisée, exhaustive et objective pour
la gestion de notre planète (e.g., agriculture, foresterie, géologie, cartographie, aménagement du
territoire, etc.).
Le premier satellite, SPOT 1, a été mis en orbite par un lanceur Ariane en février 1986, suivi de SPOT
2 en janvier 1990, SPOT 3 en septembre 1993, SPOT 4 en mars 1998 et SPOT 5 le 4 mai 2002. La
relève devrait être assurée par une constellation de petits satellites, Pléïades-Cosmos, dotés
d'instruments spécifiques et communiquant entre eux par laser, en collaboration avec les Italiens.
Le choix d’une orbite héliosynchrone, quasi-polaire, à 830 km de la Terre assure une synchronisation
avec le Soleil : les satellites survolent un même point terrestre toujours à la même heure solaire locale,
soit 10h30 solaire locale au-dessus de l'équateur. Ceci a pour but d'assurer des conditions
d'éclairement constantes lors de l'acquisition des images. En fait, l'inclinaison du plan équatorial
terrestre autour du plan de l'écliptique fait que cet angle d'illumination varie un peu autour de l'année.
Avec une orbite dont l'inclinaison est 98.77°, SPOT effectue un peu plus de 14 révolutions par tranche
de 24 heures, soit le tour de la Terre en 101.4', à la vitesse au sol de 6.6km/s, soit 24000km/h. Il
repasse à la verticale d’un même point après 369 révolutions, soit tous les 26 jours.
En plus des instruments d'observation, la charge utile des satellites comprend un enregistreur d'images
(mémoire électronique de 90 Gbits pour SPOT 5 : 550 images / jour avec un taux de compression de
2,6) et un système de télémesure (bande X à 8253MHz) spécifique à la mission de 2x50Mbits/s. Au
cours de ses orbites successives le satellite effectue des mesures qu'il peut retransmettre directement
aux stations de réception au sol qui se trouvent dans le domaine de visibilité, ou qu'il peut stocker en
vue d'un télé-déchargement ultérieur au-dessus d'une des stations principales (Toulouse/Aussaguel ou
Kiruna/Suède).
III.3.2 Les images SPOT
Les satellites SPOT (Figure III.6) emportent des instruments de prise de vue qui diffèrent selon le
satellite. Ainsi, les satellites SPOT 1, 2 et 3 embarquent 2 capteurs HRV (Haute Résolution Visible) à
barrettes de détecteurs ("pushbroom") qui opèrent dans le visible et le proche infrarouge (Tableau
III.1). Le miroir plan de chaque instrument HRV est orientable par télécommande. L'axe de visée peut
ainsi être décalé dans un plan perpendiculaire à l'orbite de plus 27° à -27° autour de la position
verticale. Le décalage de 0° à 27° s'effectue en 45 pas de 0.6°, ce qui nécessite 45". Pendant ce temps,
le satellite se déplace d'environ 100km et il ne peut y avoir d'acquisition. L'orientation du miroir
d'entrée permet d'observer des régions situées jusqu'à 850km de part et d'autre de la trace du satellite.
La largeur de l'image passe de 60km à la verticale jusqu'à 80km. De plus, l'angle d'incidence maximal
sur une surface horizontale au sol atteint 33° du fait de la rotondité de la Terre. Le ré-échantillonnage
effectué sur les images non acquises à la verticale explique que le nombre de colonnes d'une image
SPOT 1, 2 ou 3 varie de 3000 à 5200 pour une image XS et de 6000 à 10400 pour une image Pa.
Mode Multispectral (XS)
Mode Panchromatique (Pa)
Résolution
20 m
Résolution
10 m
Fauchée
60 km
Fauchée
60 km
0.50µm - 0.59µm
Bandes
0.51µm - 0.73µm
0.61µm - 0.68µm Bande
0.79µm - 0.89µm
Tableau III.1 : Instruments de prise de vue des satellites SPOT 1, 2 et 3.
81
TELEDETECTION
82
Miroir orientable
(télécommande)
Détecteurs
Panneau solaire (15.6m)
HRV1
HRV2
Plateforme
(2x2x3.5m. 1750kg)
Visée verticale
Visée oblique
Figure III.6 : Capteur SPOT.
L'instrument qui projette l'image focalisée et
filtrée sur les détecteurs a un champ de 4°13
(60km au sol) pour une visée à la verticale.
Les capteurs HRV sont constitués d'un système optique, de filtres et de 4 barrettes monoblocs de 1728
détecteurs, ce qui permet d'obtenir 6000 détecteurs alignés. Les détecteurs sont du type CCD (Charge
Coupled Device) ; leur dimension est 13µm x 13µm. Les 2 HRV sont identiques et ont un champ de
4.13°. Ces capteurs peuvent opérer selon 2 modes spectraux :
(i) Acquisition mono-canal, dite panchromatique (P)
De manière schématique, elle est réalisée par le déplacement, le long de la trace du satellite, de
6000 détecteurs alignés qui mesurent dans la bande spectrale [0,51µm 0,73µm]. Il n'y a pas de
balayage mécanique. Les 6000 mesures simultanées des détecteurs donnent une "ligne de
l'image". Compte tenu de l'altitude du satellite, chaque détecteur est directement associé à un
pixel de ≈10m. Toute "ligne - image" représente donc une distance au sol de 60km. Le temps
écoulé entre la saisie d'information de 2 lignes successives, espacées de 10m, est 1,504ms.
Les pixels sont codés sur 6bits avec le système DPGM qui est un mode de compression
permettant de conserver 256 niveaux. Le débit d'information est de 245Mbits par seconde.
(ii) Acquisition multispectrale (XS)
Le principe d'acquisition est semblable au précédent. Un système de dispersion du rayonnement
incident permet de décomposer ce dernier selon trois composantes :
- XS1 [0,50µm 0,59µm] : jaune - vert,
- XS2 [0,615µm 0,68µm] : rouge,
- XS3 [0,79µm 0,89µm] : proche infrarouge,
- XS4 [1,58µm 1,75µm] : moyen infrarouge (seulement sur le HRVIR de SPOT 4).
Le groupement par 2 des pixels consécutifs d'une même ligne et de 2 lignes consécutives donne des
pixels de 20m de résolution, soit 3000 pixels pour chaque ligne image. En fait, il faut un ensemble de
3000 détecteurs pour chaque bande spectrale. Tout pixel est donc codé sur 3 fois 8 bits. Le débit
d'information est 25Mbits par seconde. Le temps entre la saisie de 2 lignes "image" est 3.008ms.
Quand les deux instruments HRV opèrent en mode vertical le système observe une bande de 117km de
large avec un recouvrement de 3km. La répétition de cette bande d'observation au cours des orbites
successives permet d'obtenir une couverture complète de la Terre tous les 26 jours.
TELEDETECTION
83
27°
4°13°
3km
117km
60km
80km
950km
80km
60km
Figure III.7 : Configurations géométriques d'acquisition des images SPOT.
Différents jours d'acquisition d'une même zone
Figure III.8 : Fréquence des acquisitions
et vision stéréoscopique.
La période d'observation "verticale"
d'une même région est 26 jours. La
possibilité d'effectuer des visées obliques
en orientant le miroir d'entrée améliore
cette fréquence : jusqu'à 7 observations
tous les 26 jours pour une zone à
l'équateur, et 11 observations à 45° de
latitude. Cette meilleure fréquence de
visée diminue les problèmes dus au
couvert nuageux, et peut rendre possible
le suivi temporel (e.g., agriculture).
Trace au sol du satellite
2 images d'une même surface terrestre
acquises selon 2 directions de visée
constituent un couple stéréoscopique, ce
qui est très utile pour l'étude du relief.
2 HRVIR Haute Résolution Visible Infrarouge
Résolution
20 m
Résolution
10 m
Fauchée
60 km
Fauchée
60 km
0.50µm - 0.59µm
Bandes
0.61µm - 0.68µm
0.61µm - 0.68µm Bandes
0.79µm - 0.89µm
1.58µm - 1.75µm
VMI Vegetation Monitoring Instrument
Résolution : 1 km
Fauchée : 2000 km (110°)
0.43µm - 0.47µm
0.79µm - 0.89µm
Bandes :
0.50µm - 0.59µm
1.58µm - 1.75µm
0.61µm - 0.68µm
Tableau III.2 : Instruments de prise de vue du satellite SPOT 4.
2 instruments à haute résolution spatiale (HRVIR) et 1 instrument à basse résolution spatiale (VMI).
TELEDETECTION
Bande spectrale
PA 0,49 -0,69 µm
B0 0,43 - 0,47 µm
B1 0,49 - 0,61 µm
B2 0,61 - 0,68 µm
B3 0,78 - 0,89 µm
MIR 1,58 - 1,75 µm
Champ de vue
HRG
2,5m* ou 5m
10m
10m
10m
20m
60 km (±27°)
84
VMI
1 km
1 km
1 km
1 km
2250 km
HRS
10m
120 km
Tableau III.3 : Instruments de prise de vue du satellite SPOT 5.
2 capteurs à très haute résolution spatiale (HRG), 1 capteur à basse résolution spatiale (VMI) et
2 capteurs à haute résolution spatiale (HRS) respectivement orientés à +20° et -20° le long de la
trace du satellite pour créer des couples stéréoscopiques (Figure III.9). Le processus
"supermode" donne des images panchromatiques à 2.5m de résolution à partir de 2 images
panchromatiques simultanées à 5m de résolution et décalées en ligne et colonne de 2.5m.
Satellite
Instrument
Bande spectrale
Champ de vue
Résolution
Précision absolue
Précision géométrique
SPOT 1-4
HRV/ HRVIR
B1,B2,B3 MIR
PAN
60 km 60 km 60 km
10 m
20 m
20 m
350 m 350 m 350 m
5m
5m
5m
SPOT 5
HRG
THR
60 km
2,5 m
50 m
<3m
PN
60 km
5m
50 m
<3m
B1,B2,B3 MIR
60 km
10 m
50 m
<3m
60 km
20 m
50 m
<3m
HRS
PAN
120 km
5m / 10m
20 m
<3m
Tableau III.4 : Caractéristiques des systèmes SPOT 1 à SPOT 5.
Figure III.9 : Instruments HRS de SPOT 5
TELEDETECTION
Figure III.10: Images SPOT à différentes résolution spatiale. a) Toulouse. b) Marseille (2.5m).
Figure III.11 : Charge utile et plateforme de SPOT 5
85
TELEDETECTION
(C om ptes num ériques)
(L U T )
Im ages enregistrées ⇒ M ém oire vidéo ⇒ E cran
Figure III.12 : Principaux composants d'un système de traitement d'images satellitaires.
Actuellement, seuls les satellites SPOT 2 et 4 et 5 sont opérationnels. Le satellite SPOT 3 a été
exploité du 28 mars 1994 au 14 novembre 1996, date à laquelle il a été déclaré perdu.
Toute image numérique SPOT (fournie sur CD Rom) comprend un fichier BIL avec en-tête,
accompagné de fichiers annexes qui contiennent des informations nécessaires pour assurer la lecture
de l'image ainsi que d'éventuelles corrections (direction d'éclairement, de visée, etc.).
Identificateur de scène
Décalage selon la trace
Angle de visée
Angle d'incidence
Angle solaire
Gain
Facteurs d'étalonnage
Nombre de lignes et colonnes
Coordonnées du centre
Coordonnées des coins
2 41-252 95/07/10 10:41:07 2 X (No de satellite, indicateur de scène
(K,J), Date et heure d'acquisition, No du HRV, Mode X ou P
0
10.4°
21.7°
Azimut : +144.9° Elévation : 60.3°
886
1.70895 1.34464 1.52594 W.m-2.sr-1.µm-1
2992 - 3561
Pixel (1806 1495) : N48°28'17" E3°00'26"
Pixel (125,1) : N48°47'24" - E2°37'50"
Pixel (3561,1) : N48°15'52" - E3°32'57"
Pixel (1,2992) : N48°15'52" - E2°27'21"
Pixel (3437,2992) : N48°9'11" - E3°21'54"
Tableau III.5 : Exemple de caractéristiques principales fournies avec une image SPOT XS
Les images SPOT sont commercialisées avec plusieurs niveaux de traitement. Pour SPOT 1 et 2 :
- Niveau 1A : niveau brut où seule une égalisation des détecteurs est réalisée dans chaque bande
spectrale. Un coefficient de sensibilité relative entre les différents canaux est donné.
- Niveau 1AP : produit spécifique pour utilisation sur stéréo-restituteurs analytiques. Il se distingue du
niveau 1A par un sur échantillonnage à 8,75m (mode P) et 18,75m (mode XS). Une anamorphose est
aussi effectuée pour compenser l'effet de l'angle de visée, et la texture est rehaussée par filtrage.
- Niveau 1B : ce niveau standard comprend les corrections radiométriques et les corrections
géométriques liées aux déformations systématiques introduites par le système (rotation de la Terre,
effet panoramique, effet de filé, angle de visée). La précision de localisation absolue est 800m en
visée verticale et la distorsion interne est de l'ordre de 10-3.
- Niveau 2 : c'est le niveau 1B avec une correction géométrique améliorée à partir de données internes
(données d'orbite restituée, géométrie de prise de vue, données auxiliaires de restitution d'attitude du
satellite), un ré échantillonnage des pixels selon les axes X et Y d'un système cartographique choisi
par le client, la possibilité de juxtaposer exactement 2 scènes consécutives de niveau 2. L'emploi de
points d'appui (points amer) donne des données de niveau 2B. Autrement, le niveau est 1A.
- Niveau S : scènes rectifiées pour pouvoir être superposées à une scène SPOT de référence. Le niveau
est dit S1 si l'image de référence est de niveau 1B et S2 si l'image de référence est de niveau 2.
De plus, il est possible de combiner des données SPOT P et SPOT XS d'une même scène.
86
IV VISUALISATION
IV.1 Synthèse additive et soustractive de la couleur
Il existe deux types de synthèse de couleur (http://www.commentcamarche.net/video/lumiere.php3):
● La synthèse additive
Elle résulte de l'ajout de composantes de la lumière. C'est le cas pour les moniteurs ou les télévisions
en couleur. Lorsque l'on ajoute trois composantes Rouge, Vert, Bleu (RVB) de même intensité, on
obtient du blanc (gris). L'absence de composante donne du noir. Les couleurs secondaires sont :
- le cyan : vert combiné au bleu,
- le magenta : bleu combiné au rouge,
- le jaune : vert combiné au rouge.
● La synthèse soustractive
Elle restitue les couleurs par soustraction (e.g., réflexion / absorption) d'une lumière blanche. Les 3
couleurs primaires sont le jaune, le magenta et le cyan. Leur ajout donne du noir et leur absence
produit du blanc. Ce procédé est utilisé en photographie et pour l'impression des couleurs. Les
couleurs secondaires sont :
- le bleu : magenta combiné avec le cyan,
- le rouge : magenta combiné avec le jaune,
- le vert : cyan combiné avec le jaune.
Deux couleurs sont dites "complémentaires" si leur association donne du blanc en synthèse additive,
ou du noir en synthèse soustractive.
IV.2 Représentation des couleurs
Le spectre de couleurs qu'un périphérique d'affichage permet d'afficher est appelé gamut ou espace
colorimétrique. Le gamut d'un dispositif d'affichage est souvent représenté en traçant dans le
diagramme chromatique un polygone renfermant toutes les couleurs qu'il est capable de produire. Les
couleurs n'appartenant pas au gamut sont appelées couleurs hors-gamme. L'espace de couleurs est la
représentation mathématique d'un ensemble de couleurs. Les espaces de couleur les plus connus sont :
* Le codage RVB (Rouge, Vert, Bleu, en anglais RGB, Red, Green, Blue).
* Le codage TSL (Teinte, Saturation, Luminance, en anglais HSL, Hue, Saturation, Luminance).
* Le codage CMYK.
* Le codage CIE.
* Le codage YUV.
* Le codage YIQ.
• Système RGB
Le codage RGB, mis au point en 1931 par la Commission Internationale de l'Eclairage (CIE)
représente l'espace des couleurs à partir de 3 couleurs :
- Rouge (de longueur d'onde égale à 700,0 nm),
- Vert (de longueur d'onde égale à 546,1 nm),
- Bleu (de longueur d'onde égale à 435,8 nm).
TRAITEMENT D'IMAGES
Teintes de rouge
Rouge
Principe de visualisation RVB.
Jaune
Magenta
Blanc
Droite
des gris
Noir
Vert
Teintes
de bleu
Teintes
de vert
Bleu
Pseudo couleur
Cyan
L'affichage RVB d'un pixel de comptes
numériques (i1, i2, i3) dans 3 images monocanal
est une "projection" (jR, jV, jB) du triplet (i1, i2, i3)
sur les 3 axes "couleur" de l'espace RVB. Les
termes jR, jV et jB donnent les teintes rouge, verte
et bleue. La droite des gris (i.e., jR = jV = jB)
indique un affichage en noir et blanc.
"Rouge + Vert = Jaune", "Bleu + Rouge =
Magenta", "Bleu + Vert = Cyan".
• Système HSL
Le modèle HSL (Hue, Saturation, Luminance, ou en français TSL) dérive des travaux du peintre
Albert H. Munsell, créateur de l'Atlas de Munsell. Ce modèle de représentation est dit "naturel", car
il est proche de la perception physiologique de la couleur par l'oeil humain. En effet, quoique adapté
à la gestion et affichage de la couleur sur les périphériques informatiques de sortie, le modèle RGB
ne permet pas de sélectionner aisément une couleur. Ainsi, le réglage de la couleur en RGB dans les
outils informatiques est en général réalisé avec 3 glisseurs ou 3 cases qui spécifient les valeurs
relatives de chaque composante primaire. Ceci n’est pas adapté à une opération telle que
l'éclaircissement/assombrissement d'une couleur qui requiert une même variation proportionnelle de
chaque composante. Le modèle HSL a été conçu pour pallier à ce problème. Il permet un choix
interactif rapide d'une couleur, mais il n'est pas adapté à une description quantitative d'une couleur.
Il décompose la couleur selon 3 critères physiologiques (Figure IV.1) :
- Luminance : indique la quantité de lumière de la couleur ; i.e., aspect clair ou sombre (T-shirt au
soleil ou à l'ombre). C'est la valeur I sur la droite des gris.
- Teinte (en anglais Hue) : indique la couleur perçue (T-shirt mauve ou orange). C'est l'angle du
vecteur couleur dans le cercle chromatique du plan normal à la droite des gris au point I.
- Saturation : décrit la pureté de la couleur ; i.e., son caractère vif ou terne (T-shirt neuf ou délavé).
C'est la norme du vecteur couleur dans le plan normal à la droite des gris au point I.
: droite des gris
I
Figure IV.1 : Représentation graphique du modèle HSL..
Il existe d'autres modèles naturels de représentation proches du modèle HSL :
* HSB : "Hue, Saturation, Brightness" soit "Teinte, Saturation, Brillance" en français. La brillance
décrit la perception de la lumière émise par une surface.
* HSV : "Hue, Saturation, Value" soit "Teinte, Saturation, Valeur" en français.
* HSI : "Hue, Saturation, Intensity" soit "Teinte, Saturation, Intensité" en français.
* HCI : "Hue, Chrominance, Intensity" soit "Teinte, Chrominance, Intensité" en français.
• Le codage CMY
Le codage CMY ("Cyan, Magenta, Yellow"), ou CMJ ("Cyan, Magenta, Jaune") en français, est à la
synthèse soustractive, ce que le codage RGB est à la synthèse additive. Ce modèle consiste à
décomposer une couleur en valeurs de Cyan, de Magenta et de Jaune.
L'absence de ces trois composantes donne du blanc tandis que leur ajout donne du noir. En pratique,
le noir obtenu par l'ajout des trois couleurs Cyan, Magenta et Jaune coûte cher et est imparfaitement
noir. Par suite, les imprimeurs rajoutent une composante d'encre noire appelée noir pur. On parle
alors de quadrichromie, ou modèle CMYK (Cyan, Magenta, Jaune, Noir pur, ou en français CMJN).
88
TRAITEMENT D'IMAGES
89
• Le codage CIE
La Commission Internationale de l'Eclairage (CIE) a défini en 1931 le système colorimétrique xyY
(Figure IV.2). Toutefois ce mode de représentation purement mathématique ne tient pas compte des
facteurs physiologiques de perception de la couleur par l'oeil humain, ce qui résulte en un diagramme
de chromaticité laissant par exemple une place beaucoup trop large aux couleurs vertes. D'autre part,
les couleurs peuvent être perçues différemment selon les individus et peuvent être affichées
différemment selon les périphériques d'affichage. Par suite, la CIE a conçu un système qui permet de
définir une couleur indépendamment des périphériques utilisés.
Figure IV.2 : Système colorimétrique xyY.
Il représente les couleurs selon leur chromaticité
(axes x et y) et leur luminance (axe Y). Le
diagramme de chromaticité (ou diagramme
chromatique),
issu
d'une
transformation
mathématique, représente sur la périphérie les
couleurs pures, c'est-à-dire les rayonnements
monochromatiques / couleurs du spectre (i.e.,
couleurs de l'arc en ciel), repérées par leur longueur
d'onde. La ligne fermant le diagramme (donc
fermant les 2 extrémités du spectre visible) se
nomme la droite des pourpres, car elle correspond à
la couleur pourpre, composée des 2 rayonnements
monochromatiques bleu (420 nm) et rouge (680 nm).
Système xyY
Droite des pourpres
En 1976, afin de remédier aux lacunes du modèle xyY, la CIE a défini le modèle colorimétrique
La*b* (aussi connu sous le nom de CIELab), dans lequel une couleur est repérée par trois valeurs :
- L, la luminance, exprimée en pourcentage (0 pour le noir à 100 pour le blanc)
- a et b deux gammes de couleur allant respectivement du vert au rouge et du bleu au jaune avec
des valeurs allant de -120 à +120.
Le mode Lab est très utilisé dans l'industrie. Il couvre tout le spectre visible par l'oeil humain et le
représente de manière uniforme, indépendamment de la technologie graphique. Il comprend donc
toutes les couleurs RGB et CMYK. Ceci explique que des logiciels comme PhotoShop l'utilisent
pour passer d'un modèle de représentation à un autre.
Les modèles de la CIE ne sont pas intuitifs, mais toute couleur créée selon ces modèles sera vue de la
même façon par tous !
• Le codage YUV
Le modèle YUV (appelé aussi CCIR 601) est adapté pour représenter la couleur en vidéo analogique. Il
a été conçu pour transmettre des informations colorées aux téléviseurs couleurs de manière à ce que
les téléviseurs noir et blanc existants continuent d'afficher une image en tons de gris. Les standards
PAL (Phase Alternation Line) et SECAM (Séquentiel Couleur avec Mémoire) l'utilisent. Le
paramètre Y représente la luminance (i.e., information en noir et blanc), tandis que U et V
représentent la chrominance (i.e., information sur la couleur). U est parfois noté Cr et V noté Cb,
d'où la notation fréquente YCrCb. Les relations liant les modèles YUV et RGB sont les suivantes :
- Y = 0.299R + 0.587 G + 0.114 B
- U = -0.147R - 0.289 G + 0.436B = 0.492(B - Y)
- V = 0.615R - 0.515G -0.100B = 0.877(R-Y)
• Le codage YIQ
Le modèle YIQ est très proche du modèle YUV. Il est notamment employé dans le standard vidéo
NTSC (e.g., États-Unis). Les paramètres Y, I et Q représentent respectivement la luminance,
l'Interpolation et la Quadrature. Les relations entre les modèles YIQ et RGB sont les suivantes :
- Y = 0.299 R + 0.587 G + 0.114 B
- I = 0.596 R - 0.275 G - 0.321 B
- Q = 0.212 R - 0.523 G + 0.311 B
TRAITEMENT D'IMAGES
90
IV.3 Le codage de la couleur
Une image est représentée par un tableau à deux dimensions dont chaque case est un pixel. Pour
représenter informatiquement une image monocanal, il suffit donc de créer un tableau de pixels dont
chaque case contient une valeur. La valeur stockée dans une case est codée sur un certain nombre de
bits déterminant la couleur ou l'intensité du pixel, on l'appelle profondeur de codage (parfois
profondeur de couleur). Il existe plusieurs standards de codage de la profondeur :
* bitmap noir et blanc: le stockage d'un bit dans chaque case permet de définir 2 couleurs (noir ou blanc).
* bitmap 16 couleurs ou 16 niveaux de gris. En stockant 4 bits dans chaque case, il est possible de
définir pour chaque pixel 16 dégradés de gris, du noir au blanc, ou bien 16 couleurs différentes.
* bitmap 256 couleurs ou 256 niveaux de gris. En stockant un octet dans chaque case, il est possible
de définir 256 dégradés de gris allant du noir au blanc ou bien 256 couleurs différentes.
* palette de couleurs (colormap). Cette palette, ou table des couleurs, contient toutes les couleurs
pouvant être contenues dans l'image, avec pour chacune l'indice associé. Le nombre de bits réservé
au codage des indices de la palette détermine le nombre de couleurs pouvant être utilisées. Ainsi,
un codage sur 8 bits permet de définir 256 couleurs utilisables. Chaque case du tableau à deux
dimensions représentant l'image contient un nombre indiquant l'indice de la couleur à utiliser. Une
image dont les couleurs sont ainsi codées est dite image en couleurs indexées.
* "Couleurs vraies" (True color) ou "couleurs réelles". L'image peut alors être affichée en définissant
chacune des composantes RGB (rouge, vert et bleu). Chaque pixel est représenté par un entier
comportant les trois composantes, chacune codée sur un octet, c'est-à-dire au total 24 bits (16
millions de couleurs). Il est possible de rajouter une quatrième composante permettant d'ajouter
une information de transparence ou de texture : chaque pixel est alors codé sur 32 bits.
La transparence définit le niveau d'opacité des éléments d'une image ; i.e., possibilité de voir à travers
l'image des éléments graphiques situés derrière celle-ci. Il existe deux modes de transparence :
- La transparence simple s'applique à une image indexée. Elle consiste à définir parmi la palette de
couleurs une des couleurs comme transparente
- La transparence par couche alpha (ou canal alpha, en anglais alpha channel) consiste à rajouter
pour chaque pixel de l'image un octet définissant le niveau de transparence (de 0 à 255). Le
processus d'ajout d'une couche transparente à une image est généralement appelé alpha blending.
Définition
de l'image
320x200
640x480
800x600
1024x768
Noir et blanc
(1 bit)
7.8 Ko
37.5 Ko
58.6 Ko
96 Ko
256 couleurs
(8 bits)
62.5 Ko
300 Ko
468.7 Ko
768 Ko
65000 couleurs
(16 bits)
125 Ko
600 Ko
937.5 Ko
1.5 Mo
True color
(24 bits)
187.5 Ko
900 Ko
1.4 Mo
2.3 Mo
Exemples de poids d'images avec différentes profondeurs de codage
IV.4 Sélection des couleurs dans un logiciel
La plupart des logiciels graphiques offrent des
moyens de sélectionner une couleur de manière
interactive. Le moyen principal est souvent le
nuancier, c'est-à-dire la présentation des couleurs
dans un tableau dans lequel elles sont classées
par nuances.
TRAITEMENT D'IMAGES
De plus en plus de logiciels intègrent toutefois
des outils plus performants permettant de choisir
une couleur parmi une vaste gamme. Ainsi, dans
le sélectionneur de couleur ci-contre, la teinte est
représentée par un disque chromatique, tandis
que la luminance est représentée par un sélecteur
vertical donnant les nuances de la couleur allant
du noir au blanc.
91
Disque
chromatique
Luminance
Dans le sélecteur ci-dessous par contre, la teinte
est présentée en abscisses du sélecteur de gauche,
et la saturation est en ordonnée. Le sélecteur de
droite permet de régler la luminosité :
● Facteur gamma
Le facteur gamma est le critère définissant le caractère non linéaire de l'intensité lumineuse d'un
élément. Ainsi, la luminance d'un écran d'ordinateur est non linéaire dans la mesure où :
- l'intensité lumineuse qu'il émet n'est pas linéairement proportionnelle à la tension appliquée, mais
correspond à une courbe fonction du gamma de l'écran (en général entre 2,3 et 2,6) : I ≈ Vgamma
- l'intensité lumineuse perçue par l'oeil n'est pas proportionnelle à la quantité de lumière réellement reçue.
De manière à obtenir une reproduction
réaliste de l'intensité lumineuse, il
convient de corriger la luminance en
appliquant une transformation appelée
"correction gamma". Ainsi à chaque
périphérique d'affichage correspond une
transformation gamma qui peut être
adaptée à la perception de l'utilisateur.
Il est en général important de respecter les couleurs d'une image lors du passage de celle-ci via
plusieurs périphériques (chaîne numérique composée par exemple d'un scanner, d'un logiciel de
traitement d'image, puis d'une imprimante) afin de s'assurer que l'image en fin de chaîne de
traitement possède des couleurs proches de l'image d'origine. On appelle "gestion de la couleur"
l'ensemble des opérations nécessaires pour garantir la bonne conservation des couleurs d'une image.
Afin de pouvoir garantir la cohérence des couleurs il est essentiel d'étalonner tous les matériels de la
chaîne numérique. L'étalonnage d'un matériel consiste ainsi à décrire dans un fichier, appelé profil
ICC (International Color Consortium), l'ensemble des couleurs qu'il est capable d'acquérir ou de
produire (il s'agit donc de son gamut) dans un espace de couleur indépendant (par exemple CIE Lab
ou CIE XYZ). Ce profil ICC est intégré dans l'image et véhicule l'ensemble des transformations
qu'elle a subi le long de la chaîne de traitement, à la manière d'un carnet de suivi.
TRAITEMENT D'IMAGES
92
IV.5 LUT
L'aspect visuel (i.e. couleurs ou teintes de gris) de toute image affichée sur un écran dépend de la
valeur numérique des pixels affichés et d'une table vidéo, aussi appelée table de correspondance ou
LUT (Look-Up Table). Cette table assure la correspondance, ou traduction visuelle, entre l'ensemble I
des comptes numériques possibles i (i ∈ I) des pixels et l'ensemble J des couleurs ou teintes de gris j
(j∈I) disponibles pour l'affichage. Elle correspond donc à une fonction f telle que j = f(i) et f(I) ⊂ J.
Si la LUT est déplacée vers le bas (haut), l'image est assombrie (éclaircie).
L'opération d'affichage d'une image monocanal comprend 2 étapes majeures :
(i) Transfert du fichier informatique de l'image depuis son support (bande magnétique, disque
optique, disque dur, ou disquette) sur la mémoire image du poste de travail. Cette mémoire est
aussi appelée mémoire locale ou mémoire de rafraîchissement de l'écran.
(ii) Affichage avec des teintes de gris ou diverses couleurs selon le LUT choisi. Il est remis à jour à
une fréquence spécifique à la mémoire (e.g. 50Hz) : la mémoire vidéo est périodiquement
"balayée" pour être recopiée sur l'écran. Le LUT utilisé peut être choisi parmi des LUTs
prédéfinis ou bien déterminé de manière interactive. Le système de visualisation peut adapter le
LUT de manière plus ou moins automatique en fonction des valeurs statistiques (moyenne, écart
type, etc.) représentatives des comptes numériques des pixels.
En fait, toute teinte affichée sur un écran est la superposition de 3 teintes : rouge, vert et bleu. L'aspect
visuel de tout pixel sur un écran est donc du à trois intensités rouge, vert et bleu (jR, jV, jB) directement
associées aux comptes numériques i1, i2 et i3 du pixel dans les trois images monocanal affichées. Les
intensités (jR, jV, jB) d'affichage sont définies par trois LUTs fR(), fV() et fB() associés à chaque couleur
(i.e. rouge, vert et bleu) : jR = fR(i1), jV = fV(i2) et jB = fB(i3). L'affichage de toute image est donc la
superposition de 3 images monocanal respectivement "coloriées" en bleu, vert et rouge. On dit que l'on
superpose trois plans de couleur rouge, verte et bleue, appelés plans RVB (Rouge - Vert - Bleu) ou
encore RGB (Red - Green - Blue) en langue anglaise. Toute image monocanal peut être visualisée
avec des teintes d'une seule couleur. Ainsi, avec des LUTs tels que jR = fR(i1) ≠ 0, jV = fV(i2) = 0 et
jB=fB(i3) = 0 ∀ i1, i2 et i3, toute image apparaît avec des teintes de rouge.
Figure IV.3 : Visualisation
d'une image sur un écran RVB.
C o n v e rtisse u r
n u m é riq u e - a n a lo g iq u e
M é m o ire v id é o
LUT
P la n r o u g e
E c ra n
LUT
P la n v e r t
LUT
P la n b le u
L'image affichée est soit une
image "monocanal" (les 3
images en entrée sont en fait la
même image mono canal) ou 3
images mono canal différentes.
Chaque canal est codé par
l'intermédiaire du LUT associé
aux teintes de la couleur selon
laquelle il doit être visualisé.
Les 3 couleurs sont ensuite
"additionnées" sur l'écran RVB.
TRAITEMENT D'IMAGES
93
Une image est affichée uniquement en teintes de gris si les intensités bleu, vert et rouge de tout pixel
sont égales (i.e., jR = jV= jB). Ceci est le mode usuel d'affichage des images monocanal : la même image
monocanal est affichée dans les plans rouge, vert et bleu avec les mêmes LUTS fR(), fV() et fB().
• Composition colorée
Une "composition colorée" est une image créée par la superposition de 3 images monocanal
coloriées en "rouge - vert - bleu" avec un LUT spécifique à chaque couleur. Elle est dite en couleurs
naturelles si les couleurs correspondent à notre perception visuelle (e.g., herbe en teintes de vert).
Pour cela, les images affichées en bleu, vert et rouge doivent avoir été acquises dans les domaines
spectraux du bleu, du vert et du rouge. Un capteur (e.g., SPOT) qui n'opère pas dans le bleu ne peut
donner directement des compositions colorées en couleurs naturelles. Les autres modes d'affichage
sont souvent appelés "compositions colorées en fausse couleur". Ainsi, une image multispectrale
acquise dans le vert, rouge et proche infrarouge peut être affichée en affectant des teintes "bleu" à
l'image acquise dans le vert, des teintes "vert" à l'image acquise dans le rouge et des teintes "rouge" à
l'image acquise dans le proche infrarouge. Dans ce cas, la végétation tend à apparaître avec des
teintes "rouges", car la réflectance de la végétation tend à être très élevée dans le proche infrarouge.
Pour des pixels codés sur 1 octet, la combinaison des LUTs donne une table vidéo (LUT) 3D avec
au maximum (256)3 niveaux possibles. Le nombre de teintes ou tons de couleurs de l'image affichée
est donc en général inférieur à (256)3.
• Affichage "pseudo-couleur"
Ce mode d'affichage classique affiche une image mono canal avec une échelle de couleurs
particulière à l'aide de trois LUTs prédéfinis LUTR, LUTV, et LUTB. L'obtention d'un affichage
"couleur" cohérent passe souvent par l'emploi d'une gradation des couleurs qui reflète l'échelle des
valeurs numériques (e.g. teintes sombres pour les faibles CN et teintes claires pour les forts CN).
0
1 .... 5
6 .... 30 .... 35
36 .... 180 .... 185 .... 209 .... 215 →255
Noir Bleu .... Bleu Vert .... Vert .... Cyan Rouge .... Rouge .... Mag- .... Jaune .... Blanc Blanc
foncé
foncé
foncé
-enta
Tableau IV.1 : Exemple de LUT "Fausse couleur".
jr
jv
Rouge
Vert
Figure IV.4 :
LUT pseudo-couleur.
CN
CN
LUT V
LUT R
jb
Couleur
Bleu
CN
LUT B
Rouge
Jaune
Vert
Cyan
Bleu
Magent
Rouge
Le
LUT
pseudo-couleur
résulte de la combinaison de
LUTR, LUTV et LUTB.
prédéfinis. La somme des
teintes de couleur jR, jV et jB est
constante pour tout compte
numérique.
jr + jv + jb = cste.
CN
Transformation totale
Remarques : - l'oeil humain distingue simultanément au plus 8-12 niveaux de gris, et 32-64 couleurs.
- tout affichage est plus ou moins affecté par la sensibilité spectrale du capteur.
IV.6 TRANSFORMATION DE LUT
Le but de la transformation de LUT est uniquement de modifier la "couleur" des pixels affichés. Ainsi,
elle ne modifie pas les comptes numériques (CN) des pixels. Elle est donc une opération quasi
instantanée, beaucoup plus rapide que toute opération de manipulation et de chargement dans la
TRAITEMENT D'IMAGES
mémoire vidéo de données stockées sur le disque dur. Cette rapidité d'exécution permet d'améliorer
instantanément l'aspect visuel d'images affichées sur l'écran de l'ordinateur. Les transformations de
LUT sont en général effectuées en prenant en compte la distribution des valeurs numériques des
pixels, c'est à dire l'histogramme de l'image.
• Histogramme
L'histogramme d'une image monocanal est un graphique qui donne la distribution des CN de cette
image, c'est-à-dire le nombre ou pourcentage de pixels ayant un CN donné. Par convention un
histogramme représente le niveau d'intensité en abscisse en allant du plus faible (à gauche) au plus
élevé (à droite). Ainsi, l'histogramme d'une image dont les comptes numériques vont de 0 à 255 est
un graphique possédant 256 valeurs en abscisses, et le nombre de pixels de l'image en ordonnées.
L'histogramme qui contient uniquement un objet (i.e., population de pixels connexes avec des CN
"similaires") de teinte assez uniforme sur un fond d'image uniforme a en général un aspect uni-modal
de type gaussien. Un histogramme avec plusieurs modes peut être du à la présence de différents
types de population dans l'image ou à différentes configurations d'éclairement ou d'observation d'une
même population.
Toute image multi-canaux est caractérisée par plusieurs histogrammes. Ainsi, une image codée en RGB a
3 histogrammes qui donnent la distribution des CN de ses composantes rouges, bleues et vertes.
L'histogramme cumulé C(i) représente la distribution cumulée des intensités des pixels d'une image,
c'est-à-dire le nombre de pixels ayant une intensité lumineuse supérieure à i.
Figure IV.5:
Histogramme d'image codée sur un octet.
Nombre de pixels
Le codage sur un octet signifie que les CN
peuvent prendre 256 valeurs.
765
Ici, 765 pixels ont la valeur 100. L'aire grisée
(i.e., intégrale de l'histogramme) est égale au
nombre total de pixels de l'image.
0 25 30
80 100
200
255
• Amélioration de contraste
L'analyse d'un histogramme montre que la totalité de la dynamique possible des CN est rarement
utilisée. L'explication est simple : un capteur peut fonctionner avec des conditions beaucoup plus
extrêmes que celles rencontrées dans une seule et même image. Ainsi, pour une image satellite, les
conditions expérimentales qui correspondent aux flux lumineux extrêmes que peut mesurer un
capteur sans saturation ne sont quasiment jamais réunies lors d'une seule acquisition d'image. Ainsi,
un capteur peut être réglé pour saturer lors de l'observation d'un couvert neigeux ensoleillé, que
l'image acquise contienne ou non de la neige. Ceci explique que la dynamique d'une image diffère en
général de la dynamique maximale possible (e.g., CN compris entre 60 et 120 dans une image codée
sur 8 bits). Dans ce cas, une image affichée sans adaptation de contraste est peu contrastée.
L'amélioration de contraste consiste à modifier la table vidéo, c'est à dire à attribuer aux CN des
teintes de couleur qui couvrent l'ensemble des couleurs disponibles. L'histogramme est donc un outil
très utile pour gérer toute transformation de LUT destinée à modifier le contraste et l'échelle des
couleurs sur tout ou partie d'images sur ou sous exposées.
L'amélioration de contraste peut être :
- globale : elle améliore la visualisation de tous les pixels de l'image en associant les teintes extrêmes
à des bornes qui encadrent la totalité (i.e., CN extrêmes) ou quasi-totalité (e.g., 95%) des CN des
pixels de l'image. Elle est souvent appelée "expansion de la dynamique" ou "étalement de
dynamique" ou "linéarisation d'histogramme". Pour l'histogramme de la Figure IV.5, il peut être
choisi l'intervalle [25 200], car 25 et 200 sont les CN extrêmes de l'image. Tous les pixels dont les
CN sont extérieurs aux bornes apparaissent avec une même teinte. Le choix des bornes doit être
conduit avec soin car l'information recherchée peut justement se retrouver au-delà de ces bornes.
- locale : l'affichage n'est amélioré que pour les pixels dont les CN sont dans l'intervalle choisi. Ceci
est souvent utile si cet intervalle est celui des CN des pixels d'un objet de l'image. Ainsi, pour
94
TRAITEMENT D'IMAGES
95
l'histogramme de la Figure IV.5, le choix de l'intervalle [85 195] permet d'afficher avec toutes les
teintes possibles l'ensemble des pixels dont les CN sont dans l'intervalle [85 195].
• Transformation linéaire du LUT
La transformation de LUT peut être réalisée avec des opérateurs mathématiques plus ou moins
complexes. L'opérateur le plus simple est l'opérateur linéaire : les LUTs f() sont des droites avec des
intervalles [imin imax] définis, ce qui fixe les 3 intervalles [jmin jmax]. La Figure IV.6 donne des
exemples pour le cas d'une image dont l'histogramme est celui de la Figure IV.5.
Teinte
Teinte
T max
T max
j
j
k
k
CN
c
a
a)
b 255
CN
b)
a
c
b 255
Figure IV.6 : Amélioration de contraste de l'image de la Figure IV.5 par transformation linéaire de LUT.
a) Amélioration globale. b) Amélioration locale. Tmax teintes possibles.
LUT par défaut (pointillés) : la teinte j = i.Tmax/255 est affectée à tout pixel de compte numérique i.
LUT modifié (trait plein): i ∈ [0 a] ⇒ k = 0, i ∈ ]a b] ⇒ k = 255.(i-a)/(b-a) et i ∈ ]b 255] ⇒ k = 255
a et b peuvent être tels que 95% des comptes numériques est dans [a b] (e.g. [a b] ≈ [85 195]).
• Transformation multi-linéaire du LUT
Figure IV.7 : Transformation multi-linéaire du LUT
i ∈ [0 a] ⇒ j = 0
Tmax
i ∈ [a b] ⇒ j = α.(i-a)
i ∈ ]b c] ⇒ j = α.(b-a)
i ∈ ]c d] ⇒ j = β.(i - c) + α.(b-a)
....
a b
c
d
255
Les points (a,α) et (b,γ.(i-b)+β.(b-a)+α.a) sont les
"pivots" de la loi de transformation du LUT.
La plupart des logiciels de traitement d'image (Aphelion, Visilog, ILWIS, etc.) permettent de définir
sur la LUT un nombre quelconque de pivots et d'utiliser diverses fonctions (droite, exponentielle,
racine carrée, etc.) pour transformer la LUT entre les pivots. Ceci est très utile pour l'amélioration de
contraste. Il est souvent estimé que l'amélioration de contraste est optimale si toutes les teintes
possibles sont utilisées et si elles apparaissent dans des proportions identiques. La LUT résultat
dépend de l'histogramme de l'image. Cette égalisation des teintes s'applique à des images monocanal
et multicanal. Un résultat similaire peut être obtenu en employant une LUT standard (i.e.,
"diagonale") après égalisation de l'histogramme de l'image.
TRAITEMENT D'IMAGES
Figure IV.8: Egalisation des teintes d'affichage.
a) Image initiale affichée avec une LUT standard (i.e., "diagonale"). b) Histogramme de l'image
a). c) Image affichée avec égalisation des teintes obtenue soit par modification de la LUT, soit
avec l'emploi d'une LUT standard combinée à l'égalisation (d) de l'histogramme de l'image a).
L'emploi de pivots sur la LUT permet aussi d'affecter une même teinte à tous les CN d'un même
intervalle. Cette méthode est aussi utile pour mettre en évidence certains objets de l'image ; par
exemple, en affectant à chaque objet de l'image une teinte distincte. Elle doit être employée si le
nombre de teintes possibles du système de visualisation est inférieur au nombre de valeurs possibles
des CN des pixels.
96
TRAITEMENT D'IMAGES
97
V TRAITEMENT D'IMAGES (http://cmm.ensmp.fr/~serra/cours/index.htm)
V.1 PRINCIPAUX TRAITEMENTS
Un opérateur appliqué à une ou plusieurs images de même dimension crée une nouvelle image. Pour
cela, il est appliqué à tout pixel des images de départ, de manière séquentielle du premier au dernier
pixel. A la différence des transformations de LUT, les opérateurs manipulent des comptes numériques.
Il existe 2 grandes familles d’opérateurs: les opérateurs ponctuels et les opérateurs dits de voisinage,
car ils manipulent les pixels voisins de chaque pixel traité. La notion de voisinage est importante car
les "objets" sont souvent reconnus par leur contexte, texture (granularité, linéarité, directivité,
fréquence, contraste, ordre, connexité, etc.), taille et forme (uniforme, punctiforme, filiforme, etc.).
• Opérateurs ponctuels
Un opérateur ponctuel traite le compte numérique de chaque pixel indépendamment des comptes
numériques des autres pixels de l'image. L'opération associée peut être arithmétique, logique, etc. Le
rapport d'images est un exemple d'opération ponctuelle. Il est souvent utile pour mettre en évidence
des différences entre 2 images d'une même scène acquises avec des éclairements différents ou dans
des bandes spectrales différentes.
• Opérateurs de voisinage
Pour tout pixel P(x,y) de l’image de départ, l’opérateur calcule le compte numérique du pixel P'(x,y)
de l’image résultat, à partir des comptes numériques des pixels voisins du pixel traité P(x,y). Le
voisinage d'un pixel (i.e., le pixel et ses voisins) peut être de forme rectangulaire, hexagonale, etc. Il
est souvent utilisé des fenêtres carrées de taille 2n + 1, ou circulaires de rayon n. La dimension n est
choisie selon la fréquence spatiale de l'information d'intérêt : petite fenêtre pour les informations à
haute fréquence spatiale (e.g. linéaments très proches, en géologie) et grande fenêtre pour les
informations à faible fréquence spatiale. Tout pixel de l'image résultat contient donc une information
qui dépend du contexte du pixel correspondant dans l'image de départ. De manière à éviter des effets
de bord sur les bords des images, il est nécessaire de définir le voisinage des bords d'image en dehors
de celle-ci. Ainsi, l'image réellement traitée par l'opérateur peut être l'image de départ à laquelle ont
été juxtaposées les premières et dernières lignes et colonnes de l'image de départ. La dimension de
l'image effectivement traitée est alors supérieure aux dimensions des images de départ et résultat.
L’opérateur est souvent noté h(u,v). Pour un opérateur de voisinage circulaire de rayon n, on a u et v
∈ [1 2n+1]. Tout pixel résultat P’(x,y) dépend des pixels P(x+i,y+j), avec i ∈ [-I +I] et j ∈ [-J +J].
On dit que l'image résultat est obtenue par convolution de l'image de départ avec l'opérateur h(u,v).
Les opérations effectuées par l’opérateur peuvent être arithmétiques ou non. L’emploi d’opérations
arithmétiques correspond à l’opération dite de convolution de l’image de départ. C’est le cas d’un
opérateur qui affecte à tout pixel de l’image résultat la moyenne des comptes numériques des pixels
du voisinage de tout pixel de l’image de départ. Certains opérateurs (e.g., opérateurs
morphologiques) effectuent des opérations non arithmétiques. Ainsi, le compte numérique du pixel
résultat peut être le compte numérique le plus élevé des pixels du voisinage du pixel traité.
• Opérateurs de voisinage avec ré-échantillonnage spatial
Les dimensions des images résultat et de départ peuvent différer. Ceci survient dans le cas d'un rééchantillonnage spatial de l'image de départ destiné à changer de repère spatial. Ceci est réalisé avec
des transformations géométriques (e.g., enchaînement de translations, rotations et homothéties).
Ainsi, la Figure V.1 illustre la transformation d'une image de 4 lignes x 4 colonnes en une image de 7
colonnes x 5 lignes. Le compte numérique de tout pixel de l’image résultat résulte d'une convolution
de l'image de départ par un opérateur (e.g., méthode du plus proche voisin, bi-linéaire, cubique, etc.).
B
∆1
A
B
A
C
C
Image originale : 4col x 4lig
∆2
Image résultat : 7col x 5lig
Figure V.1: Correction géométrique.
L'image originale (pixels • de taille
∆1) est transformée en une nouvelle
image (pixels o de taille ∆2) de plus
grande dimension. La transformation
géométrique a été définie à partir de
points A, B et C qui ont été repérés
dans les repères de départ et
d’arrivée. Ces points sont appelés
"points de contrôle".
TRAITEMENT D'IMAGES
98
V.2 PRINCIPAUX OPERATEURS PONCTUELS
V.2.1 Opérateurs arithmétiques
Plusieurs exemples d'opérateurs sont donnés ici. Ils créent une image résultat P'(x,y) à partir d'une
ou plusieurs images P1(x,y), P2(x,y), etc. où x et y sont les numéros des lignes et colonnes.
• Addition : P' (x,y) = P1(x,y) + P2(x,y) et P' (x,y) = P1(x,y) + C
où C est une constante.
• Soustraction : P' (x,y) = P1(x,y) - P2(x,y) et P' (x,y) = P1(x,y) - C
• Multiplication : P' (x,y) = P1(x,y) . P2(x,y) et P' (x,y) = C . P1(x,y)
• Division : P' (x,y) = P1(x,y) / P2(x,y) et P' (x,y) = P1(x,y) / C
• Minimum / maximum : P' (x,y) = Min[P1(x,y), P2(x,y)] et P' (x,y) = Min[C, P1(x,y)]
• Combinaison linéaire : P' (x,y) = C1 . P1(x,y) + C2 . P2(x,y) où C1 et C2 sont des constantes.
• Valeur absolue : P' (x,y) = |P1(x,y)|
• Décalage de bit sur 1 ou plusieurs octets :
- décalage de i bits à droite : P' (x,y) = P1(x,y) / 2i
- décalage de i bits à gauche : P' (x,y) = P1(x,y) . 2i
V.2.2 Opérateurs logiques
Les opérateurs logiques sont appliqués aux images binaires, c'est à dire des images dont les pixels ne
peuvent valoir que la valeur "vrai" ou la valeur "faux". De manière classique, si les comptes
numériques supérieurs à 0 font référence à des pixels "vrai" et si tous les comptes numériques "nuls"
font référence à des pixels "faux".
A
B
NOT A
A ET B
1
1
0
0
1
0
1
0
0
0
1
1
1
0
0
0
A OR B A XOR B
1
1
1
0
0
1
1
0
A-B
A NXO B
0
1
0
0
1
0
0
1
• Non logique : "Not"
• Addition logique : "And"
• Ou logique : "Or"
• Ou exclusif logique : "Xor"
• Différence logique : "logical-sub"
• Equivalence logique : "nxo"
• Binarisation d'image
Cette opération est aussi appelée seuillage, ou filtrage passe bande. Elle transforme les comptes
numériques d'une image selon 2 valeurs : valeur 0 (i.e., variable booléenne "faux") et valeur "1" (i.e.,
variable booléenne "vrai"). Pour cela, elle nécessite le choix de 2 seuils (seuilinf et seuilsup, où seuilinf
< seuilsup). L’opération effectuée est :
f(i)=1 ⇔ i ∈ [seuilinf seuilsup] et f(i)=0 si i ∉ [seuilinf seuilsup]
Ce filtrage passe bande est un filtrage passe bas si seuilinf = 0, et un filtre passe haut si seuilsup = 255.
La binarisation d'image est souvent utilisée pour créer des masques d'objets, c'est à dire des images
dans lesquelles tous les comptes numériques des pixels relatifs à ce ou ces objets sont égaux à 1 et où
tous les comptes numériques des autres pixels sont égaux à 0.
• Réduction du volume de données
Une image peut comporter un grand nombre d'images "monocanal", ce qui peut être une forte
contrainte en terme de temps calcul et d'espace mémoire lors des traitements. Il est donc souvent
intéressant de compresser l'essentiel de l'information sur un nombre réduit d'images "monocanal".
Ainsi, la compression peut permettre de se ramener à 3 images qui peuvent être affichées comme une
simple composition colorée.
TRAITEMENT D'IMAGES
99
L'analyse en composantes principales (ACP) est une méthode classique de compression d'image dans
l'espace (E) à N dimensions des N canaux spectraux de l'image. Elle n’est valide que si l'information
recherchée correspond à la variance des comptes numériques des pixels de l'image, ce qui est
souvent vérifié. Pour cela, elle définit dans l'espace (E) M axes (M ≤ N), appelés composantes
principales qui représentent une proportion optimale de la variance totale, avec une variance par axe
qui décroît du premier au dernier axe. Ainsi, un nombre M d’axes, avec M < N, peut expliquer
l’essentiel de la variance de l'image. Le volume d'information est donc réduit d'un facteur N/M.
L'analyse en composantes principales de toute image est effectuée de manière séquentielle :
(0) Calcul de l'expression de la variance des pixels projetés sur un axe quelconque.
(1) Calcul de la 1ère composante principale, i.e. axe qui représente la variance (information) maximale.
(2 à M) Calcul de la jème composante ; i.e. combinaison linéaire des canaux spectraux d'origine qui
représente au mieux la variance non représentée par l'ensemble des (j-1) premiers axes. Cet axe
j
étant décorrélé des (j-1) premiers axes, on a : VarM = Σ Var(i).
i=1
Image 2
1er composante principale
Image 1
CP1
CP2
CP3
CP4
CP5
CP6
CP7
Variance
Bleu
0.27
0.72
0.26
0.01
-0.24
0.50
0.20
12.5
Vert
0.19
0.05
-0.5
-0.81
0.01
0.25
+0.00
9.24
Rouge
0.33
0.67
0.32
0.04
-0.13
0.39
0.41
14.2
Figure V.2 : Représentation bidimensionnelle.
Distribution des pixels dans l'espace des images 1
et 2. L'axe appelé "1ère composante principale"
est une combinaison linéaire des images 1 et 2. Il
contient l'essentiel de l'information (i.e. la
variance de la projection des pixels sur cet axe
est maximale).
PIR
0.3
+0.00
-0.68
0.57
0.22
0.27
0.04
14.3
MIR
0.72
-0.05
-0.05
-0.00
-0.36
-0.59
-0.02
28.8
IRT
0.21
0.17
0.17
0.05
-0.11
0.32
-0.89
11.2
MIR
0.37
0.31
0.31
-0.12
0.86
-0.09
-0.01
15.1
Variance
82.47
8.63
4.53
3.45
0.53
0.32
0.08
Tableau V.1 : Composantes principales (CP) d'une image TM (Thematic Mapper) à 7 canaux.
Coefficients de l'expression linéaire des CP selon les 7 canaux de départ (bleu, ..., MIR),
et variance des 7 CP (forte décroissance de CP1 à CP7) et images de départ.
V.3 FILTRES
Le filtrage est une opération qui a pour but d'extraire une information ou d'améliorer l'aspect de
l'image, par exemple en éliminant un bruit (lignage, speckle des images radar, etc.) ou en améliorant
les contours d'une image floue. Les filtres utilisent souvent la notion intuitive que des variations
locales des teintes de gris résultent de bruits. On appelle filtrage adaptatif une opération de filtrage qui
effectue une étape préalable de sélection des pixels. Ainsi, il peut être choisi de n’effectuer un filtrage
que sur une partie d’une image et non sur la totalité de l’image.
V.3.1 Convolution et transformée de Fourier
• Convolution
Dans le domaine des signaux, la convolution est une opération qui permet d'obtenir la sortie s
d'un système à partir de son entrée e et de sa réponse impulsionnelle h :
+∝
- Signal monodimensionnel (1-D) : s(x) = (e*h)(x) = ⌡
⌠e(x-u).h(u).du
-∝
∝
⌠
∝
- Signal bidimensionnel (2-D) : s(x,y) = (e * h)(x,y) = ⌠
⌡e(x-u,y-v).h(u,v).du.dv
⌡ -∝
-∝
TRAITEMENT D'IMAGES
100
La réponse impulsionnelle h est la réponse du système à un Dirac en entrée, sachant qu'un Dirac est
un signal nul en tout x différent de 0 (cas 1-D) ou en tout (x,y) différent de (0,0) (cas 2-D). Dans le
cas 1-D, un Dirac est en général représenté par :
∝
∝
1
x2
.exp[- 2] où σ<<1 et ⌠
⌡f(x).dx = 1,
2.σ
2π.σ
{f(x) = 0 ∀x≠0 et ⌠
⌡f(x).dx = 1} ou {gaussienne f(x) =
-∝
-∝
La convolution revient à effectuer une moyenne locale de e(x,y) de tous les e(x+u,y+v) pondérés par
la fonction h(-u,-v). Elle peut donc être perçue comme une "moyenne pondérée glissante".
Dans le cas de signaux numériques comme les images numériques, la convolution est réalisée de
manière discrète. Les comptes numériques P(x,y) des pixels de l'image de départ jouent le rôle de
l'entrée et les comptes numériques P(x',y') de l'image résultat jouent le rôle de la sortie.
I
J
P(x,y) → P'(x,y) = Σ Σ h(i,j).P(x-i,y-j)
i=1 j=1
h est le masque discret de convolution. Cet opérateur est souvent appelé filtre. Ici, il est supposé
invariant, c'est à dire indépendant de (x,y). Il prend les valeurs h(i,j) avec i ∈ [1 I] et j ∈ [1 J], où
les nombres I et J désignent la dimension selon x et y de l'opérateur h (i.e., dimension du voisinage).
L'opérateur h est dit linéaire si tous les termes h(i,j) sont des nombres.
....
P(x-2,y-2)
P(x-1,y-2)
P(x,y-2)
P(x+1,y-2)
P(x+2,y-2)
....
h(-1,-1) h(-1,0) h(-1,1)
h(0,-1) h(0,0) h(0,1)
h(1,-1) h(1,0) h(1,1)
1
.....
....
.....
....
P(x-2,y-1) P(x-2,y) P(x-2,y+1) P(x-2,y+2)
P(x-1,y-1) P(x-1,y) P(x-1,y+1) P(x-1,y+2)
P(x,y-1)
P(x,y)
P(x,y+1)
P(x,y+2)
P(x+1,y-1) P(x+1,y) P(x+1,y+1) P(x+1,y+2)
P(x+2,y-1) P(x+2,y) P(x+2,y+1) P(x+2,y+2)
.....
....
.....
....
1
Figure V.3 : Filtre de taille 3. P'(x,y) = Σ Σ h(i,j).P(x-i,y-j) = h(-1,1).P(x-1,y-1) + ... + h(1,1).P(x+1,y+1)
i=-1 j=-1
L'application du filtre h à une image "Dirac" (i.e., P(x,y) = 0 ∀(x,y) ≠ (xo,yo) et P(xo,yo) = 1) donne
une image qui représente l'opérateur h centré sur le point (xo,yo), avec des pixels nuls partout ailleurs.
1
Exemple de filtre : le filtre moyenne "h(i,j) = cste = diminue le bruit local dans l'image.
I.J
• Transformée de Fourier
Tout signal (signal 1-D, image, etc.) peut être décomposé en une somme de composantes
sinusoïdales (Figure V.4). Leur nombre est infini si le signal est borné. La transformée de Fourier
calcule l'amplitude ai de ces composantes. L'ensemble {ai} constitue une représentation du signal. La
manipulation de ai (i.e., annulation, etc.) permet de manipuler les composantes fréquentielles de
l'image. Ainsi, on réalise un filtre passe haut en annulant les ai associés aux basses fréquences.
=
+ ... +
+
+
Signal original 1D e(x )
Composantes sinusoïdales
Figure V.4: Représentation d'un signal 1D e(x) en tant que somme de composantes sinusoïdales.
Image
initiale
P(x,y)
F
F(u,v)
Filtrage
spatial
Image
filtrée
Filtrage
fréquentiel
P'(x,y)
F-1
F'(u,v)
Figure V.5 : Principe de la transformée de Fourier
TRAITEMENT D'IMAGES
101
Dans le signal 2-D (i.e., image), la transformée de Fourier appliquée à une image donne l'amplitude
au,v de ses composantes fréquentielles (u,v) selon les axes Ox et Oy.
au,v = F(u,v) = ⌠⌠
⌡P(x,y).exp[-2iπ.(u.x + v.y)].dx.dy où P(x,y) représente le pixel en (x,y).

⌡ ∆y
∆x
1
0.8
0.6
1
0.4
0.2
1
-2
1
2
0
-12
-9
-6
0
-3 -0.2 0
3
6
9
12
3
6
9
12
-0.4
1
0.8
0.6
1
0.4
0.2
1
-2
1
2
0
-12
-9
-6
0
-3 -0.2 0
-0.4
1
1
0.5
0
0
Figure V.6 : Transformée de Fourier de quelques fonctions simples.
fy
y
x
fx
Figure V.7 : Transformée de Fourier. a) Image initiale. b) Transformée de Fourier.
L'application de la transformée de Fourier aux images revêt 2 intérêts majeurs.
- Compression d'image. Il y a compression d'image si l'image est représentée par un sous ensemble
de {au,v}. Dans le cas général où ce sous ensemble contient les premiers éléments de {au,v}, il y a
filtrage passe bas : élimination des plus hautes fréquences sans affecter les plus basses fréquences.
Ce cas est illustré par la Figure V.8. L'image (a) représente une portion d'image SPOT. Son
contenu fréquentiel est stocké dans l'image (b). Les points les plus brillants correspondent aux
composantes fréquentielles les plus fortes. (i.e., plus forts coefficients au,v). L'image (c) est une
portion de l'image (b). Sa transformée de Fourier inverse donne l'image (d), c'est à dire une image
très proche de l'image originale (a). Le volume mémoire de la représentation fréquentielle de
l'image (d), i.e. image c, est beaucoup plus faible que le volume mémoire de l'image (a) et de sa
représentation fréquentielle (i.e. image b). Il y a donc compression d'image. Toutefois, cette
compression d'image implique une perte d'information au niveau des hautes fréquences. Cette perte
d'information est représentée par la différence : image (b) - image (c).
TRAITEMENT D'IMAGES
102
a.) Image Cook
b.) Transformée de Fourier
c.) Passe bas de (b)
d.) Inversion de (c).
e.) Passe bas de (b)
f.) Inversion de (c)
Figure V.8 : Transformée de Fourier (T.F.) en vue de l'élimination de hautes fréquences.
(b) = amplitude de T.F.(a) ; Aphelion peut aussi afficher la phase, la partie réelle ou la partie imaginaire.
(c) = filtrage fréquentiel de (b). (d) = T.F.-1 (c) ; elle ne contient pas les hautes fréquences de (a). (e) =
très fort filtrage passe bas de (b). (f) = T.F.-1(e) ; elle ne contient que les plus basses fréquences de (a).
- Filtrage d'image. Le filtrage de la transformée de Fourier d'images permet d'éliminer certaines
fréquences (fx,fy). Par suite, il permet d'éliminer ou au moins de réduire les bruits qui
correspondent à des domaines donnés de fréquences (fu,fv). La Figure V.9 illustre l'élimination de
fréquences verticales. L'image originale (a) est une grille. L'image (b) est sa transformée de
Fourier. Elle présente un ensemble assez régulier de points brillants qui correspondent aux plus
fortes composantes fréquentielles de l'image (a). L'image (c) affiche le filtrage de l'image (b) avec
un filtre passe haut de forme rectangulaire centré sur l'axe des fréquences verticales. L'image (d)
est la transformée inverse de Fourier de l'image (c). Les barres horizontales à l'origine des
fréquences verticales sont très atténuées. La Figure V.10 illustre l'impact d'un bruit fréquentiel
(traits noirs périodiques horizontaux, verticaux et obliques) sur la transformée de Fourier. Ainsi,
des maxima apparaissent selon l'axe fréquentiel vertical pour l'image originale avec des traits noirs
horizontaux. Le filtrage de la transformée de Fourier réduit beaucoup le bruit associé aux traits.
a) Image "grille"
b) Transf. Fourier de a).
c) Filtrage de b)
d) Inverse de c)
Figure V.9 : Transformée de Fourier : élimination de fréquences "verticales".
TRAITEMENT D'IMAGES
103
Figure V.10 :
Elimination de fréquences
"parasites" par filtrage de la
transformée de Fourier.
L'élimination des fréquences
"parasites" n'est que partielle,
en raison de l'imperfection du
filtre passe bas.
Les exemples précédents font apparaître que la transformée inverse d’une transformée de Fourier qui a
été filtrée permet d’obtenir une image qui correspond à l’image de départ, mais à laquelle on a enlevé
l’information qui correspond au filtrage effectué (e.g., disparition / diminution des barres
horizontales). Dans le cas d’images bruitées, il est souvent utile de filtrer la transformée de Fourier de
l’image bruitée avec un filtre qui correspond à l’inverse de la transformée de Fourier du bruit. . Le
filtre de du bruit. Ainsi, le filtre de Wiener (Figure V.11) est un filtre passe bande qui agit comme un
filtre inverse dans les basses fréquences et un filtre passe bas pour filtrer le bruit dans les hautes
fréquences.
TRAITEMENT D'IMAGES
104
Flou de mouvement
Image restaurée
Flou de focus
Image restaurée
Figure V.11 : Amélioration d'image.
V.3.2 Filtres linéaires
Les filtres linéaires effectuent des opérations linéaires sur des comptes numériques, qui en général
sont ceux des pixels du voisinage du pixel traité. Ce sont donc des convolutions. Deux exemples sont
présentés ici : "moyenne / lissage" d'images et "détection de frontières". L’extension spatiale des
filtres est nécessairement limitée : c’est la dimension de l’opérateur de convolution. La récurcivité
permet de l’étendre. Un filtre est dit récursif si sa sortie yn dépend des entrées (xi où i≤n) et sorties
(yi où i<n) précédentes: yn = F(yi; {i<n}) + G(xj;{j≤n}). C’est le cas du filtre "yn = xn + a.yn-1" où |a|<1.
n
Il conduit à yn = Σ aj.xn-j (i.e., image initiale convoluée par un filtre d'étalement n tel que h(n)=an).
j=0
• Moyenne / Lissage
Le filtre "moyenne" calcule la moyenne locale en tout point de l'image (i.e., moyenne des comptes
numériques des pixels du pixel traité : Figure V.12). Son inconvénient majeur est d'élargir les
frontières entre les différents objets de l'image, ce qui donne un aspect flou aux images. La taille et
la forme du voisinage utilisé sont choisis selon la taille et forme des hétérogénéités (frontières,…)
1 1 1
1
que l'on veut éliminer, mettre en évidence, etc. Avec une fenêtre 3 x 3, on a : . 1 1 1 
9
1 1 1
Une caractéristique de ces filtres est qu'ils donnent des images dont certains comptes numériques
peuvent ne pas être présents dans l'image initiale qui est traitée. Ainsi, l'application du filtre
"moyenne" sur une image composée de deux zones juxtaposées avec des comptes numériques à 0
et 100 fait apparaître une zone frontière avec des comptes numériques compris entre 0 et 100.
TRAITEMENT D'IMAGES
105
Figure V.12 : "Image initiale", "Lissage", "Laplacien" et "Image - Image lissée".
• Détection de frontière
Le choix d'un tel opérateur dépend de la forme, dimension, etc. des frontières (Figure V.13).
Compte
numérique
Figure V.13 : Différents types de frontières
- Opérateur "laplacien"
∂ 2P ∂ 2P
+
) donne des comptes numériques d’autant
∂x2 ∂y2
plus élevés que leurs pixels correspondent à des hétérogénéités de l'image (e.g., zones frontières).
Bien utilisé, il peut contribuer à améliorer la netteté d’une image floue. Son principe est qu'une
hétérogénéité correspond à un passage à zéro du Laplacien (i.e., maximum de la dérivée).
0 -1 0 
1
L'approximation discrète la plus simple du Laplacien de fenêtre 3 x 3 est .-1 4 -1 . Ceci
4
 0 -1 0 
correspond à la différence entre le pixel et la moyenne de certains pixels de son voisinage. Par
suite, le Laplacien est très similaire à l'opérateur "Ecart à la moyenne". Ains, dans le cas d’une
fenêtre 3 x 3 :
-1 -1 -1   0 0 0 
1 1 1
1
1
Laplacien ≈ . -1 8 -1  =  0 1 0  - . 1 1 1 
9
 -1 -1 -1   0 0 0  9  1 1 1 
Cet opérateur de différentiation du 2ème ordre (
- Opérateur "gradient"
L'opérateur "gradient" est souvent utilisé pour créer l'image des frontières au sein d’une image. Son
principe repose sur le calcul de gradients : l’image obtenue a des comptes numériques
proportionnels au gradient local dans l’image de départ. Cet opérateur offre l’intérêt de donner le
module et la direction de la dérivée, ce qui n'est pas le cas du Laplacien. La binarisation de l’image
gradient obtenue fournit une image des frontières. Les exemples donnés ci-dessous correspondent à
des gradients selon la verticale et l’horizontale. Ainsi, l'opérateur "Prewitt" 3x3
-1 0 1
1
∆X = .-1 0 1 : Frontière verticale
3
-1 0 1
-1 -1 -1
1
∆Y = . 0 0 0  : Frontière horizontale
3
 1 1 1
donne une image gradient, c'est à dire une image dont les pixels sont des couples (∆X,∆Y) de
comptes numériques proportionnels aux gradients selon les colonnes et les lignes.
-1 0 1
1
L'opérateur de Sobel est l'opérateur Prewitt pondéré : ∆X = .-2 0 2
4
-1 0 1
-1 -2 -1
1
et ∆Y = . 0 0 0 .
4
 1 2 1
TRAITEMENT D'IMAGES
Figure V.14 : Amélioration des contours (droite) d'images (gauche)
- Opérateurs non dérivatifs
Les frontières peuvent être détectées avec des opérateurs non dérivatifs. Ainsi, il a été vu que le
Laplacien donne des résultats similaires à l'opérateur "Ecart à la moyenne" (Figure V.12). Les
frontières peuvent aussi être détectées et analysées en comparant des images successives
obtenues en lissant l'image initiale avec des fenêtres de plus en plus grandes (Figure V.15).
L'ensemble des images lissées constitue une image pyramidale.
Figure V.15 : Détection de frontière avec une image pyramidale.
Haut: Image originale - Image lissée d'ordre 1. Bas: Image lissée d'ordre 2 - Image lissée d'ordre 3.
Les principales étapes d'une méthode schématique de détection des frontières sont :
(1) Calcul d'une image "gradient".
(2) Binarisation de l'image associée au module de chaque pixel de l'image "gradient".
(3) Affinage de l'image binaire. Ceci est en général réalisé de manière itérative.
(4) Fermeture des frontières non fermées, si nécessaire. Différentes techniques sont utilisées. Ainsi,
les extrémités des contours peuvent être prolongées en tenant compte de gradients plus faibles
que ceux retenus lors de la binarisation (2). La fermeture d'un contour (i.e., liaison entre 2 points)
peut n'être possible que si la distance entre les deux points extrêmes du contour n'est pas trop
grande, avec abandon du contour si la distance est trop grande. La valeur assignée à chaque
segment peut être la valeur moyenne des pixels inclus dans le segment ou un attribut (valeur
numérique, suite de caractères alphanumériques) donné par l'opérateur.
106
TRAITEMENT D'IMAGES
107
Figure V.16 :
Détection et affinage
de frontières
Image initiale
Image filtrée avec Sobel
Frontières affinées
V.3.3 Filtres non linéaires
Les filtres linéaires ont des défauts. Ainsi, le filtre moyenne tend à rendre floues les frontières de
l’image traitée. De plus, ils font apparaître dans l’image résultat des comptes numériques inexistants
dans l’image de départ. Les filtres non linéaires peuvent éviter ces problèmes. Ainsi, ils peuvent
homogénéiser l'image tout en préservant ses frontières. Des exemples sont donnés ci-dessous.
• Filtres médians
Ces filtres donnent un compte numérique qui dépend de l'ordre des valeurs des pixels du voisinage
du pixel traité P(x,y). Il existe plusieurs types de filtres médian. Deux exemples sont donnés ici.
- Filtre médian "moyenne" : le compte numérique de P(x,y) est transformé en une valeur telle que
dans le voisinage de P(x,y) il y ait autant de pixels supérieurs et inférieurs à cette valeur.
- Filtre médian "classement" : soit p le nombre de comptes numériques différents présents dans le
voisinage de P(x,y). Ce filtre transforme le compte numérique de P(x,y) en une valeur égale au
mème compte numérique parmi les p comptes numériques du voisinage.
Comme les filtres morphologiques, et contrairement aux filtres linéaires, les filtres médians ne
donnent pas de nouveaux comptes numériques. Cette propriété permet de préserver les frontières
(Figure V.17). Ils sont robustes, car la présence d'un faible nombre de pixels associés à du bruit
affecte peu ou pas l'image "résultat". Un de leurs inconvénients est de nécessiter des temps de calcul
supérieurs à ceux des filtres linéaires, en raison des nombreux tests informatiques obligatoires.
Figure V.17 : Elimination de bruit avec un filtre médian. a) Image initiale. b) Image + bruit et
structures. c) Filtre médian (1 itération). d) Filtre médian (20 itérations)
• Filtres spécifiques
Beaucoup de filtres emploient des opérateurs locaux et des règles empiriques pour améliorer le
contraste ou pour rendre homogènes les images. Deux exemples sont donnés ici :
- remplacement du compte numérique de tout pixel par l'écart type du compte numérique des pixels
de son voisinage. Ce filtre tend à rendre l'image homogène tout en préservant les frontières.
- remplacement du compte numérique de tout pixel par le compte numérique calculé par égalisation
de l'histogramme local. Ainsi, les comptes numériques localement minimum et maximum peuvent
être mis à 0 et 255. Ce filtre met en évidence les détails foncés et égalise les différents contrastes
présents dans l'image.
• Filtres adaptatifs
Ils combinent deux opérations : détermination pour chaque pixel d'un paramètre (e.g., variance) qui
indique si ce pixel appartient à une frontière, puis application d'un opérateur de lissage, en tenant
compte de l'appartenance ou non du pixel traité à une frontière. Cette approche réduit le risque de
rendre floues les frontières de l'image. Elle peut rendre plus homogène des zones plutôt homogènes,
tout en préservant les frontières entre ces zones.
TRAITEMENT D'IMAGES
108
Ces filtres permettent d'améliorer le contraste en préservant les contours des objets, de rendre les
statistiques locales beaucoup plus homogènes, etc. Ainsi, on peut transformer l'image de manière à
ce que toutes les zones homogènes aient la même moyenne et la même variance.
Exemple : Filtre Nagao. Il transforme le compte numérique d'un pixel par la moyenne des comptes
numériques des pixels d'un "sous voisinage" de son "voisinage" (e.g., fenêtre 3x3 dans une fenêtre
5x5 (Figure V.18)). Ce "sous voisinage" est celui qui a la plus petite variance (Figure V.19).
Figure V.18 :
Fenêtre 3x3 dans
une fenêtre 5x5.
Figure V.19 :
Filtre Nagao. a) Image initiale.
b) Image filtrée.
V.4 MORPHOLOGIE MATHEMATIQUE
La morphologie mathématique emploie les opérateurs Intersection, Union, Inclusion et Complément.
L'image transformée est en général simplifiée par rapport à l'image origine, ce qui correspond donc à
une perte d'information. Les principales caractéristiques de l'image origine sont cependant toujours
présentes. Les mesures sont ensuite effectuées sur cette image simplifiée.
Les opérations de morphologie mathématique s'appliquent aux images binaires et aux images
"monocanal". Elles se font avec un élément structurant ( ), caractérisé par sa dimension, sa forme et
son centre. Chaque objet de l'image est comparé à ( ) en déplaçant ( ) en tout pixel de l'image. Ainsi,
dans le cas d'une image binaire, pour chaque position de ( ), il peut être détecté si ( ) est entièrement
inclus dans une zone "pure" de 0 ou de 1, ou une zone qui contient des 0 et des 1. L'élément ( ) définit
le voisinage d'analyse du pixel traité. Ce voisinage peut être un rectangle, un cercle, un hexagone, etc.
b)
c)
a)
Figure V.20 : Elément structurant ( ) 3x3. Voisinage de 1 pixel (a), 4 pixels (b) et 8 pixels (c).
Les transformations morphologiques se composent de deux groupes principaux :
- les opérations de base : érosion, dilatation, ouverture et fermeture.
- les opérations homopotiques liées à la manipulation du "squelette" de l'information recherchée ; e.g.
l'affinage et l'épaississement du squelette.
V.4.1 Opérateurs morphologiques de base
Soit une image I et un élément structurant (B).
• Erosion : IO
On distingue l'érosion appliquée aux images binaires et aux images "monocanal" :
TRAITEMENT D'IMAGES
- image binaire I : Soit (V) l'ensemble des points "vrais" de I. L'érosion de I par le disque ( ) est
l'ensemble des pixels P tels que ( ) centré en P est totalement inclus dans l'ensemble (V).
- image monocanal I : le compte numérique du pixel traité devient le plus petit compte numérique
des pixels de son voisinage . Cette opération est donc cohérente avec l'érosion d'image binaire.
Une érosion : - élimine les points isolés et les petites zones de dimensions inférieures à ( ),
- rétrécit la forme des différents objets,
- élimine les petites rugosités présentes sur les frontières, et
- découple des objets "faiblement" liés.
(B)
Figure V.21 : Erosion
a) Image initiale. b) Image érodée. Les pixels de l'image dont le voisinage (B) n'est pas
totalement inclus dans la zone de pixels vrais sont transformés en pixels "faux".
• Dilatation : IO
+
On distingue la dilatation appliquée aux images binaires et aux images "monocanal" :
- image binaire I : Soit (V) l'ensemble des points "vrais" de I. La dilatation de I par le disque ( ) est
l'ensemble des pixels P tels que ( ) centré en P recouvre au moins un pixel de (V).
- image monocanal I : le compte numérique de tout pixel devient le plus grand compte numérique
des pixels de son voisinage .
Une dilatation : - remplit les trous présents dans les objets,
- remplit les zones étroites en dehors de (V) mais qui séparent des portions de (V),
- agrandit la dimension des particules, et
- reconnecte des particules proches.
L'itération des opérations de dilatation et érosion génère des érosions et dilatation de grandes
dimensions. Ainsi, la dilatation réalisée 2 fois de suite avec un élément structurant ( ) donne des
résultats similaires à ceux obtenus par une dilatation réalisée avec une seule dilatation, mais où
l'élément structurant a une dimension double de ( ). Dans le cas de n applications successives,
l'érosion et la dilation sont dites d'ordre n.
• Ouverture : I o B
L'ouverture est une érosion suivie d'une dilatation avec ( ). Elle élimine les petits pics, les isthmes et
peut déconnecter des objets/zones "vrais". Une ouverture d'ordre n revient à effectuer n érosions
suivies de n dilatations.
L'ouverture dégrade moins l'information que l'érosion. Elle élimine les petits objets mais garde les
plus importants tout en conservant beaucoup mieux leur forme.
• Fermeture : I • B ou IB
La fermeture est une dilatation suivie d'une érosion avec ( ). Elle remplit les trous à l'intérieur des
particules, lisse les contours des objets depuis leur extérieur, et connecte les particules proches. Une
fermeture d'ordre n revient à effectuer n dilatations suivies de n érosions.
109
TRAITEMENT D'IMAGES
La fermeture détruit moins l'information que la dilatation. Elle élimine les petits trous à l'intérieur
des objets, et tend à conserver la forme des objets qui restent.
Les opérateurs Erosion, Dilatation, Ouverture et Fermeture ont la propriété de monotonie. Ceci
signifie que si une image I1 est contenue dans une image I2 alors la transformation de I1 par T est
alors inclue dans la transformation de I2 par T.
Grande
île
petites îles
barrière de corail
Figure V.22 : Fermeture et ouverture.
(a) Image binaire initiale. (b) Fermeture de (a) "disparition des pixels blancs de l'île" + "écume
bruitée". (c) Ouverture de (a) : "disparition des petites îles" + "grande île bruitée".
• Chapeau Haut de Forme
Cet opérateur fait apparaître les objets linéaires fins (sombres ou clairs) inférieurs à une épaisseur
donnée. Pour cela, il soustrait l'image "filtrée" à l'image initiale. On distingue 2 cas :
- Chapeau Haut de Forme Blanc (white top hat) : "I - I o B". Détection de fins éléments clairs dans
un contexte plus sombre, en faisant la différence entre l'image et l'ouverture de la même image.
- Chapeau Haut de Forme Noir (black top hat) : "I - I • B". Détection de fins éléments foncés dans
un contexte plus clair, en faisant la différence entre l'image et la fermeture de la même image.
• Ligne de partage des eaux
La ligne de partage des eaux s’obtient par extension spatiale à partir de points origines au sein de
l’image. Ces minima sont en général les points de plus faible compte numérique de l’image. Le
processus est itératif. Il fonctionne avec un élément structurant L. Au début de la première itération,
les pixels de l’image résultat sont tous nuls, sauf les pixels correspondant aux minima. A chaque
itération, dans le cas où les minima sont positifs, le processus remplace le CN P(i, j) de tout pixel en
(i, j) par la plus grande valeur Pmax du voisinage de ce pixel (P(i,j) ≤ Pmax) :
Pmax = Max{P(i-1, j-1), P(i-1, j), P(i-1, j+1)}
Les minima peuvent être les valeurs de pixels ou ensembles de pixels au sein de l’image définis par
un masque ou bien être déterminés de manière plus ou moins automatique. Ainsi, le logiciel
Aphelion peut utiliser en sus de l’image traitée un masque labellisé établi avec la séquence
"Seuillage – Erosion – Labellisation". Dans ce cas, l’image finale est une image labellisée avec des
labels qui sont ceux de l’image labellisée de départ. L’opérateur utilisé est "Morphologie
mathématique \ Ligne de partage des eaux \ ImgConstrainedWatershed".
En itérant jusqu'à stabilisation, les points de départ conservent leur valeur initiale. Les régions qui
entourent ces points prennent la valeur de ces points. Un simple seuillage permet en général
d'extraire le masque de la ligne de partage des eaux. Cet opérateur permet de séparer des régions
dont les frontières sont très faiblement marquées.
Le fait qu’une image puisse être considérée comme une surface dans un espace de dimension 3
explique qu’il est possible d'utiliser la terminologie de la géographie qui définit la ligne de partage
des eaux comme la crête qui forme la limite entre deux bassins versants.
110
TRAITEMENT D'IMAGES
Minima
(1er niveau)
2ème niveau
(inondés à partir du 1er niveau)
111
3ème niveau
Lignes de partage des eaux
Figure V.23 : Ligne de partage des eaux. Image avec 4 niveaux de valeurs.
Figure V.24 : a) image originale, b) en blanc : minima de (a), c et d) ligne de partage des eaux.
-B
• Gradient morphologique IO
+ - IO
Détecte de forts gradients de comptes numériques.
V.4.2 Autres opérateurs binaires
Un inconvénient des opérateurs morphologiques précédents est qu'ils ne préservent pas la forme
géométrique des objets. En effet, il est souvent nécessaire de conserver certaines caractéristiques
géométriques (e.g., nombre d'objets). Des opérateurs qui satisfont cette condition sont dits
homopotiques. Leur emploi implique de définir la notion de structure des objets. Ainsi, la structure
d'un objet peut être définie par le squelette de , c'est-à-dire l’ensemble de points médians à égale
distance des frontières de .
• Squelettisation
L'affinage est l'opération qui transforme un objet (i.e., ensemble de points connectés) en son
squelette. Avec un voisinage ( ) utilisé comme une fenêtre glissante de convolution, il donne :
⇒ "pixel de inchangé si
⊗
⊂ "
et
"pixel = 0 si
⊄ "
Le squelette obtenu dépend du voisinage . Ainsi, avec le logiciel Aphelion, le squelette est celui de la
Figure V.25 si est un noyau "centroïde", alors qu’il est constitué par un point unique par objet
binaire si est un noyau "skeleton".
Figure V.25 : Squelettisation d’image. Image initiale. b) Binarisation de a). c) Squelettisation de b).
Inversement, l'opération d'épaississement ("thickening") du squelette est :
⊕
⇒ "pixel inchangé si
⊄ "
et
"pixel = 1 si
⊂ "
TRAITEMENT D'IMAGES
112
• Reconstruction
L'opération de reconstruction itère des dilatations jusqu'à ce que l'image résultat n'évolue plus, sachant
qu'une dilatation ne peut être effective (i.e., un pixel "faux" dans l'image de départ est mis "vrai") que
si le pixel est "vrai" dans un masque (image de référence). Il s'agit donc d'une dilatation
conditionnelle. La dilatation est réalisée à partir d'un ensemble de pixels "vrais" appelé "graine".
Image binaire initiale (1).
Reconstruction avec (2) pour
"graine" et (1) pour masque.
(2): Erosion de l'image (1).
Figure V.26 :
Reconstruction.
La reconstruction ne peut
recréer que des points
connectés aux "graines"
de (2). Par contre, la
dilatation de (2) peut
recréer des pixels non
connectés.
Dilatation de (2) et
intersection avec (1).
V.5 CLASSIFICATIONS D'IMAGES
Lors de la visualisation d'une image, un opérateur classe ou partitionne visuellement de manière plus
ou moins "intuitive" l'image selon les différentes "populations" qu'elle contient. Chaque partition ou
classe de l'image est souvent supposée correspondre à un seul type d'"objet". Les critères de
classification peuvent être la couleur, la texture, la forme, le contexte, etc. Le but de la classification
automatique est d'effectuer automatiquement la classification réalisée visuellement par l'opérateur.
Il existe plusieurs grandes catégories de classification assistée par ordinateur.
- classification purement radiométrique : elle est basée sur les valeurs radiométriques des pixels; elle
opère pixel par pixel sans tenir compte du voisinage du pixel à classer.
- classification texturale/contextuelle ; elle est à la fois basée sur le compte numérique du pixel à
classer et sur les valeurs des pixels voisins.
De plus, les méthodes de classification assistée par ordinateur sont aussi caractérisées par leur degré
d'automaticité. Ainsi, il existe des (1) méthodes entièrement automatiques et des (2) méthodes, dites
interactives ou dirigées, dans lesquelles l'opérateur peut apporter son savoir-faire et ses connaissances.
L'apport de l'opérateur est plus ou moins nécessaire quand la démarche intellectuelle de l'opérateur ne
peut être reproduite de manière totalement automatique à l'aide d'algorithmes.
Classification radiométrique d'une image satellite
Toute image de satellite obtenue dans n canaux spectraux et codée sur 8 bits peut contenir au plus 256n
classes (i.e., n uplets). Vu que la dynamique totale est rarement utilisée et que les valeurs des comptes
numériques des pixels d’une même classe peuvent différer, le nombre effectif de classes est beaucoup
plus réduit (e.g., 30 à 40 classes). Chaque classe peut être définie par des caractéristiques statistiques
(e.g., moyennes et variances spectrales). Toute classification comprend les deux étapes suivantes :
1) Détermination et caractérisation des classes. Cette étape est automatique ou dirigée par l'opérateur.
- Approche automatique.
Cette méthode dite des nuées dynamiques opère par itérations successives. (i) Recherche des
maxima locaux de l'histogramme multidimensionnel des n canaux, puis première détermination
du nombre de classes. Ainsi, au départ, un histogramme comportant "N" modes peut donner "N"
classes. (ii) Calcul des caractéristiques des classes. Ainsi, le centre des classes, i.e. moyenne des
comptes numériques des pixels appartenant à la classe, est souvent calculé. (iii) Classification
des pixels en fonction des classes définies dans (ii). Cette étape définit donc de nouvelles
classes. Deux cas surviennent : soit les "nouveaux" centres de classes ne correspondent pas aux
"anciens" et on recommence (iii), soit ils sont identiques et la classification est terminée. En fait,
les classes "mathématiques/spectrales" obtenues peuvent n'avoir aucune réalité thématique.
TRAITEMENT D'IMAGES
113
- Classification "dirigée".
L'opérateur reconnaît dans l'image les objets qu'il veut classer, ce qui permet d'échantillonner
ceux-ci pour calculer leurs caractéristiques (moyenne, écart type,…) de leurs classes spectrales.
2) Classification des pixels d’images dans les classes prédéfinies.
Trois méthodes qui s’appuient sur une représentation statistique (i.e., moyenne, écart type, etc.) des
classes sont présentées ci-dessous.
- Distance minimale au centre de classe.
Les classes sont définies par leur centre, ce qui permet de classer tout pixel dans la classe dont
il est le plus proche. Ainsi, dans la Figure V.27, le point "A" est affecté à la classe "sol". On
définit souvent une limite maximum d'acceptation; distance au-delà de laquelle un pixel ne peut
appartenir à une classe. Ainsi, aucune classe n’est affectée au point "B.
Le choix de la distance est important. Ainsi, la distance euclidienne ne tient pas compte de la
corrélation entre images, si bien que n images 100% corrélées ont alors un poids très supérieur
à celui d’une seule image. La distance dite de Mahalanobis apporte une solution : elle pondère
la distance euclidienne par un poids inversement proportionnel aux variances et covariances
entre images. Ainsi, la distance entre les pixels a (a1,…, an) et b (b1,…, bn) d’une image avec n
n
n
canaux est : i=1
Σ j=1
Σ wij.(ai – bi).(aj – bj) = (a – b)t.(w).(a - b), où (w) est une matrice carrée inverse de
la matrice de variance / covariance. Dans un espace où les dimensions sont décorrélées (e.g.,
espace des composantes principales), (w) est l’inverse de la matrice "variance".
- Méthode des bornes / Hypercube.
Les classes sont définies par leurs valeurs (bornes) extrêmes dans chaque canal. Dans l'espace
des canaux spectraux les classes sont donc représentées par des hypercubes. Ce sont des
rectangles dans le cas de 2 canaux, des parallélépipèdes dans le cas de 3 canaux, etc.
- Maximum de vraisemblance / Probabilité maximale.
Cette méthode définit toute classe (i.e., moyenne, écart type) par la courbe de Gauss qui ajuste
son histogramme. Ceci permet de calculer la probabilité "théorique" d'appartenance de tout pixel
à cette classe : plus le rapport (distance "pixel - classe")/(écart type de la classe) est grand et plus
la probabilité que ce pixel appartienne à la classe est grande. On définit souvent des limites
d'acceptation, c'est à dire des probabilités au-delà desquelles le pixel est "non classé".
Canal 2
Figure V.27 : Histogramme bidimensionnel.
Classe "sol"
Frontière
A
B
Seuils
Classe "eau"
Canal 1
Le nombre de pixels caractérisés par le couple de
comptes numériques (canal 1, canal 2) est
indiqué par un ton de gris. Ici, l’histogramme est
bimodal, avec 2 pics associés à 2 populations
(i.e., ‘sol’ et ‘eau’). Les seuils correspondent aux
limites au-delà desquelles un pixel ne peut être
considéré comme appartenant à une population.
Les applications des classifications sont très diverses (e.g., reconnaissance/cartographie (semi)
automatique d'objets à partir d’images de télédétection spatiale). En général, le choix de la méthode de
classification employée affecte à la fois les temps de calcul et les résultats eux-mêmes.
L'évaluation de la fiabilité de toute classification, automatique ou non, s’appuie en général sur l’emploi
de zones de référence ou de contrôle.
Il existe d’autres types de méthodes de classification. Ainsi, la méthode des réseaux de neurones,
contrairement aux méthodes présentées ci-dessus, ne s’appuie pas sur une représentation statistique
(i.e., moyenne, écart type, etc.) des classes.
Figure V.28 :
Exemple
de
classification
à
partir de plusieurs
images de départ.
TRAITEMENT D'IMAGES
VI ANNEXE
VI.1 MEMOIRE INFORMATIQUE
La mémoire informatique est un composant permet de stocker et relire des informations binaires.
Après avoir été tout d’abord magnétique (tores de ferrite), elle est devenue électronique dans les
années 1970. Son temps d'accès (quelques dizaines ou centaines de nanosecondes) est beaucoup plus
rapide que celui du disque dur (quelques millisecondes, soit dix mille à cent mille fois plus). Elle est
constituée de centaines de milliers de petits condensateurs. Lorsqu'il est chargé, l'état logique du
condensateur est égal à 1, dans le cas contraire il est à 0, ce qui signifie que chaque condensateur
représente un bit de la mémoire. Etant donné que les condensateurs se déchargent, il faut constamment
les recharger (le terme exact est rafraîchir, en anglais refresh) à un intervalle de temps régulier appelé
cycle de rafraîchissement (e.g., 15 ns pour les mémoires SDRAM). Chaque condensateur est couplé à
un transistor (de type MOS) permettant de "récupérer" ou de modifier l'état du condensateur. Ces
transistors sont rangés sous forme de tableau (matrice), c'est-à-dire que l'on accède à une case mémoire
(aussi appelée point mémoire) repérée par une ligne et une colonne.
Les informations sont organisées en mots de 8, 16 ou 32 bits voire plus, avec les spécificités suivantes :
- dans les mémoires à parité, un neuvième bit (dit de contrôle de parité) existe de façon invisible,
- dans les mémoires à correction automatique d'erreur sur 1 bit et détection sur plus d'un bit (ECC), ces
bits invisibles sont parfois au nombre de six ou plus. Les fabricants recommandent souvent d'utiliser
de l'ECC à partir d'1 Go de RAM.
- chaque mot des mémoires des serveurs modernes dits non-stop ou 24x365 dispose en plus des bits de
correction de bits de remplacement qui prennent la relève du ou des bits défaillants à mesure du
vieillissement de la mémoire : une défaillance de 10-11 chaque année se traduit en effet par plus d'un
bit défaillant par an sur une mémoire de 128 Go.
L’accès à la mémoire n'est pas instantané. Il s'effectue durant un temps dit de latence (e.g., 25 ns pour
une DRAM). Par suite, l'accès à une donnée en mémoire est «temps de cycle» + «temps de latence».
Sur un ordinateur, le temps de cycle correspond à l'inverse de la fréquence de l'horloge. Par suite, un
ordinateur ayant une fréquence élevée et une mémoire avec un temps d'accès beaucoup plus long que
le temps de cycle du processeur doit effectuer plusieurs cycles d'attente pour accéder à la mémoire, ce
qui diminue ses performances. Il est donc conseillé d'utiliser des mémoires plus rapides.
Il existe de nombreux types de mémoires vives. Ces dernières se
présentent toutes sous la forme de barrettes de mémoire enfichables sur
la carte mère. Les premières mémoires se présentaient sous la forme de
puces appelées DIP (Dual Inline Package). Désormais les mémoires se
trouvent généralement sous la forme de barrettes, c'est-à-dire des cartes
enfichables dans des connecteurs prévus à cet effet. La figure ci-contre
montre les principales premières générations de RAM, avec de haut en
bas : DIP, SIPP, SIMM 30 broches (PC 286 et 386), SIMM 72 broches
(PC 386DX aux 1ers Pentium), DIMM 2x84 broches, RIMM 184
broches
Les types de mémoire vive dynamique actuels sont indiqués ci-dessous.
114
TRAITEMENT D'IMAGES
- SDRAM (Synchronous Dynamic RAM) : mémoire principale et vidéo. On distingue la SDRAM 66,
100 et 133 (fréquence d'accès en MHz). Pentiums I et II.
- RDRAM (Rambus Dynamic RAM). Développée par la société Rambus, elle souffre notamment d'un
prix beaucoup plus élevé que les autres types de mémoires et de brevets trop restrictifs de la part de
la société créatrice. Elle est utilisée pour les Pentiums III et IV.
- DDR SDRAM (Double Data Rate Synchronous Dynamic RAM). Mémoire principale et vidéo. Elle
est synchrone avec l'horloge système, mais elle double la largeur de bande passante en transférant
des données deux fois par cycles au lieu d'une seule pour la SDRAM simple. Elle est aussi plus
chère. On distingue les DDR PC1600, PC2100, PC2700, PC3200, etc., où le numéro représente la
quantité théorique maximale de transfert d'information en Mégabits (il faut diviser par 8 pour avoir
leur fréquence réelle de fonctionnement). Pentiums III et IV.
- DDR2-SDRAM (Double Data Rate 2-SDRAM). Elle permet d'atteindre des débits deux fois plus
élevés que la DDR à fréquence externe égale. Pour cela, elle utilise deux canaux séparés pour la
lecture et pour l'écriture. On distingue les DDR2 533 et DDR2 667. Le numéro représente la vitesse
maximum d'accès. Pentium IV et plus.
- XDRRAM (XDimm Rambus RAM). Technologie basée sur la technologie Flexio développée par
Rambus. Elle permet d'envisager des débits théoriques de 6,4Go/s à 12,8Go/s en rafale.
Il existe aussi des mémoires Flash. Ce sont des mémoires NVRAM effaçables électriquement
(EEPROM) qui gardent donc la mémoire sans être alimentées. On les utilise dans les appareils mobiles
(appareils photo, téléphones portables etc.). Leur temps d'accès, même en lecture seule, est pour le
moment bien plus lent que celui de la mémoire dynamique.
VI.2 CARTE VIDEO
La carte graphique (en anglais graphic adapter), aussi appelée carte vidéo ou accélérateur graphique,
est l'élément de l'ordinateur chargé de convertir les données numériques à afficher en données
graphiques exploitables par un périphérique d'affichage. Alors que les cartes intiales ne permettaient
que des manipulations graphiques simples (tracé de lignes et de polygones,…), les cartes graphiques
actuelles possèdent maintenant un processeur dédié au calcul de scènes graphiques complexes 3-D
(multiplication de matrice,...), ce qui allège la charge de calcul du ou des processeurs de la carte mère.
Les cartes sont donc devenues programmables. Pour cela, il faut utiliser une bibliothèque graphique
telle que Direct3D (partie de DirectX*) ou OpenGL**. Ces bibliothèques facilitent la programmation
d'un logiciel et rendent le code source plus indépendant de la carte graphique. De manière à accélérer
les traitements, certaines opérations sont cablées : on parle alors d’accélération matérielle.
a)
b)
Carte graphique. a) Schéma. b) Ge Force 4200
DirectX : suite d'API (bibliothèques de fonctions) multimédia pour les traitements audio/vidéo (carte
vidéo, carte son,…) et les périphériques d'entrée/sortie (joystick, carte réseau, souris,…).. Il est
intégré au système d'exploitation Windows et permet d'exploiter les capacités matérielles d'un
ordinateur. Il fonctionne comme une surcouche de Windows, évitant théoriquement aux
programmeurs de devoir s'occuper des différences matérielles qui existent entre les différents PC.
Ainsi, il confie au processeur les traitements à réaliser si le matériel installé ne gère pas ceux-ci.
**
OpenGL (Open Graphics Library) : API multi plate-forme pour la conception d'applications 3D et 2D.
*
115
TRAITEMENT D'IMAGES
116
Toutes les cartes graphiques ont 2 moyens d'accès à leur mémoire (i.e., buffer) : un accès aléatoire
conventionnel (RAM) comme pour les mémoires centrales, et en général un accès séquentiel à la zone
représentant l'écran (pixel buffer).
Les principaux composants d'une carte vidéo sont :
● Processeur graphique (GPU : Graphical Processing Unit). Coeur de la carte graphique avec des
instructions évoluées : traitement d’image selon la résolution et la profondeur de codage choisie, etc.
Il a parfois un radiateur et un ventilateur, car sa température peut s’élever beaucoup.
● Mémoire vidéo (frame buffer) Elle stocke les images traitées par le GPU avant l'affichage.
● RAMDAC (random access memory digital-analogue converter). Il convertit les images numériques
stockées dans le frame buffer en signaux analogiques à envoyer au moniteur. Sa fréquence détermine
le taux de rafraîchissement (Hz : images / s) que la carte graphique peut supporter.
● BIOS vidéo. Il contient les paramètres (e.g., modes graphiques supportés) de la carte graphique.
● Interface. La connexion à la carte mère se fait à l'aide d'un port relié à un bus. La première norme
utilisée fut la norme PCI. Le problème était que la carte graphique partageait le débit du bus PCI
avec les autres cartes. Par suite, une norme spécialement dédiée au cartes graphiques a été créée :
l'AGP. Actuellement, le port PCI Express tend à remplacer l'AGP, car, il est plus rapide que l’AGP
et offre une compatibilité logicielle avec la norme PCI, ce qui facilite la migration des cartes
précédentes au format PCI. Ceci permet d'avoir des cartes mères avec uniquement des ports PCI
Express. Ceci permet aussi d’avoir facilement 2 cartes graphiques sur la même carte mère.
● Connectique.
- Interface VGA standard. Une carte graphique a en général un connecteur VGA 15 broches qui
envoie 3 signaux analogiques correspondant aux composantes rouges, bleues et vertes de l'image.
- Interface DVI (Digital Video Interface). Elle envoie des données numériques, ce qui évite des
conversions "numérique – analogique", puis "analogique numériques", inutiles.
- Interface S-Video. De plus en plus de cartes ont une prise S-Video qui permet d'afficher sur une
télévision. Par suite, elle est souvent appelée prise télé (notée "TV-out")
Interface VGA standard.
Interface DVI.
Interface S-Video.
Le calcul d'une scène 3D est un processus qui comprend 4 étapes majeures.
* le script: mise en place des éléments
* la géométrie: création d'objets simples
* le setup: découpage en triangles 2D
* le rendering: C'est le rendu, c'est-à-dire le plaquage des textures
L'affichage est d'autant plus rapide que la carte accélératrice 3D calcule elle-même ces étapes. Les
premières puces n'effectuaient que le rendering, laissant le processeur s'occuper du reste. Depuis, les
cartes possèdent un "setup engine" qui gère les 2 dernières étapes. Le type de bus est lui aussi
déterminant. Ainsi, les cartes utilisant le bus AGP sont beaucoup plus performantes en 3D que les
cartes utilisant le bus PCI. En effet, le bus AGP est directement relié à la mémoire vive, ce qui lui offre
une bande passante beaucoup plus grande que le bus PCI.
Terme
2D Graphics
3D Graphics
Alpha blending
Définition
Affiche une représentation d'une scène selon 2 axes de référence (x et y)
Affiche une représentation d'une scène selon 3 axes de référence (x, y et z)
Le monde est composé d'objets opaques, translucides et transparents. L'alpha blending est
une manière d'ajouter des informations de transparence à des objets translucides. Cela est
fait en effectuant un rendu des polygones à travers des masques dont la densité est
proportionnelle à la transparence des objets. La couleur du pixel résultant est une
combinaison de la couleur du premier plan et de la couleur de l'arrière-plan. L'alpha a
généralement une valeur comprise entre 0 et 1 calculée de la manière suivante:
nouveau pixel=(alpha)*(couleur du premier pixel)+(1-alpha)*(couleur du second pixel)
TRAITEMENT D'IMAGES
Alpha buffer
Anti-aliasing
Effets atmosphériques
Bitmap
Bilinear filtering
BitBLT
Blending
Bus Mastering
Correction
perspective
de
Depth Cueing
Dithering
Double buffering
Flat shading
Fog
Gamma
Gamma correction
Gouraud Shading
(lissage Gouraud)
Interpolation
Line Buffer
Lissage
Phong
(Phong Bui-Tong)
MIP Mapping
Projection
Rasterisation
Rendu (rendering)
Rendering engine
Tesselation
ou
facettisation
Texture Mapping
Tri-linear filtering
Z-buffer
Z-buffering
Canal additionnel qui stocke l'information de transparence (Rouge - Vert - Bleu - Transparence).
Technique permettant de faire apparaître les pixels de façon moins crénelée.
Effets (e.g., brouillard ou effet de distance) qui améliorent le rendu d'un environnement.
Image pixel par pixel
Permet de fluidifier le passage d'un pixel d'un endroit à un autre (e.g., lors d'une rotation).
Une des plus importantes fonctions d'accélération. Elle simplifie le déplacement d'un bloc de
données, en prenant en compte les particularités de la mémoire - vidéo.
Combinaison de deux images en les ajoutant bit - à - bit.
Une fonction du bus PCI permettant de recevoir directement des informations de la mémoire
sans transiter par le processeur
Méthode pour faire du mappage (enveloppage) avec des textures (texture mapping). Elle
prend en compte la valeur de Z pour mapper les polygones. Un objet qui s'éloigne de
l'objectif apparaissant plus petit en hauteur et en largeur, la correction de perspective fait que
le taux de changement dans les pixels de la texture est proportionnel à la profondeur.
Baisse l'intensité des objets s'éloignant de l'objectif
Permet d'archiver des images de qualité 24-bit dans des tampons plus petits (8 ou 16 bits).
Le dithering utilise deux couleurs pour en créer une seule
Une méthode utilisant deux tampons, une pour l'affichage, l'autre pour le calcul du rendu,
ainsi lorsque le rendu est fait les deux tampons sont échangés
Assigne une couleur uniforme sur un polygone. L'objet ainsi rendu apparaît facettisé.
Utilise la fonction blending pour un objet avec une couleur fixe (plus il s'éloigne de
l'objectif, plus cette fonction est utilisée)
Les caractéristiques d'un affichage utilisant des phosphores sont non-linéaires: un petit
changement de la tension à basse tension crée un changement dans l'affichage au niveau de
la brillance, ce même changement à plus haute tension ne donnera pas la même magnitude
de brillance. La différence entre ce qui est attendu et ce qui est mesuré est appelée Gamma
Avant d'être affichées, les données sont corrigées pour compenser le Gamma
Algorithme du nom du mathématicien français qui l'a conçu. Il permet de lisser les couleurs
par interpolation. Il assigne une couleur à chaque pixel d'un polygone en se basant sur une
interpolation de ses arêtes, il simule l'apparence de surfaces plastiques ou métalliques.
Façon mathématique de régénérer des informations manquantes ou endommagées. Lorsqu'on
agrandit une image par exemple, les pixels manquants sont régénérés par interpolation.
C'est un tampon fait pour mémoriser une ligne vidéo
Algorithme permettant un lissage des couleurs en calculant le taux de lumière en de
nombreux points d'une surface, et en changeant la couleur des pixels en fonction de la
valeur. Il est plus gourmand en ressources que le lissage Gouraud
Mot provenant du latin "Multum in Parvum" qui signifie "plusieurs en un". Cette méthode
permet d'appliquer des textures de différentes résolutions pour des objets d'une même image,
selon leur taille et leur distance. Cela permet entre autres de mettre des textures de plus haute
résolution lorsqu'on se rapproche d'un objet.
Transforme (en le réduisant) un espace en 3 dimensions en un espace en 2 dimensions
Transforme une image en pixels
Création d’images réalistes sur un écran avec des modèles mathématiques (lissage, couleurs..)
Partie matérielle ou logicielle qui calcule les primitives 3D (en général des triangles)
Le fait de calculer des graphiques en 3D peut être divisé en 3 parties: la facettisation, la
géométrie et le rendu. La facettisation est la partie consistant à découper une surface en plus
petites formes, en la découpant (souvent en triangles ou en quadrilatères)
Consiste à stocker des images constituées de pixels (texels), puis à envelopper des objets 3D
de cette texture pour obtenir une représentation plus réaliste des objets
Basé sur le principe du filtrage bilinéaire, le filtrage trilinéaire consiste à faire une moyenne
de deux niveaux de filtrage bilinéaire.
Partie de la mémoire qui stocke la distance de chaque pixel à l'objectif. Lorsque les objets
sont rendus à l'écran, le rendering engine doit supprimer les surfaces cachées.
C'est le fait de supprimer les faces cachées en utilisant les valeurs stockées dans le Z-buffer
VI.3 CARTE SON
La carte son (en anglais audio card ou sound card) est l'élément de l'ordinateur permettant de gérer les
entrées-sorties sonores. Il s'agit en général d'un contrôleur qui s'insère dans un emplacement PCI, PCIE 1x, PCMCIA (pour ordinateur portable) et port USB (pour les plus récentes) (emplacement ISA
pour les plus anciennes). De plus en plus de cartes mères possèdent une carte son intégrée.
Une carte son peut également servir à interpréter les signaux audio qui entrent dans l'ordinateur
(micro, entrée ligne etc.). Dans ce cas, elle transforme un signal analogique en signal numérique
(analysable par l'ordinateur).
117
TRAITEMENT D'IMAGES
118
Les cartes sons d'avant 1990 ne géraient que 2 voix en sortie (stéréo). Les cartes actuelles peuvent
gérer jusqu'à 8 sorties audio indépendantes (8 haut-parleurs : 2 avants droits, 2 avants gauche, 1
central, 2 arrières et un caisson de basse) pour rendre un effet de positionnement spatial.
a)
b)
Carte son. a) Schéma. b) Carte son PCI
La carte son repose généralement sur un processeur DSP pour le traitement des signaux audio, qui
communique avec le processeur central via le bus qu'elle possède. Elle est équipée de convertisseurs
analogique - numérique pour numériser des signaux externes (micro,..), et de convertisseurs
numérique - analogique pour restituer les signaux audibles vers les enceintes ou le casque. La plupart
possèdent également une interface MIDI pour communiquer avec des synthétiseurs, également utilisée
pour connecter un joystick.
Les cartes sons travaillent sur des données numériques, c'est-à-dire des échantillons de sons. Elles sont
en général classées suivant deux critères principaux:
- la résolution. Elle indique le niveau de détail d'un échantillon. Plus la résolution est élevée, plus le
son est précis et fin. Les cartes son grand public actuelles fonctionnent en 16 ou 24 bits. Lors de la
numérisation, elles codent donc le signal analogique sur 16 ou 24 bits (i.e., 65536 valeurs ou un
petit peu plus de 16 millions de valeurs).
- la fréquence d’échantillonnage (Hz) : elle correspond au nombre d'échantillons produits par
seconde lors de l'échantillonnage. Les cartes sons actuelles ont des fréquences d'échantillonnage de
l'ordre de 44100 Hz à 192 KHz. Plus l'échantillonnage est élevé, plus le son est détaillé.
Principaux éléments d'une carte son :
● Processeur spécialisé (DSP: digital signal processor). Il est chargé de tous les traitements
numériques du son (écho, réverbération, vibrato chorus, tremolo, effets 3D, etc.). Certaines cartes
haut de gamme comportent plusieurs DSP, de la mémoire additionnelle, des entrées-sorties
numériques, ou encore un boîtier de connexion externe (contenant les convertisseurs).
● Convertisseur digital - analogique (DAC: digital to analogue converter). Il convertit les données audio
de l'ordinateur en signal analogique vers un système de restitution sonore (baffles, amplificateur,...).
● Convertisseur analogique / numérique appelé ADC (analogue to digital converter). Il convertit le
signal analogique des entrées en donnés numériques pouvant être traitées par l'ordinateur ;
● Connecteurs d'entrées-sorties externes :
- Une ou 2 sorties ligne au format jack standard 3.5 mm (notée Line Out, Speaker output ou SPK).
- Une entrée ligne (Line in) ;
- Une entrée microphone (notée parfois Mic), généralement au format jack 3.5 mm.
- Une sortie numérique SPDIF (Sony Philips Digital Interface). Elle envoie des données sonores
numériques à un amplificateur numérique par un câble coaxial terminé par des connecteurs RCA
- Une interface MIDI qui connecte des instruments de musique et peut servir de port de jeu (game
port en anglais) pour brancher une manette (joystick ou game pad) possédant une prise SUB-D 15.
● Les connecteurs d'entrées-sorties internes :
- Connecteur relié à la sortie audio analogique du CD/DVD-ROM par un câble CD Audio.
- Entrée auxiliaire (AUX-In) qui connecte des sources audio internes telles qu'une carte tuner TV ;
- Connecteur pour répondeur téléphonique (TAD, Telephone Answering Devices).
TRAITEMENT D'IMAGES
VI.4 CARTE RESEAU
Une carte réseau (NIC : Network Interface Card) est une carte d'extension d'ordinateur. Elle assure le
rattachement d'un équipement informatique (e.g., ordinateur) à un ensemble d'autres ressources
connectées sur le même réseau. Les équipements communiquent sur le réseau au moyen de signaux qui
doivent absolument respecter des normes. La fonction d’une carte réseau est de préparer, d’envoyer et
de contrôler les données sur le réseau. Elle possède généralement deux témoins lumineux (LEDs) :
- LED verte correspond à l'alimentation de la carte ;
- LED orange (10 Mb/s) ou rouge (100 Mb/s) indique une activité du réseau (envoi / réception de données).
Carte réseau. a) Schéma. b) Carte Etherlink.
Le média ou support de l'information est en général un réseau filaire. Depuis peu, chez les particuliers,
la transmission sans fil (Wi-Fi) peut remplacer le réseau filaire par un réseau d'ondes
électromagnétiques. Avec un réseau filaire, la carte réseau a alors un connecteur sur lequel on branche
un câble réseau. Ce câble est relié au réseau via une prise murale ou directement via un équipement
d'interconnexion de réseau comme un concentrateur (Hub : nœud de réseau informatique) ou un
commutateur (Switch). Le hub assure une connexion systématique entre tous les équipements
connectés, alors que le switch permet de diriger les données uniquement vers la machine destinataire.
Il possède deux types de ports (i.e., prises physiques) :
- Ports pour la connexion des ordinateurs du (sous)-réseau.
- Port pour extension du réseau : un ou plusieurs autres hubs s’y connectent. Il est identique au port
précédent, mais le câblage y est inversé.
Pour préparer les données à envoyer, la carte réseau utilise un transceiver qui transforme les données
parallèles en données séries. Toute carte a une adresse unique (adresse MAC) donnée par le fabriquant
de la carte, ce qui l'identifie de façon unique dans le monde parmi toutes les autres cartes réseau. Les
adresses sont inscrites sur les puces des cartes. Elles sont définies par l’IEEE (Institute of Electrical
and Electronics Engineer) qui attribue des plages d’adresses à chaque fabriquant de cartes réseau.
Les cartes réseau disposent de paramètres qu’il est possible de configurer : l’interruption matérielle
(IRQ), l’adresse de base du port E/S, l’adresse de base de la mémoire (DMA), etc.
Pour garantir la compatibilité entre l’ordinateur et le réseau, la carte doit être adaptée à l’architecture
du bus de données de l’ordinateur et avoir le type de connecteur approprié au câblage. Chaque carte
est conçue pour s’adapter à un certain type de câble. Certaines cartes ont plusieurs connecteurs
d’interfaces, souvent paramétrés automatiquement (PnP: Plug and Play), ou bien avec des cavaliers, ou
des DIP, ou de façon logicielle. Les connecteurs RJ-45 sont les plus répandus. Certaines topologies
réseau propriétaires utilisant la paire torsadée ont recours au connecteur RJ-11. Ces topologies sont
parfois appelées "pré-10BaseT".
Les données se déplacent dans l’ordinateur sur des chemins parallèles appelés "bus". Les premiers bus
fonctionnaient en 8 bits. L’ordinateur PC/AT d’IBM a introduit les premiers bus 16 bits. La plupart
des bus actuels sont en 32 bits. Ils vont être remplacés par des 64 bits.
En fait, sur un câble les données circulent en série (1 flux de bits) dans un seul sens. L’ordinateur peut
envoyer ou recevoir des informations, mais pas les deux simultanément. Ainsi, la carte réseau
119
TRAITEMENT D'IMAGES
restructure un groupe de données arrivant en parallèle en données circulant en série (1 bit). Pour cela,
les signaux numériques sont transformés en signaux électriques ou optiques susceptibles de voyager
sur les câbles du réseau. Cette traduction est assurée par le Transceiver. La carte traduit les données et
indique son adresse au reste du réseau afin de pouvoir être distinguée des autres cartes du réseau.
La carte indique qu’un autre ordinateur demande des données à l’ordinateur qui la contient. Si les
données circulent plus vite que la carte ne peut les traiter, elles sont placées dans la mémoire tampon
affectée à la carte (RAM) dans laquelle elles sont stockées temporairement pendant l’émission et la
réception des données. L’ordinateur affecte une partie de sa mémoire aux cartes munies d’un Accès
Direct à la Mémoire (DMA : Direct Access Memory).
Lors de toute transmission de données, les cartes émettrice et réceptrice doivent s’accorder sur :
* Taille maximale des groupes de données à envoyer
* Volume de données à envoyer avant confirmation
* Intervalles de temps entre les transmissions partielles de données
* Délai d’attente avant envoi de la confirmation
* Quantité que chaque carte peut contenir avant débordement
* Vitesse de transmission des données
Eléments de la carte devant être paramétrés :
● Interruption (IRQ). Les IRQ 3 et 5 sont souvent attribués aux cartes réseau. L’IRQ 5 est conseillé
(s’il est disponible !) et la plupart des cartes l’utilisent comme paramètre par défaut.
● Adresse de base du port d’entrée/sortie (E/S). Chaque périphérique doit utiliser une adresse de base
différente pour le port correspondant.
● Adresse de base de la mémoire, pour les cartes réseau qui utilisent les adresses RAM de la machine.
Elle désigne un emplacement de la mémoire vive (RAM) de l’ordinateur. La carte utilise cet
emplacement comme tampon pour les données qui entrent et qui sortent. Il s'agit de l'"adresse de
début" (RAM Start Address), soit en général D8000 pour une carte réseau. Il est essentiel de prendre
soin de ne pas sélectionner une adresse de base déjà utilisée par un autre périphérique.
VI.5 ECRANS
L'image s'affiche sur un écran (appelé aussi moniteur). Cette information parvient de façon "indirecte",
car le processeur traite tout d'abord l'information provenant de la mémoire vive (RAM*) de
l'ordinateur, puis l'envoie à une carte graphique qui est chargée de convertir l'information en
impulsions électriques qu'elle envoie au moniteur. Les 2 familles majeures d'écrans sont :
- Ecrans à tube cathodique (CRT: Cathode Ray Tube). Ils sont en voie de disparition, car ils sont
volumineux, lourds et consomment beaucoup.
- Ecrans plats : ordinateurs portables, assistants personnels (PDA), appareils photo numérique, et de
plus en plus d'ordinateurs de bureau. Ils sont peu encombrants, légers et consomment peu.
Les moniteurs sont souvent caractérisés par les données suivantes:
- La définition. C'est le nombre de points (pixel) que l'écran peut afficher. Il est en général compris
entre 640x480 (640 points en longueur, 480 points en largeur) et 2048x1536, mais des résolutions
supérieures sont techniquement possibles.
Diagonale
15" (≈38cm)
17" (≈43cm)
19" (≈48cm)
21" (≈53cm)
Définition
800x600
1024x768
1280x1024
1600x1200
Diagonale de l'écran vs. Définition conseillée.
*
Mémoires dynamiques (DRAM, Dynamic Random Access Module), peu coûteuses, et surtout utilisées
pour la mémoire centrale de l'ordinateur. Mémoires statiques (SRAM, Static Random Access Module),
rapides et onéreuses, notamment utilisées pour les mémoires cache du processeur.
120
TRAITEMENT D'IMAGES
121
- La taille. C'est la taille de la diagonale de l'écran, en général exprimée en pouces (1 pouce = 2,54 cm).
Il ne faut pas confondre la définition de l'écran et sa taille : un écran d'une taille donnée peut afficher
différentes définitions, mais certaines définitions sont conseillées.
- Le pas de masque (en anglais dot pitch). C'est la distance entre 2 luminophores. Plus elle est petite,
plus l'image est précise. Un pas de masque inférieur ou égal à 0,25 mm procure un bon confort.
- La résolution. C'est le nombre de pixels par unité de surface : pixels par pouce linéaire (DPI: Dots
Per Inch). Une résolution de 300 dpi signifie 300 colonnes et 300 rangées de pixels sur un pouce
carré, soit 90000 pixels sur un pouce carré. La résolution de référence de 72 dpi donne un pixel de
1"/72 (un pouce divisé par 72) ≈ 0.353mm ; i.e., un point pica (unité typographique anglo-saxonne).
On appelle mode graphique le mode d'affichage des informations à l'écran, en terme de définition et de
nombre de couleurs. Il représente ainsi la capacité d'une carte graphique à gérer des détails ou celle
d'un écran de les afficher. Les modes graphiques actuels ont beaucoup évolué depuis 1981, date
d'apparition du mode MDA (Monochrome Display Adapter) pour les écrans monochromes avec un
affichage en mode texte de 80 colonnes par 25 lignes. Il permettait uniquement les caractères ASCII.
Format d'affichage
VGA
SVGA
XGA
SXGA
SXGA+
SXGA+
UXGA
QXGA
QSXGA
QUXGA
Résolution horizontale
640
800
1024
1280
1400
1280
1600
2048
2560
3200
Résolution verticale
480
600
768
1024
1050
1024
1200
1536
2048
2400
Nombre de pixels
307 200
480 000
786 432
1 310 720
1 470 000
1 310 720
1 920 000
3 145 728
5,242,800
7,680,000
Ratio
1
1,56
2,56
4,27
4,78
4,27
6,25
10,2
17,1
25
Modes d'affichage des écrans
Beaucoup de normes s'appliquent aux moniteurs pour garantir leur qualité, une limitation du
rayonnement et une consommation d'énergie limitée. Ainsi, à la fin des années 80, une autorité
suédoise a élaboré la norme MPR1 qui mesure le rayonnement des matériels. Son amendement en
1990 a donné la norme internationale MPR2.
En 1992, la confédération suédoise des employés professionnels a introduit le standard TCO. Ce
dernier décrit le niveau d'émission de rayonnements non plus en terme de niveau de sécurité minimal
mais en terme de niveau minimal possible techniquement. Ses révisions en 1992, 1995 et 1999 ont
donné respectivement les normes TCO92, TCO95 et TCO99.
Logo de la norme TCO'99 :
En 1993, le consortium de fabricants de matériel informatique VESA (Video Electronics Standards
Association) a créé la norme DPMS (Display Power Management Signalling) qui propose 4 modes de
fonctionnement pour les appareils s'y conformant :
* En marche.
* En veille (standby), avec une consommation inférieure à 25W.
* En suspension, avec une consommation inférieure à 8W. Dans ce mode le canon à électrons est
éteint, ce qui implique un délai de remise en route plus grand qu'en veille.
* En arrêt.
● Ecrans à tube cathodique
Jusqu'au début de cette décennie, le moniteur (écran d'ordinateur) était en général un tube cathodique
(i.e., tube à rayonnement cathodique), c'est à dire un tube en verre sous vide, dans lequel un canon à
électrons émet un flux d'électrons dirigés par un champ électrique vers un écran couvert de petits
TRAITEMENT D'IMAGES
éléments phosphorescents (luminophores) constituant des points (pixels) émettant de la lumière
lorsque les électrons viennent les heurter.
Le canon à électrons comprend une cathode (i.e., électrode métallique chargée négativement) et une ou
plusieurs anodes (électrodes chargées positivement). La cathode émet des électrons attirés par l'anode.
L'anode agit ainsi comme un accélérateur et un concentrateur pour les électrons afin de constituer un
flux d'électrons dirigé vers l'écran. Un champ magnétique est chargé de dévier les électrons de gauche
à droite et de bas en haut. Il est créé grâce à deux bobines X et Y sous tension (appelées déflecteurs)
servant respectivement à dévier le flux horizontalement et verticalement.
L'écran est recouvert d'une fine couche d'éléments phosphorescents, appelés luminophores. Ces
derniers émettent de la lumière par excitation lorsque les électrons viennent les heurter, ce qui
constitue un point lumineux appelé pixel.
En activant le champ magnétique, un balayage peut être créé de gauche à droite, puis vers le bas une
fois en bout de ligne. Il n'est pas perçu par nos yeux grâce à la persistance rétinienne. Ce phénomène
peut être visualisé en agitant une main devant un écran : on la voit en plusieurs exemplaires !
Un moniteur noir et blanc permet d'afficher des dégradés de couleur (niveaux de gris) en variant
l'intensité du rayon. Pour les moniteurs couleur, trois faisceaux d'électrons (correspondant à trois
cathodes) viennent chacun heurter un point d'une couleur spécifique : un rouge, un vert et un bleu
(RGB, correspondant à Red, Green, Blue ou en français RVB, Rouge, vert, bleu). Trois points de
couleur sont ainsi appelés une triade (en anglais triad ou dot trio).
Les luminophores bleus sont réalisés à base de sulfure de zinc, les verts en sulfure de zinc et de
cadmium. Les rouges enfin sont plus difficile à réaliser, et sont faits à partir d'un mélange d'yttrium et
europium, ou bien d'oxyde de gadolinium.
Ces luminophores sont assez proches les uns des autres pour que l'oeil, compte tenu de son pouvoir
séparateur, ne les distingue pas: il voit une couleur composée de ces 3 couleurs. Ainsi, une minuscule
goutte d'eau déposée sur le verre d'un écran a un effet de loupe qui fait apparaître les luminophores.
Le phénomène de bavure (e.g., un électron destiné à frapper un luminophore vert frappe un bleu) est
évité en plaçant une grille métallique (masque) devant la couche de luminophores pour guider les flux
d'électrons. On distingue souvent 3 catégories d'écrans cathodiques selon le masque utilisé.
Tube FST-Invar (Flat Square Tube) Tube Diamondtron (Mitsubishi)
Tubes Cromaclear (Nec)
et
Trinitron
(Sony)
Les luminophores sont ronds. Le
Le masque est constitué d'un
masque (shadow mask) donne une Le masque est constitué de système hybride avec des
image nette et de bonnes couleurs fentes verticales qui laissent fentes en forme d'alvéoles
122
TRAITEMENT D'IMAGES
mais les coins sont déformés et passer plus d'électrons. L'image constituant
la
meilleure
assombris.
est donc plus lumineuse.
technologie des trois.
Les écrans CRT fonctionnent avec une fréquence de balayage vertical (refresh rate en anglais). Celleci est le nombre d'images affichées par seconde, ou plutôt le nombre de rafraîchissements de l'image
par seconde (i.e., taux de rafraîchissement, exprimé en Hertz). Plus ce taux est élevé, meilleur est le
confort visuel (on ne voit pas l'image scintiller). En général, les gens ne voient pas de scintillement
(flicker) au-delà de 70 Hz. Il est donc en général retenu un taux supérieur ou égal à 75 Hz.
● Ecrans à écran plat
Ils sont parfois notés FPD (Flat panel display). Ils se généralisent de plus en plus. En effet, par rapport
aux écrans CRT traditionnels, ils n'émettent pas de rayonnement électromagnétique et ils ont de plus
faibles facteurs d'encombrement, des poids très inférieurs. De plus, les technologies des écrans plats
consomment moins d'énergie (consommation < 10W contre 100W pour les CRT).
- Technologie LCD (Liquid Crystal Display)
La technologie LCD emploie un écran composé de 2 plaques parallèles rainurées transparentes,
orientées à 90°, avec entre celles-ci une fine couche de liquide contenant des molécules (cristaux
liquides) qui peuvent s'orienter quand elles sont soumises à du courant électrique.
Combinée à une source de lumière, la première
plaque striée agit comme un filtre polarisant, ne
laissant passer que les composantes de la
lumière dont l'oscillation est parallèle aux
rainures.
En l'absence de tension électrique, la lumière est
bloquée par la seconde plaque, agissant comme
un filtre polarisant perpendiculaire.
Sous l'effet d'une tension, les cristaux vont
progressivement s'aligner dans le sens du champ
électrique et ainsi pouvoir traverser la seconde
plaque !
Le contrôle local de l'orientation de ces cristaux permet de constituer des pixels. On distingue en
général 2 types d'écrans plats selon le système de commande qui permet de polariser les cristaux :
- Les écrans dits à "matrice passive". Les pixels sont contrôlés par ligne et par colonne. Ainsi les
pixels sont adressés par lignes et par colonne grâce à des conducteurs transparents situés dans la
dalle. Le pixel s'allume lors de son adressage et s'éteint entre deux balayages. Les écrans à matrice
passive utilisent généralement la technologie TN (Twisted Nematics). Les écrans à matrice passive
souffrent habituellement d'un manque de contraste et de luminosité
.- Les écrans dits à "matrice active". Chaque pixel est contrôlé individuellement. La technologie la
plus utilisée est la technologie TFT (Thin Film Transistor) appelée "transistors en couche mince".
Elle permet de contrôler chaque pixel à l'aide de trois transistors (correspondant aux 3 couleurs
RVB). Ainsi, le transistor couplé à chaque pixel permet de mémoriser son état et, le cas échéant, de
le maintenir allumé entre deux balayages successifs. Les écrans à matrice active bénéficient ainsi
d'une meilleure luminosité et d'un affichage plus fin.
Que les écrans soient à matrice active ou passive, ils ont besoin d'une source lumineuse pour
fonctionner. Les termes suivants définissent la manière par laquelle l'écran est éclairé :
- Les écrans réflectifs sont des écrans éclairés par devant, par une lumière artificielle ou tout
simplement par la lumière ambiante (e.g., cas de la plupart des montres digitales).
123
TRAITEMENT D'IMAGES
- Les écrans transmissifs utilisent un rétro éclairage pour afficher les informations. Ce type d'écran
est très bien adapté pour des conditions de faible éclairage. Il fournit en général une image
contrastée et lumineuse. Il est par contre difficilement lisible utilisé en extérieur.
- Les écrans transflectifs utilisent un rétro éclairage ainsi qu'un polariseur composé d'un matériau
translucide capable de transmettre la lumière d'arrière plan tout en réfléchissant une partie de la
lumière ambiante. Ce type d'écran convient en particulier aux appareils destinés à une utilisation
tant en intérieur qu'en extérieur (appareils photo numérique, PDA).
- Technologie plasma
La technologie plasma (PDP, Plasma Display Panel) est basée sur une émission de lumière grâce à
l'excitation d'un gaz. Le gaz utilisé dans les écrans plasma est un mélange d'argon (90%) et de xénon
(10%). Du gaz est contenu dans des cellules, correspondant aux pixels, dans lesquelles sont
adressées une électrode ligne et une électrode colonne permettant d'exciter le gaz de la cellule. En
modulant la valeur de la tension appliquée entre les électrodes et la fréquence de l'excitation il est
possible de définir jusqu'à 256 valeurs d'intensités lumineuses. Le gaz ainsi excité produit un
rayonnement lumineux ultraviolet (donc invisible pour l'œil humain. Grâce à des luminophores
respectivement bleus, verts et rouges répartis sur les cellules le rayonnement lumineux ultraviolet est
converti en lumière visible, ce qui permet d'obtenir des pixels (composés de 3 cellules) de 16
millions de couleurs (256 x 256 x 256).
La technologie plasma permet d'obtenir des écrans de grande dimension avec de très bonnes valeurs
de contrastes mais le prix d'un écran plasma reste élevé. De plus la consommation électrique est plus
de 30 fois supérieure à celle d'un écran LCD.
Les écrans plats sont souvent caractérisés par la définition, la taille, la résolution, ainsi que par :
- Le temps de réponse : Défini par la norme internationale ISO 13406-2, il correspond à la durée
nécessaire pour qu'un pixel passe du blanc au noir, puis de nouveau au blanc. Le temps de réponse
(défini en millisecondes) doit être choisi le plus petit possible (en pratique inférieur à 25 ms).
- La luminance : Exprimée en candelas par mètre carré (Cd/m2), elle définit la "luminosité" de
l'écran. L'ordre de grandeur de la luminance est d'environ 250 cd/m2.
- L'angle de vision vertical et horizontal. Exprimé en degrés, il permet de définir l'angle à partir
duquel la vision devient difficile lorsque l'on n'est plus face à l'écran.
124
VII LOGICIEL APHELION
Le système de traitement et d'analyse d'images Aphelion (Image Processing and Understanding
Software) a été développé par les sociétés AMERINEX (USA) et ACDIS (Caen). Outre une aide en
ligne, une documentation et un cours de vision, il comprend :
- Module de base.
- Module de visualisation (gestion d'une caméra).
- Module Développeur.
- Langage Basicscript (écriture de macros dans un langage compatible avec leVisual Basic).
I. INTERFACE
Les éléments de l'interface d'Aphelion (i.e., barre de menu, barres d'outil, etc.) sont décrits ici.
Edition de page d'impression
Aide contextuelle
Aide générale
Cache/affiche
BDO IHM
Images en
mémoire
Histogramme
Objets en mémoire
Caméra Diagramme de la mémoire
Lien entre images
Liste / sélection des macros
Barre principale d'outil
Démos
Barre de
menu
Barre d'outil Objet
Sélection d'opérateur
Aide sur l'opérateur
Détruit toutes les images
Affichage des opérateurs utilisés
Information: valeur du pixel, etc.
Barre
d'outil
image
Derniers opérateurs utilisés
Nom de l'opérateur
B OITE DE DIALOGUE
O PERATEUR (BDO)
Exécuter opérateur
Annule l'opération
- Graphique
- ROI
- Profil
- Histogramme
de sous image
M ULTIPLE
DOCUMENT
INTERFACE
(MDI)
Ecrans virtuels
Barre d'état
Panneau de commande du logiciel Aphelion.
• Barre de Menu : située en haut à gauche de l'interface, elle contient les menus tels que File et View
qui donnent accès aux commandes de gestion d'Aphelion.
• Barre principale d'outil : elle est juste sous la barre de menu. Elle contient les boutons des tâches les
plus courantes comme les "couper / coller' et l'accès à l'Aide en Ligne.
• Barre d'outil Objet : située à droite de la barre principale d'outil, elle contient les boutons de gestion
des objets*. Elle permet d'afficher la liste des images créées durant la session de travail, de visualiser
la liste des macros, d'attacher une macro à la barre d'outil, d'établir des liens entre plusieurs images
(e.g., le zoom dans une image induit un zoom dans l'image liée à celle-ci) et entre des régions d'une
image et un tableau qui contient le descriptif de ces régions.
• Barre d'outil Image : située à droite de l'interface lorsqu'une image est visualisée, elle contient les
boutons de gestion des images. Les commandes disponibles dépendent du mode activé :
- "graphique" : tracé de courbes et surfaces,
*
Un objet est une région (ensemble connexe de pixels), un point, un rectangle, une ligne, ou une chaîne avec ses
mesures associées (e.g., aire, etc.). La représentation "Objets vs. Mesures" se présente comme un tableau à 2
dimensions. C'est la représentation symbolique intermédiaire (ISR).
APHELION
- "ROI" : définition de "régions d'intérêt",
- "Profil" : calcul des intensités le long d'un segment de droite dessiné dans l'image avec la souris.
Très utile pour analyser les contours et le rapport signal/bruit.
- "Histogramme" : distribution des niveaux de gris d'une partie de l'image définie avec la souris.
Utile pour déterminer les techniques de traitement et de segmentation les plus efficaces.
• Barre d'état : dans la partie gauche de la barre d'état est affichée l'aide contextuelle. Les coordonnées
et la valeur du pixel sous le curseur de la souris sont affichées dans la partie droite.
• Boite de Dialogue Opérateur : elle donne accès à tous les opérateurs d'Aphelion. Elle permet de
définir les paramètres nécessaires (paramètres des images, etc.) et d'exécuter les opérateurs.
L'aide en ligne sur l'opérateur choisi dans la boite de dialogue Opérateur est obtenue en pressant la
touche F1 ou en cliquant la souris sur le bouton d'aide dans la boîte de dialogue opérateur.
• Fenêtre Info/Historique/Messages : cette fenêtre IHM (Interface Homme Machine) comprend trois
volets qui renseignent sur l'environnement courant. Le contenu de chaque volet peut être stocké
sauvé dans un fichier en cliquant sur le bouton droit de la souris.
- Fenêtre Info : informations générales d'analyse d'image.
- Fenêtre Historique : séquence des opérateurs exécutés durant la session de travail, avec leurs paramètres.
- Fenêtre Messages : messages d'erreurs non critiques.
• Ecrans virtuels : ils affichent simultanément de nombreux documents dans un même écran. Un écran
virtuel est sélectionné en cliquant sur l'onglet correspondant en bas de l'interface graphique.
II. UTILISATION DE L'AIDE
L'aide en ligne est toujours disponible : Guide de l'Utilisateur pour les références et les procédures
d'utilisation d'Aphelion, Guide de Référence Aphelion pour les opérateurs d'Aphelion, et Guide de
Référence du Langage Macro renseigne pour les macros.
- Système complet d'aide en ligne: cliquez sur le bouton Aide générale de la barre principale d'outils. La
page Contents affiche le sujet voulu et l'onglet Index permet de chercher par mot-clé.
- Information sur l'opérateur affiché dans la boîte de dialogue opérateur: cliquez sur le bouton Aide
Opérateur dans cette boîte de dialogue.
- Information sur un élément de l'interface (e.g., commande de menu ou bouton de barre d'outils) :
cliquez sur le bouton Aide contextuelle, puis pointez l'élément.
- Aide concernant une boîte de dialogue spécifique : cliquez sur le bouton d'aide "Help" dans la boîte
de dialogue ou appuyez sur F1.
III. CHARGER ET SAUVEGARDER UNE IMAGE
Il existe trois méthodes pour charger une image dans Aphelion
- charger une image dont le format est supporté : fichier image taggué TIFF (.tif), bitmap BMP
(.bmp), JPEG (.jpg) etKBVision KBV (.im).
- importer une image de format non supporté.
- acquérir une image avec une caméra.
1.) Classe des images
Toute image appartient à une classe d'images prédéfinie et les comptes numériques de ses pixels sont
codés avec un type de codage prédéfini (i.e., codage de l'information). Ainsi, les différents types
correspondent à des entiers signés et non signés sur 8, 16 et 32 bits, réels sur 32 et 64 bits. Les
classes indiquent la nature des images. Par suite, une image de classe donnée ne peut être traitée que
par un opérateur adapté à cette classe. Les différentes classes sont :
- Gris: image mono canal où les comptes numériques peuvent être des entiers ou des réels.
- Binaire: image mono canal dont les valeurs supérieures à 0 sont supposées vraies par les opérateurs
logiques. Il est préférable d'utiliser des images binaires avec des d'opérateurs logiques.
- Label: les comptes numériques (i.e., entiers non signés) indiquent/étiquettent une région de l'image,
- Couleur: image qui contient 3 images mono canal.
- Pente: image qui contient des couples de valeurs qui indiquent la pente locale (dX,dY) dans l'image.
- Complexe: image qui contient des couples de valeurs (réel, imaginaire).
126
APHELION
- Fréquence: image des couples de valeurs (réel, imaginaire) issus de la transformée de Fourier.
2.) Ouvrir une image
Les images dont le format est supporté par Aphelion peuvent être ouvertes selon 2 méthodes :
1. Cliquez sur le bouton Ouvrir une Image de la barre principale d'outils. La boîte de dialogue
Ouverture s'ouvre, affichant la liste de toutes les images tif du répertoire \Aphelion\Images. Pour
changer de liste de type d'images, cliquez sur la flèche de liste de type de fichier. Finalement,
double-cliquez sur l'image que vous voulez charger. L'image s'ouvre dans une fenêtre image.
2. Cliquez sur Sélectionner un Opérateur → Image Utilitaires → Entrée/Sortie → ImgRead.
3.) Sauver une image
Toute image peut être sauvegardée en sélectionnant Image Utilitaires → Entrée/Sortie → ImgWrite
ou cliquez sur le bouton Enregistrer de la barre principale d'outils.
4.) Gérer l'affichage d'une image
Plusieurs modes d'affichage sont possibles (aide générale: tapez Image Views dans l'onglet Index) :
- affichage d'un pixel image dans un pixel écran (pixel écran = pixel image)
- affichage adapté à la taille de la fenêtre
- affichage conservant l'aspect initial (i.e., échelle horizontale = échelle verticale)
Le click droit de la souris sur l'image active un menu pop up avec plusieurs options :
• Afficher / Propriétés: - afficher / modifier certaines propriétés de l'image (type ou nom d'image,...).
- sélectionner DC (Display Context) : amélioration plus ou moins
automatique du contraste.
- sélectionner LUT : changer / éditer une table vidéo (LUT). Tapez Images
dans Index pour avoir l'aide en ligne.
• Opérateurs: détruire l'image, histogramme de l'image et statistiques.
• Outils graphiques: Graphic ROI, profil.
5.) Importer une image
Des images de format autre que les formats supportés (TIFF, BMP, JPEG, KBV) peuvent être
importées dans Aphelion directement avec l'opérateur Imglmport (importation d'images binaires non
compressées) ou indirectement après conversion par un logiciel (e.g., PaintShopPro). Pour l'aide en
ligne, tapez Importing Images (autres formats d'image) dans l'onglet Index .
Utiliser l'opérateur lmglmport
1. Déterminez la taille et le type numérique de l'image (commande Options de l'icône de l'image de
sortie) ainsi que les caractéristiques du fichier que vous voulez importer.
2. Dans la boîte de dialogue opérateur, cliquez sur le bouton Sélectionner un Opérateur, puis
sélectionnez Image Utilitaires → Entrée/Sortie → ImgImport.
6.) Acquérir une Image
Aphelion supporte les pilotes Twain et dispose d'interfaces pour plusieurs cartes d'acquisition
d'images. Un signal vidéo peut être acquis via diverses cartes (Imaging Technology, etc.).
Pilotage de caméra avec Aphelion
1. Dans la barre principale d'outils, cliquez 2 fois sur Caméra, puis sur "Twain Driver" \ "Select
source", et enfin sélectionnez le driver proposé. Si la caméra n'est pas sélectionnée, cliquer sur le
bouton "Camera", puis sélectionner la première ligne dans chaque colonne, puis faire OK.
2. Dans l'"Operator Dialog", sélectionnez "Image Acquisition" → "Grab/Snap" → "ImgSnap".
3. Sélectionner "Acquisition Board" : " Twain Driver", puis cliquer sur la flèche verte.
4. Apparition de la boîte de dialogue Twain :
- acquisition d'images en continue : cliquer sur le bouton "Live".
- gel de l'image (bouton "Freeze").
- transfert d'une image "gelée" dans l'environnement Aphelion (bouton "Xfer"). Si l'image
obtenue est incorrecte, cliquer sur le bouton "Config", puis sélectionner "RGB 888" dans la
partie droite de la boîte de dialogue ouverte.
127
APHELION
Figure : Menu Pop up d'une image.
7.) Exécuter un opérateur
• SELECTIONNER UN OPERATEUR
Aide en ligne : cliquez sur le bouton AideOpérateur dans la .boîte de dialogue opérateur ou tapez
"Selecting an Operator" dans Index. Les opérateurs sont sélectionnés en cliquant sur le bouton :
- Liste A .. Z. Ce dernier donne la liste alphabétique des opérateurs".
- Sélection d'Opérateur. Menus en cascade : (1) liste des groupes d'opérateurs, (2) liste des sousgroupes d'opérateurs du groupe choisi et (3) liste des opérateurs du sous-groupe sélectionné.
128
APHELION
129
Opérations arithmétiques
Addition
Soustraction
Multiplication
Division
Minimum
Maximum, etc.
Opérations logiques
ET
OU
Non ET
Non OU
XOR
XNOR
NOT
Différence logique
Opérations avec constante
Addition
Multiplication
Soustraction
Filtres passe bas
Filtre 3x3 passe bas
Filtre 5x5 passe bas
Filtre 7x7 passe bas
Filtre "flou"
Filtre nxn passe bas
Filtre gaussien
Filtres passe haut
Filtre 3x3 passe haut, etc.
APHELION
130
Fourier
Fourier direct
Fourier inverse
Filtres passe bas et
passe haut 2-D
Rectangulaire
Butterworth
Exponentiel
Trapézoïdal
Transformations géométriques
Echelle, translation, rotation,
points de contrôle, etc.
RGB ↔ mono canaux ↔ HSI
Figure : Opérateurs d'Aphelion
• Paramètres des opérateurs
Avant d'exécuter un opérateur, il faut définir toutes les valeurs des paramètres requis, soit en les
sélectionnant dans une liste, soit en les tapant (e.g., chaînes de caractères et nombres).
- nom des images d'entrée et de sortie, nom du noyau pour une convolution
- forme de l'élément structurant pour une transformation morphologique
- taille du noyau ou de l'élément structurant
APHELION
Pour l'aide en ligne, tapez Selecting Operator Parameters (Paramétrer un Opérateur) dans Index.
• Exécuter un opérateur
Cliquez sur la flèche verte de la boîte de dialogue Opérateur. Cliquez sur le bouton rouge pour
arrêter l'exécution. A la fin, le bouton d'arrêt devient blanc et l'éventuelle image de sortie s'affiche.
Ensemble des opérations arithmétiques et logiques
Convolution et filtres (passe haut et passe bas)
Filtres : Laplacien, morphologie, linéaires (Prewitt, Sobel, etc.), etc.
Ouverture, fermeture, reconstruction d'images, etc.
Transformée de Fourier directe et inverse, filtres fréquentiels, etc.
Transformations géométriques, changement de coordonnées, couleur.
Génération d'image (gaussienne, etc.), équipopulation, entrée/sortie, etc.
Seuillages, etc.
Mesures (aire, longueur, etc.), recherche de droites (Hough, etc.)
Transformation géométrique, érosion, regroupement, etc.
Utilitaires d'objets.
Acquisition d'images avec une caméra
Menu activé par le bouton "Sélection d'Opérateurs".
Les sous menus associés sont affichés dans les figures suivantes.
Les opérateurs d'Aphelion peuvent traiter tous les pixels d'une image ou seulement les pixels situés
dans une zone dite d'intérêt (ROI: region of interest). Une ROI est liée à l'image où elle a été définie
ainsi qu'aux images calculées à partir de cette image. Une ROI peut être activée, désactivée, copiée et
éliminée. Elle peut être crée par traçage et par conversion d'objets/attributs attachés à l'image.
VI. EXEMPLE DE TRAITEMENT D'IMAGES: LE FILTRAGE
VI.1 Filtrage pour éliminer le bruit en intensité
Dans une image, le bruit correspond à une variation aléatoire ou régulière des comptes numériques.
1.) Filtrage linéaire ou convolution
Le filtrage linéaire est le plus classique des outils de traitement d'image. En fonction du noyau utilisé
par ImgConvolve, vous pouvez appliquer sur l'image un filtre passe-bas ou passe-haut. Un filtre
passe-bas comme ImgLowPass5x5 est utile pour diminuer un bruit aléatoire.
• Filtres non-linéaires
Les filtres non linéaires sont les filtres dont le résultat n'est pas une combinaison linéaire des comptes
numériques de l'image d'entrée. Ainsi, le filtre "Moyenne" est linéaire contrairement au filtre
"Médian", car ce dernier, appelé ImgMedian dans Aphelion, remplace chaque pixel par la valeur
médiane des valeurs (ordonnées du plus petit au plus grand) de son voisinage. Comme pour les
filtres linéaires passe-bas, plus le voisinage choisi est grand et plus le lissage sera fort.
• Filtres fréquentiels
Les filtres fréquentiels sont utiles lorsque la réponse fréquentielle du bruit est connue. Il est souvent
utile d'exécuter lmgFFT pour voir le spectre de puissance de l'image. L'apparition de pics bien
définis ne correspondant à aucune structure de l'image peut être révélatrice d'un bruit qui peut être
éliminé, ou du moins réduit, avec un filtre fréquentiel tel que ImgHPRectangularFilter.
L'emploi de l'opérateur ImgInverseFFT sur le spectre de puissance filtré génère l'image filtrée.
2.) Filtrage pour éliminer le bruit spatial
Il s'agit d'un bruit spatial (e.g., frontières grossières ou trous dans les objets) avec certaines
caractéristiques géométriques (épaisseur, longueur). Les opérateurs morphologiques sont les plus
efficaces pour éliminer ce type de bruit. Par exemple, ImgClose peut être utilisé pour boucher les trous
dans les objets, alors que ImgOpen peut être appliqué à une image binaire, une image à teinte de gris
ou en couleurs afin d'éliminer les bords d'objets brillants.
131
APHELION
VII. EXTRAIRE ET ANALYSER DES OBJETS
Ce paragraphe explique comment extraire des objets d'une image et effectuer des mesures sur ceux-ci.
1.) Mesures globales
Les mesures globales sont celles qui sont calculées sur l'ensemble de l'image. Par exemple, pour une
image binaire donnée, le nombre de pixels non nuls donne la surface représentée par les pixels non
nuls. Cette mesure est obtenue par ImgArea. Pour une image à niveaux de gris, la somme des valeurs
de tous les pixels (i.e., opérateur ImgVolume) donne le "volume" de l'image. Les mesures globales
peuvent être interactives (e.g., ImgDistance donne la longueur d'un segment tracé par l'opérateur sur
l'image). Avec certains opérateurs d'analyse globale (e.g., ImgHistogram), un bouton dans la boîte de
dialogue opérateur permet d'afficher un menu qui autorise l'envoi des résultats dans la fenêtre Info,
dans un graphique (histogramme) ou dans Excel.
Beaucoup de mesures globales peuvent être calculées dans des unités physiques plutôt qu'en pixels.
Pour cela, il faut avoir calibré l'image avec la commande Calibration du menu contextuel de l'image.
Pour une aide en ligne, tapez Calibrating an Image (Calibrer une Image) dans Index.
2.) Segmentation
Il est souvent plus intéressant de traiter (e.g., contrôle dimensionnel) certaines régions de l'image
plutôt que la totalité de l'image. Les opérateurs de segmentation ont pour but de déterminer ces
régions. Aphelion comprend deux types d'opérateurs de segmentation de régions. Les opérateurs dont
le nom se termine par "Obj" génèrent des objets, tandis que les autres génèrent des images binaires.
Le plus simple opérateur de segmentation est ImgThreshold. Il crée une image binaire telle que tous
les pixels de l'image initiale compris entre une borne inférieure et une borne supérieure deviennent
"vrais". Les autres pixels deviennent "faux". L'opérateur ImgClustersToLabel peut ensuite être utilisé
pour affecter un nom (label ou étiquette) à toute zone connexe d'une image binaire.
Le seuillage d'une image avec ImgThresholdObj crée des régions à partir d'un seuil haut et d'un seuil
bas. Une région est un ensemble de pixels connexes (non nuls) enregistrés dans une représentation
bitmap. C'est la représentation d'objet la plus souvent utilisée. La segmentation peut être automatique
(e.g., ImgEntropyThresholdObj, ImgMultiModalThresholdObj).
Aphelion propose d'autres représentations d'objet que les régions :
- Segments de droite (ImgGradientLines)
- Points de contour (EdgesToEdgel)
- Rectangles (LabelsToRectangles)
- Chaînes (EdgelsToChains)
- Polygones (RegionConvexHuIlPolygons)
Plusieurs opérateurs travaillent sur les objets :
- Conversion (ObjSpatialAttributesToRegions) d'objet en région. Cela rend possible le calcul de
toutes les mesures de région pour les objets tels que segments de droite, chaînes ou polygones.
- Transforme (ObjRotate)
- Morphologie (RegionErode)
- Groupement (EdgelsToChains, RegionSplitConvex)
- Analyse (ImgVolume, RegionFeret, ChainAttributes)
- Utilitaires (ObjFiller, ObjCopy)
3.) Mesures d'Objet
Les mesures d'objet sont des attributs calculés pour les objets tels que les régions, les segments de
droite et les chaînes. Elles peuvent servir à filtrer, classifier ou quantifier les objets de l'image.
Les ensembles d'objets appartiennent à la Représentation Symbolique Intermédiaire (ISR). L'ISR est
une base de données utilisée pour le stockage et la gestion des attributs d'objet. Elle se présente
132
APHELION
133
comme un tableau bidimensionnel de mesures où chaque ligne correspond à un objet et chaque
colonne à une mesure spécifique. En fait, l'ISR est plus qu'un tableau de mesures, car il est possible
d'ordonner les valeurs, d'ajouter ou de supprimer des objets ou des mesures et d'accéder à la
représentation spatiale des objets avec des opérateurs comme ObjCopy, ObjFilter et ObjRead. Le
format des fichiers ISR est compatible avec le format des fichiers ISR de KBVision.
Pour charger ou enregistrer un ensemble d'objets (base de données ISR), utiliser la commande Ouvrir
un ensemble d'objets du menu Fichier.
L'opérateur ObjComputeMeasurements permet de calculer différentes mesures :
- Région : coordonnées, aire, forme, texture, couleur
- Ligne : coordonnées, longueur, orientation, contraste, couleur
- Chaîne : coordonnées, longueur, courbure, contraste, couleur
- Polygone: coordonnées, aire, périmètre, couleur
- Point de contour : coordonnées, orientation, intensité, couleur
- Rectangle : coordonnées, aire, couleur
Grille de mesures
étiquetage
segmentation
Image
ImgThreshold
Image
binaire
ImgClusterToLabel
Label
ImgClusterObj
ImgThresholdObj
ImgLabelObj
Objets
"région"
Mj
Oi
Création d'objets
Exemple : afficher des mesures d'objet dans une grille
1. Ouvrir l'image avec laquelle vous voulez travailler.
ISR
(base de données)
APHELION
2. Choisir alors "Segmentation → Segmentation par Région → ImgThresholdObj."
- Spécifier les paramètres de l'opérateur: image d'entrée dans le menu déroulant de la boîte
"Entrée" et objet à créer (e.g., "Parcelles") dans le champ réservé à "Objectset de sortie". Le
réglage avec les réglettes des seuils haut et bas permet de colorer en rouge les objets voulus.
- Cliquer sur le bouton Exécuter un Opérateur pour effectuer l'opération.
3. Calculer toutes les mesures de région. Pour cela, avec le bouton de sélection des opérateurs,
sélectionnez Analyse → Objets → ObjComputeMeasurements.
- Sélectionnez l'image d'entrée depuis le menu déroulant en cliquant sur la boîte "Input", puis
sélectionnez "Parcelles" depuis le menu déroulant lié au paramètre "Input ObjectSet".
- Cliquez sur le bouton Exécuter un Opérateur pour effectuer l'opération.
4. Visualisation des mesures en sélectionnant "Parcelles" avec le bouton Liste des ensembles
d'objet dans la barre d'outils Objet.
4.) Grilles
Les résultats d'une analyse d'objet sont automatiquement stockés dans une grille Aphelion (i.e., tableau
de mesures). Si vous choisissez Afficher automatiquement les grilles dans Préférences du menu
principal en cliquant sur Options → Préférences, la grille s'ouvre automatiquement quand elle est
créée. Autrement, utilisez la procédure suivante pour afficher les données ISR dans une grille :
1. Cliquez sur le bouton Liste des ensembles d'objet dans la barre d'outils Objet.
2. Sélectionnez la grille que vous désirez ouvrir, en choisissant son nom.
La grille peut être utilisée pour ordonner, filtrer, modifier et exporter les mesures. Elle peut également
être utilisée pour sélectionner un objet individuel ou un ensemble d'objet et le visualiser en
superposition dans l'image. Pour une information en ligne, tapez Grid Documents (Documents grilles)
ou Message Passing (Passage d'informations) dans Index.
VIII. RAPPORTS D'ANALYSE
1.) Impression
Il est possible d'imprimer (1) des documents individuels comme des images, des macros ou des
graphiques, et (2) des pages composées comprenant différents types de document et du texte.
- Impression de document individuel: sélectionnez la fenêtre que vous désirez imprimer (image,
macro ou autre), puis cliquez sur le bouton Imprimer de la barre principale d'outils.
- Impression d'une page composée: cliquez sur le bouton éditeur de pages d'impression dans la
barre d'outils Objet, puis avec un clic droit de la souris, affichez le menu d'édition de pages
d'impression qui permet d'ajouter les images, les graphiques et/ou le texte dans la page. Utilisez
la souris et le menu d'édition pour mettre en page les différents éléments. Sélectionnez Aperçu
avant Impression depuis le menu Fichier pour pré-visualiser la page d'impression, puis cliquez
sur le bouton Imprimer de la barre principale d'outils pour imprimer la page.
2.) Exporter les mesures d'objet
Les mesures d'objet peuvent être exportées vers Excel, Access, etc. pour trier, tracer des courbes, etc.
Ainsi, l'opérateur, ObjExport génère un fichier ASCIl avec séparation par tabulation.
IX. EDITER UNE MACRO
Les fichiers Macro (extension .apm) sont écrits avec BasicScript, c'est à dire un langage interprété très
puissant et compatible VisualBasic. Une macro permet par exemple de faire des boucles sur plusieurs
images ou objets, d'accéder aux pixels et de créer des boîtes de dialogue.
134
APHELION
Ajout de
point d'arrêt
Arrêt du
débogage
Affichage de variable
durant le programme
Step Step
into over
135
Démarre l'enregistrement de la macro
Arrête l'enregistrement de la macro
Clic avec bouton
droit de la souris
⇒
Affichage du menu
Lance la
macro
Arrête la
macro
Fenêtre d'édition et d'exécution de Macro.
• Créer / charger une macro
1. Dans le menu Fichier, choisissez Nouveau. La boîte de dialogue New apparaît.
2. Sélectionnez Document Macro et cliquez sur OK pour ouvrir une fenêtre macro.
4. Cliquez sur le bouton droit de la souris pour afficher le menu associé, en plaçant le curseur
dans la bannière grise de la fenêtre.
5. Choisissez Charger pour afficher la boîte de dialogue Ouvrir, où apparaît la liste des macros
du répertoire courant. Choisissez la macro que vous voulez ouvrir et cliquez sur Ouvrir.
Raccourci : cliquer sur le bouton Liste des Macros dans la barre d'outils Objet pour afficher la
liste des macros d'Aphelion, puis cliquer sur la macro que vous voulez charger.
• Enregistrer une Macro
Toute séquence d'opérateurs exécutés depuis la boîte de dialogue opérateur peut être enregistrée
(i.e., icône "petite caméra") dans une macro pour regrouper des opérations "multi opérateurs", pour
la sauvegarder et pour la ré-exécuter. Pour l'aide en ligne, tapez Macros dans Index.
• Exécuter et Déboguer une Macro
Aphelion propose un environnement BasicScript d'exécution et de déboguage complet. Ce dernier
permet d'exécuter une macro, complètement ou pas à pas, et de contrôler les valeurs des paramètres
de la macro. Ceci est utile pour déceler les erreurs dans une macro ou pour faire une démonstration
pas à pas. Pour plus d'information, ouvrez l'aide en ligne et tapez Macros dans Index.
• Créer une boite de dialogue
BasicScript comprend un environnement spécifique pour créer vos propres boites de dialogue, avec
boutons, fenêtres pour entrer une variable, menus déroutants, etc. Ceci est utilisé afin de créer une
application comportant un nombre limité d'options pour l'utilisateur, comme par exemple le choix
entre trois filtrages suivi du choix de mesures à calculer. Pour l'aide en ligne, ouvrez l'aide en ligne et
tapez Using the Dialog Editor (Editeur de Dialogue) dans Index.
Exemple de macro : dialogue
seuil$ = AskBox$("Entrer le seuil de binarisation entre 0 et 255",128,"Seuil")
if seuil$ = "" then s = 128 ' "s" est un paramètre utilisable par la suite
else s = CInt(seuil$)
if s < 0 then s = 0
elseif s > 255 then s = 255
end if
end if
Exemple de macro : FFT directe et inverse avec changement interactif du type de l'image traitée
APHELION
136
Sub main
Begin Dialog UserDialog ,,180,96,"Untitled"
OKButton 132,8,40,14
CancelButton 132,28,40,14
Text 20,20,52,8,"Début du travail",.Text1
End Dialog
Dim bb as UserDialog
Response%=Dialog(bb)
Select Case response%
Case -1 'ok button
s$ = InputBox$("Enter a Tiff image name (without extension):","Traitement","image")
t$ = s$ & ".tif"
MsgBox "The file name is :" & t$
AphImgRead AphImgNew(s$),"S:\images\IUT_mp\" & t$
Msgopen "Changez le type de l'image",1,false,false
'AphImgSetClass AphImg(s$),"Gris"
Sleep 8000
Msgclose
AphImgFFT AphImg(s$),AphImgNew("fourier")
AphImgLPRectangularFilter
AphImg("fourier"),AphImgNew("fourierf"),AphNamedFrequencyMask("Square",128,128,50,50,0,1)
AphImgInverseFFT AphImg("fourierf"), AphImgNew("new image")
End select
End Sub
Lexique
BasicScipt: langage interprété (compatible avec Visual Basic) utilisé pour créer des macros.
Ecran virtuel : affichages multiples sur une même zone de l'écran. Chaque affichage peut contenir
différents documents tels que des images, des grilles et du texte. L'affichage d'un écran virtuel
s'obtient en cliquant sur un onglet spécifique situé à gauche en bas de l'interface d'Aphelion.
Ensemble d'objets : structure de données comprenant à la fois la description spatiale et les attributs
d'objet qui sont extraits d'un ensemble de données de même type par un même algorithme.
Différents algorithmes sont employés pour produire différents ensembles d'objets.
Exploreur d'écrans virtuels : une boîte de dialogue qui présente les écrans virtuels et leurs contenus
sous forme d'arbre. Depuis cette boîte, vous pouvez déplacer des éléments d'un écran virtuel à
un autre par action de type glisser-déplacer.
Mesure : tout attribut calculé sur une image ou sur un objet d'une image. Elle est stockée en tant que
colonne dans un ensemble d'objets.
Objet : région, point, rectangle, ligne, point de contour ou chaîne, et ses mesures associées. Un objet
est représenté par une ligne dans une grille (tableau de mesures). Typiquement, les objets sont
obtenus par l'application d'une méthode d'extraction de caractéristique sur une image composée
de pixels (données de bas niveau).
Opérateur : algorithme de traitement ou d'interprétation d'image, implémenté comme une routine
indépendante. Tout opérateur est inclus dans une DLL (Dynamic Linked Library).
Passage d'information : mécanisme qui envoie des messages entre une image dans laquelle est affiché
un ensemble d'objets et une grille ou une courbe graphique. Il permet de visualiser une même
information sous différentes formes.
Projet : fichier (extension .ap) qui peut contenir les paramètres les paramètres liés à un ensemble de
tâches spécifiques, des images, des paramètres d'image, des noms d'écrans virtuels, des valeurs
de calibration, des noyaux de convolution, etc.
Résumé des principales manipulations à réaliser
Ici, il sera surtout utilisé 3 classes d'image :
- images de classe "gris" et de type "8 bits non signés". Ce sont des images mono canal où chaque
pixel est caractérisé par un compte numérique compris entre 0 et 255.
- images de classe "couleur". Tout pixel est caractérisé par un triplet de comptes numériques (CN1,
CN2, CN3) qui sont affichés en teintes de rouge (CN1), vert (CN2) et bleu (CN3). L'affichage d'une
image "couleur" est donc la superposition de 3 images monocanal (gris).
- images de classe "binaire". Elles sont bien adaptées aux traitements par des opérateurs logiques,
contrairement aux images de classe "gris". Toute image "binaire" peut être transformée en image
"gris", et inversement. Ces transformations ne modifient pas les comptes numériques de l'image.
Lecture de fichier image: lire le fichier image "Cook2ic.tif" dans le répertoire de travail avec
l'opérateur "Utilitaires d'images - Entrée/sortie – ImgRead".
Pourquoi le logiciel peut il afficher correctement l'image?
Visualiser les comptes numériques (CN) des pixels pointés par la souris: en bas à droite de l'écran.
Noter les propriétés de l'image: la commande "Bouton droit de la souris - Propriétés - Données de
l'image" du menu pop up de l'image affiche le nom, la classe et la dimension (nombres de lignes et de
colonnes) de l'image. La commande "Bouton droit de la souris - Opérateurs - Statistiques" du menu
pop up affiche les statistiques de l'image. Quels sont les 2 comptes numériques maxima de cook2 ?
Afficher l'histogramme de l'image: ceci est réalisé avec la commande "Bouton droit de la souris Opérateurs - Histogramme" du menu pop up de l'image.
A quels objets de l'image correspondent les différents modes de l'histogramme ?
Afficher le LUT de l'image: ceci est réalisé avec la commande "Bouton droit de la souris - Propriétés LUT - LUT de l'image" du menu pop up de l'image.
Que représente l'axe horizontal ? l'axe vertical ? Où se trouvent les comptes numériques (CN)
relatifs à l'océan, à l'île et au lagon?
Modifier l'apparence visuelle de l'image: ceci est réalisé avec la commande "Propriétés - LUT - LUT
de l'image - Nouvelle LUT" du menu pop up de l'image. Le click du bouton droit de la souris
positionnée sur le LUT fait apparaître un menu qui permet d'ajouter, et éventuellement d'enlever, des
points sur le LUT pour modifier ce dernier. Il convient d'obtenir des images telles que :
- l'image ne comporte que des teintes de rouge.
- le lagon est blanc et tout le reste est totalement noir.
- le lagon est noir et tout le reste est totalement blanc.
- le lagon est vert, l'île est rouge et l'océan est jaune.
Pourquoi ces modifications de LUT ne modifient pas les comptes numériques ?
Lecture du fichier image "cookcc.tif": ceci est réalisé avec l'opérateur "Utilitaires d'images Entrée/sortie - ImgRead". L'importation est simplement réalisée en spécifiant le nom de l'image. Notez
que les comptes numériques des pixels sont des triplets de valeurs en général différentes.
Que représentent ces valeurs ? (cf. Chap. II.3)
Extraire les 3 images mono canal de l'image "Cookcc": l'opérateur "Transformation - Couleur ImgColorToRGB" sera utilisé. Une fois spécifié le nom de l'image "couleur" traitée, les
caractéristiques (classe, dimension, nom) des 3 images mono canal à extraire peuvent être indiquées en
appliquant la commande "Nouvelle image avec option" à leurs 3 icônes. Autrement, Aphelion choisit
seul ces caractéristiques, mais les noms "Cook3", "Cook2" et "Cook1" doivent être donnés.
Quels sont les domaines spectraux associés aux 3 images mono canal ? (cf. Chap. II.3)
Pourquoi le lagon a des teintes claires dans cookk2 et des teintes très foncées dans Cook3 ?
Pourquoi l'île a des teintes claires dans cook3 ?
Pourquoi l'écume a des teintes claires dans les 3 images ?
MANIPULATION A EFFECTUER
138
Appliquez l'opérateur "Transformation - Couleur - ImgRGBToColor" à "Cook1, Cook2, Cook3" pour :
- créer une image de classe "couleur" identique à "Cookcc" :
- créer une image de classe "couleur" avec l’île en vert, puis l’île en jaune.
Si nécessaire, les images peuvent être éliminées individuellement de la mémoire vive avec la
commande "Bouton droit de la souris - Opérateurs - Détruire Image" du menu pop up de l'image.
Importer l'image "cook2ic.tif": Réalisé avec l'opérateur "Utilitaires d'images - Entre/Sortie - ImgImport".
Quel est le nombre de lignes? de colonnes? Que se passe t'il si l'on emploie un nombre erroné de
colonnes? Faites l'importation en indiquant un nombre de colonne diminué d'une unité.
Binariser l'image "cook2": Réalisé avec l'opérateur "Segmentation - Seuillage - ImgThreshold" en
spécifiant les bornes inférieures CNinf et supérieures CNsup du filtre. Ainsi, tout compte numérique CN
de [CNinf CNsup] est mis à 1 et tout CN hors de cet intervalle est mis à 0.
Seuillage d'image
de classe "Gris"
Créer une image identique à Cook2, mais où les pixels de l'océan et de l'île ont des CN égaux à 0. Il
conviendra d'utiliser les opérateurs arithmétiques et logiques.
Créer une image identique à Cook2, mais où les pixels de l'océan et de l'île ont des CN égaux à 100.
T hres ho ld
m _ la g o n
C2
x 100
N ot
m _ o cea n
o cea n 1 0 0
x
+
la g o n _ C 2
resu
Schéma des différentes opérations à réaliser
La classe des images est modifiée pour que les opérateurs arithmétiques soient appliqués à
des images de classe gris et les opérateurs logiques à des images de classe binaire.
Créer une image où les pixels de l’île, les îlots et l'écume ont les CN de Cook2 et où les autres
pixels ont les CN de Cook3. Créez un LUT que vous appliquerez à l’image résultat ainsi qu’à
Cook2 et Cook3 pour donner l'impression visuelle que le résultat est correct.
Appliquer l’opérateur "Transforms – Color – ImRGBToColor" à des images dérivées de Cook1,
Cook2 et Cook3 pour créer une image de classe "couleur" identique à Cookcc, mais où
- tous les pixels de l’île, des îlots et de l’océan sont (0,0,0).
- tous les pixels de l’île, des îlots et de l’océan apparaissent en rouge (i.e., codage (255,0,0)).
Remarque : la 1ère image peut être obtenue en combinant un masque et Cookcc.
Créer une image de classe "gris" égale à Cook2, mais où l’île, les îlots et l’océan ont un même
compte numérique spécifique et apparaissent en rouge.
Lissage d'images :
Créer une image identique à Cook2, mais où seuls les comptes numériques des îles et de l'écume
sont lissés. Il convient d’utiliser l’opérateur "Filtrage – Passe bas – ImgLowPass 7x7".
MANIPULATION A EFFECTUER
139
Détection de contours: L’opérateur est "Détection de contour – Laplacien – ImgLaplacien" sera
appliqué à l’image qui fait le mieux apparaître les frontières "île - lagon" et "lagon - océan".
Créer une image de type "gris" puis une image de classe "couleur" qui sont toutes deux égales à la
superposition "Image Cook2" + "Image des principales frontières (i.e., frontières île – lagon et
lagon – océan)". Les frontières doivent apparaître avec la couleur rouge.
Transformée de Fourier: (cf. V.3.1)
L’image "grille" contient des barres horizontales (fréquences fy selon les y) et verticales (fréquences
spatiales fx selon les x). Sa transformée de Fourier donne une image "FFT" où le CN de tout pixel au
point (fx, fy) est l'amplitude complexe de la composante de fréquence (fx, fy) dans l'image "grille".
Créer l'image "FFT" avec l'opérateur "Domaine fréquentiel - Fourier - ImgFFT". Vérifier que la
transformation de "FFT" avec l'opérateur "Domaine fréquentiel - Fourier - ImgInverseFFT" donne
une image très similaire à l'image "grille". Comment quantifier cette similitude?
Atténuer les barres horizontales de l'image "grille" en filtrant l'image "FFT" avec l'opérateur
"Domaine fréquentiel - Filtrages haute fréquence - ImgHPRectangularFilter" avec l'option
"Masque rectangulaire". Vérifier l'effet de ce filtrage avec l'opérateur "ImgInverseFFT".
Vérifier que l’image {ImgHPRectangularFilter("FFT")} (i.e., opérateur ImgHPRectangularFilter
appliqué à image FFT), avec l’option "Masque carré", représente plus ou moins bien l'image
"grille" selon la taille ∆mask du "Masque carré". Expliquez le résultat obtenu si ∆mask = 1.
Vérifier que {ImgInverseFFT ("FFT filtrée avec filtre passe bas")} + {ImgInverseFFT ("FFT
filtrée avec filtre passe haut (complémentaire du passe bas)} = {Image initiale}. Expliquez.
Image "grille"
Transformée de Fourier
Transformée de Fourier filtrée
Image "grille" filtre
Opérateurs morphologiques: (cf. V.4)
- érosion : "Morphologie mathématique - Erosion/Dilatation - ImgErode"
- dilatation : "Morphologie mathématique - Erosion/Dilatation - ImgDilate"
- ouverture : "Morphologie mathématique - Ouverture / Fermeture - ImgOpen"
- fermeture : "Morphologie mathématique - Ouverture / Fermeture - ImgClose"
- reconstruction : "Morphologie mathématique - Géodésie - ImgReconstruct"
Créer une image où tous les pixels de l'île sont ceux de "cook3" et tous les autres pixels sont à 100.
Créer une image identique à l'image "cook2", mais où les pixels des îlots ont tous la valeur 110.
Eliminer l'objet circulaire de l'image "camera2" avec les opérateurs morphologiques (érosion,…).
Image initiale.
Image finale.
MANIPULATION A EFFECTUER
140
Créer l’image "Resu" à partir des images "Dk" et "Dk_oblique_dos". Dans "Resu", l'étiquette est
lisible comme dans "Dk" et le coin droit 'coupé' de la disquette est comme dans "Dk_oblique_dos".
Aide : Caler / projeter l’image "Dk" sur "Dk_oblique_dos" avec l'opérateur "ImgWarpControlPoint" de
la rubrique "Transformations – Géométrie". Cet opérateur (1) définit des points de contrôle communs
à l’image de référence et à l’image à caler, et (2) réalise la transformation géométrique (rotation,
homothétie) qui cale / projette l’image traitée sur l’image de référence.
Image de départ : Dk.tif
Image de départ: Dk_oblique_dos.tif
Image finale : Resu.tif
Labellisation d'image binaire (pixels connectés ⇒ label. Fond = "0")
Labelliser le masque des 3 objets de "camera" avec "Segmentation/Utilitaires/ImgClustersToLabels".
Création de l'ensemble X des objets d'une image "gris"
Visualiser la table X de l'ensemble des objets de "camera" obtenue par seuillage de "camera" avec
"Segmentation/Segmentation par régions/ImgThresholdObj".
Eliminer un objet (ligne) de la table X, puis appliquer l'opérateur "Utilitaires
d'objets/Conversion/ObjSpatialAttributeToImage" à partir de "camera", puis de son masque.
Calcul des caractéristiques des objets de "X" sur une image donnée
Appliquer l'opérateur "Analyse/Objets/ObjCompute/Measurements" sur "camera" en spécifiant que
la table qui stocke les objets considérés est "X". Visualiser les résultats stockés dans "X".
Indiquer les approches qui affichent automatiquement le nombre d'objets de "camera".
Eliminer l'objet circulaire de l'image "camera" avec les 2 approches suivantes :
- labélisation (opérateur "ImgClustersToLabels") des objets de l'image binaire de "camera".
- création d'objets "X" par seuillage (opérateur "ImgThresholdObj") de "camera".
Création de macro Aphelion (cf. Annexe Logiciel Aphelion)
Créer une macro qui permette d'éliminer automatiquement le disque de l'image "camera"
Ajouter à cette macro des menus interactifs (cf. paragraphe "Macro d’Aphelion") :
- Choix de l’image à traiter,
- Choix des attributs utilisés pour "combler" les objets éliminés,
- Choisir un délai entre des opérations automatiques successives,
- Elimination des images, etc.
MACROS D'APHELION
I. MACROS D'APPLICATION
Les macros d'application sont dans le répertoire \Aphelion\Macros. Elles se chargent en cliquant sur le
bouton Macros de la barre d'objets, puis sur l'entrée Macros, et enfin en sélectionnant la macro.
Macros Aphelion
Fonctionnalités mises en oeuvre dans les macros
BasicExample.apm
Exemples BasicScript, surtout des boîtes de dialogue et contrôle des fenêtres
Blood.apm
Mesures ISR de base
Ceramic.apm
Traitement d'images de base et techniques d'ISR
Circuit.apm
Opérateurs morphologiques pour détecter un défaut
Color.apm
Traitement sur une image couleurs
Confocal.apm
Conversion RVB (Rouge - Vert - Bleu) en TIS (Teinte - Intensité - Saturation)
PemoDialog.apm
Affichage d'une boîte de dialogue permanente pour exécuter une application
DemoLoop.apm
Boucle sur toutes les images d'un dossier auxquelles on applique plusieurs opérateurs.
Feret Access.apm
Calcul et accès aux diamètres de Feret d'un objet ISR
Fourier.apm
Exemples de filtrage par Fourier
Granulo.apm
Granulométrie morphologique et export vers Excel
Grille.apm
Traitement morphologique et mesures ISR
ImgRegister.apm
Compare une image à une référence.
lmmunomarker.apm
Utilisation de l'information couleur pour la détection des cellules -
Muscie.apm
Traitement morphologique pour détecter des cellules cancéreuses
Road.apm
Calcul des points de contour,'conversion en chaînes puis en segments de droite
RoiProcess.apm
Présente la conversion des ensembles d'objets en régions d'intérêt
Sequencelnterface.apm
Dialogue pour l'acquisition de séquence d'images
WCCO.apm
Segmentation utilisant la ligne de partage des eaux
II. AUTRES EXEMPLES DE MACROS
D'autres macros sont rangées dans le répertoire \Aphelion\Examples. Pour les charger, cliquez sur
le bouton Macros dans la barre d'objets, puis sur l'entrée Examples, puis sélectionnez la macro.
Macros Aphelion
Fonctionnalités mises en oeuvre dans les macros
BrowseDirectory.apm
Parcourt un répertoire image depuis Visual Basic, et boucle sur les images
ColorImageAccess.apm
Comment accéder aux pixels d'une image couleur en Basic
ComplexImageAccess.apm Comment accéder aux pixels d'une image complexe en Basic
Dialog.apm
Visualise une boîte de dialogue permanente afin de lancer une application
ExportToExcel.apm
Démarre Excel et charge un histogramme associé à une image dans une feuille
ExportToNotepad.apm
Démarre le Bloc Note et y charge du texte
ExportToWord.apm
Démarre Word et y charge une image et du texte
FilcAccess.apm
Montre comment lire et écrire un Fichier en Basic
FrarneGrabber.apm
Dialogue mettant en oeuvre des fonctions associées aux cartes d'acquisition
GlobalMeasurements.apm Calcule un certain nombre de mesures globales
HistogramAccess.apm
Accède aux valeurs d'un histogramme depuis Visual Basic
ImageAccess.apm
Lit et écrit les points d'une image depuis Basic
ImageFlickerView.apm
Afficher successivement 2 images dans la même fenêtre pour les comparer.
ImageRefresh.apm
Comment ne pas visualiser les images dans une macro afin d'aller plus vite
MACROS D'APHELION
142
ImgBoxes.apm
Transforme des régions en boîtes circonscrites puis les filtre
ImgChains.apm
Comment extraire des chaînes dans une image à teinte de gris
ImgHistogramChart.apm
Emploie les fonctions du serveur graphique pour afficher l'histogramme d'une image
lmglines.apm
Comment extraire des lignes dans une image à teinte de gris
ImgRead.apm
Choix d'une image, puis chargement dans la MDI. Macro utilisable comme sous-routine.
LineROI.apm
Crée des régions d'intérêt qui sont dérivées d'un ensemble d'objets contenant des droites.
Lines2Regions.apm
Conversion d'objets en régions puis calcul de mesures
ManageOverlay.apm
Comment récupérer les coordonnées de différents recouvrements.
ObjectAccess.apm
Accède les attributs des objets ISR depuis Basic
ObjHistogramChart.apm
Emploie les fonctions du serveur graphique pour afficher l'histogramme d'un objet
PrintPage.apm
Utilisation des fonctions d'impression depuis Basic
ProcessDialog.apm
Affiche une boite de dialogue permanente pour lancer des opérations sur une image.
RegionMorphology.apm
Morphologie effectuée sur des régions ISR
RegionRotate.apm
Rotation d'objets ISR
Regions2Lines.apm
Transformation de régions ISR en droites
ShowImageSequence.apm Comment afficher une séquence d'images 2D.
Viewmanipulation.apm
Modification de la taille et de la position de fenêtres
III. EXEMPLE : MACRO "CERAMIC.APM" D'APHELION
La macro Aphelion "Ceramic.apm" est décrite ici pour illustrer l’emploi de BasicScript. Elle traite une
image (CN ∈ [0 255]) de fibres acquise par un microscope électronique pour:
- extraire toutes les fibres (objets circulaires et sombres) par seuillage de niveaux de gris.
- mesurer des caractéristiques (surface, élongation et circularité) de chaque fibre
- fournir les coordonnées en pixels de la position de chaque fibre.
Les commentaires sont précédés d'une apostrophe ou de la chaîne de caractères "rem".
' --- Ceramic.apm ----Date of creation: 27/01/96 - Date of last modifications: 26/09/9 --Toute sous routine doit avoir un nom. Le nom par défaut est main, mais tout autre nom peut lui être
attribué. Une sous routine peut en appeler une autre, en utilisant le concept de librairie de macros.
Sub main
• Définition des deux variables entières breaktime et bt1000 : Dim breaktime As Integer
Dim bt1000 As Integer
• Définition du type de boîte de dialogue "YesNoDialog" (i.e., nouveau type de variable), de titre
"Aphelion Dialog Box", pour supprimer ou non des images. La fenêtre {xo, yo, lx, ly} a son coin ‘haut
gauche’ en (xo, yo) et la taille (lx, ly). L’expression {Text xo,yo,lx,ly, "Bof .Text1} indique que ‘Bof’ est
de type ‘Text’, est stocké dans la variable .Text1 et apparaît dans la fenêtre {xo,yo,lx,ly}
Begin Dialog YesNoDialog ,,180,48,"Aphelion Dialog Box"
OKButton 132,8,40,14
GroupBox 4,20,108,24,"", .GroupBox1
Text 4,8,108,8, "Delete images and ObjectSets?", .Text1
OptionGroup .OptionGroupl
OptionButton 16,32,32,8,"YES", OptionButton1
OptionButton 72,32,32,8,"NO", OptionButton2
End Dialog
• Définition de variable "boîte de dialogue de type YesNoDialog" : Dim ABox As YesNoDialog
MACROS D'APHELION
143
• Définition de boîte de dialogue " de boîte de dialogue "YesNoDialog" (i.e., nouveau type de
variable), de titre " Break Time during the execution ", pour spécifier le temps de pause. En fonction
du choix de l'utilisateur, les variables OptionButton 1, 2 et 3 sont égales à 0 ou 1 Les autres valeurs
numériques correspondent aux tailles et positions des boutons OK et des trois options.
Begin Dialog BreakTimeDialog,189,76,"Break Time during the execution"
OKButton 144,8,40,14
GroupBox 4,4,132,68,"",.GroupBoxl
OptionGroup OptionGroupl
OptionButton 16,16,108,8, "No break during the execution", .OptionButtonl
OptionButton 16,36,116,8, "messages displayed during 3sec", .OptionButton2
OptionButton 16,56,116,8, "messages displayed during 5sec", .OptionButton3
End Dialog
• Définition de variable "boîte de dialogue de type BreakTimeDialog" : Dim BreakBox As BreakTimeDialog
• Définition de boîte de dialogue pour spécifier les filtres qui seront appliqués sur les mesures ISR.
Toutes les valeurs numériques correspondent aux positions et tailles des boutons et textes.
Begin Dialog FilterBox ,172,100,"Object Filtering"
OKButton 124,8,40,14
CancelButton 124,28,40,14
Text 16,8,92,20,"The filtering of fibers is based on:",.Textl,"Arial",9,ebBold
CheckBox 16,36,68,8,"Surface area", surface
CheckBox 16,52,66,8,"Location", location
CheckBox 16,68,68,8,"Elongation", elongation
CheckBox 16,84,68,8,"Compacity", compacity
End Dialog
• Définition de variable "boîte de dialogue de type FilterBox" : Dim FBox As FilterBox
• Les deux variables suivantes sont utilisées dans l'opération d'étiquetage (labélisation) pour spécifier
le nombre de pixels voisins considérés, avec des voisinages de 4 ou 8 pixels (i.e., 4- et 8- connected).
graph4C = AphNgbGraph("2D 4-connected")
graph8C = AphNgbGraph("2D 8-connected")
Après ces déclarations, le programme commence.
' ------------------ Main program ---------------------------a) Appel de la boite de dialogue "BreakBox" : sélection du temps de pause entre 2 opérations. La
variable ‘response’ prend la valeur -1 (bouton OK choisi) ou 0 (bouton CANCEL choisi). En fait,
le bouton CANCEL n'étant pas disponible, seule la valeur -1 peut apparaître. Si le bouton OK est
choisi, la variable OptionGroupl prend la valeur 0, 1 ou 2 selon l'option qui est sélectionnée.
response% = Dialog(BreakBox)
La commande ‘Case’ lance les lignes de code à éxécuter selon l’option choisie. Ainsi, ‘Case.nom_var’
permet l'exécution conditionnelle de lignes de code selon la valeur de la variable ‘nom_var’.
Select Case response%
Case -1 'OK button
If BreakBox.OptionGroup1 = 0 Then breaktime = 0
Else If BreakBox.OptionGroup1 = 1 Then breaktime = 3
Else breaktime = 5
End If
End If
Case 0 'Cancel button
MsgBox "Cancel button doesn't exist!"
MACROS D'APHELION
End Select
bt1000 = breaktime * 1000
‘multiplication par 1000, car dans BasicScript, les temps sont en ms
b) AphImgRead copie l'image ‘ceramic.tif’ du disque dur dans l’image ‘original’ créée et initialisée
(i.e., valeur ‘ceramique’) par AphImgNew. Le chemin complet de ‘ceramic.tif’ doit être spécifié.
original = AphImgNew()
original,"c:\Aphelion\Images\ceramic.tif"
c) La commande MsgOpen afficher une chaîne de caractères. Elle est fermée par la commande
‘MsgClose’. La commande ‘Sleep’ génère une pause égale à la valeur de la variable ‘btl000’..
MsgOpen "Composite material in a ceramics matrix", breaktime, False, False
Sleep btl000
MsgClose
d) Affichage de messages, puis Seuillage.
- 1er et 2ème messages : information.
- 3ème message : le système conseille le choix des seuils 1 et 117.
- Seuillage avec la fonction ‘AphImgThreshold’. Cette fonction requiert 3 paramètres d’entrée (i.e.,
noms des images d'entrée et de sortie, et 2 seuils). Vu que les seuils ne sont pas fournis,
l'exécution de la macro s’interrompt pour que l’opérateur donne ces seuils. BasicScript ne
permettant pas d'omettre les premiers paramètres et de spécifier les derniers, il faut ne spécifier
aucun paramètre pour pouvoir entrer interactivement les 1er paramètres. Le seuillage de l'image
‘original’ donne l’image binaire ‘Binary1’. Son nom apparait dans la bannière de la fenêtre.
MsgOpen "The gray level histogram of this image includes two modes", breaktime, False, False
Sleep bt1000
MsgClose
MsgOpen "A threshold will segment the two phases", breaktime, False, False
Sleep btl000
MsgClose
MsgOpen "Specify Low as 1 and High as 117", 0, False, False
Sleep 3000
b1 = AphImgNew("Binaryl")
AphImgThreshold original,b1
Msgclose
MsgOpen "Interactive gray level Thresholding", breaktime, False, False
Sleep btl000
MsgClose
e) L'image ‘Binary1’ inclue des fibres et un fond bruité (i.e., mosaïque de zones foncées plus petites que
les fibres). La dilatation morphologique en niveaux de gris de l'image originale avec
AphImgDilate et un élément structurant de taille comprise entre les fibres et le bruit du fond
élimine donc les pixels les plus foncés. L’emploi de l’élément structurant 3x3 donne l'image ‘Image1’
i1 = AphImgNew("Image1")
AphImgDilate original,i1,AphSE1ement("Square",3)
f) Seuillage (seuils 0 et 117) de l'image dilatée avec AphImgThreshold pour extraire les germes des
fibres. L'image résultat ne contenant plus de bruit de fond, est appelée Binary2.
b2 = AphImgNew("Binary2")
AphImgThreshold i1,b2,AphTreshold(0,117)
g) La fonction AphImgReconstruct est une reconstruction binaire de la 1ère image binaire à partir des
graines de la 2ème image binaire. L'image résultat contient toutes les fibres de la 1ère image binaire
qui avaient au moins une graine dans la 2ème image binaire. Ici, la reconstruction utilise la 4connexité, ce qui signifie que la reconstruction s'effectue de proche en proche en considérant que
chaque pixel a 4 voisins dans les directions 0, 90, 180 et 270 degrés.
b3 = AphImgNew("Binary3")
144
MACROS D'APHELION
AphImgReconstruct b1,b2,b3,graph4C
h) AphImgFree supprime deux images binaires, Binaryl et Binary2, inutiles par la suite.
AphImgFree b1
AphImgFree b2
i) Déconnection de fibres avec l'opérateur AphImgClustersSplitConvex (algorithme de la ligne de
partage des eaux) appliqué à l'image binaire où les fibres sont connectées.
b4 = AphImgNew("Binary4")
AphImgClustersSplitConvex b3, b4, 10, graph4C
j) Remplissage des trous dans les fibres de l'image binaire b4 : AphhImgHoleFill b4, b4, graph8C
k) AphImgBorderKill élimine les objets qui intersectent les bords de l'image (fibres incomplètes),
avec la 4-connexité. Ici, les images d'entrée et de sortie sont identiques.
AphImgBorderKill b4, b4, graph4C
l) Génération de l’image étiquette ‘i1’ par l'opérateur AphlmgClustersToLabels à partir d'une image
binaire, et ici d’une connexité 4. Les étiquettes ont des valeurs entre 1 et le nombre d'objets. Le 1er
objet est le 1er rencontré lors d'un balayage de haut en bas et de gauche à droite.
i1 = AphImgNew("Label")
AphImgClustersToLabels b4, i1, AphNgbGraph("2D 4-connected")
AphImgFree b4
m) Représentation ISR avec AphlingLabelsObj à partir de l’image ‘i1’ : création de l'ensemble
d'objets "Fibers" ; i.e. limites rectangulaires de la région de chaque fibre et nombre de pixels de
chaque fibre, à raison d’une fibre (i.e., étiquette) par ligne de la grille "Fibers".
AphImgLabelsObj i1, AphObjNew("Fibers")
n) Analyse de chaque région et calcul de leur enveloppe convexe à partir de la représentation "Fibers".
AphRegionConvexHullPolygons AphObj("Fibers")
o) AphObjDraw affiche sur l'image ‘original’ les contours des objets Fibers, sous forme polygonale.
AphObjDraw original, AphObj("FIBERS"), "POLYGON"
p) AphObjComputeMeasurements calcule de multiples mesures des éléments de ("Fibers") :
PIXEL COUNT Nombre de pixels dans chaque objet
POLYGON.EXTENTS.LL.X
Coordonnée X du coin en bas à gauche du polygone
POLYGON.EXTENTS.LL.Y
Coordonnée Y du coin en bas à gauche du polygone
POLYGON.EXTENTS.UR.X
Coordonnée X du coin en haut à droite du polygone
POLYGON.EXTENTS.UR.Y
Coordonnée Y du coin en haut à droite du polygone
POLYGON.NUMPOINTS
Nombre de côtés de l'enveloppe convexe de l'objet
REGION.EXTENTS.LL.X
ordonnée X du coin en bas à gauche de la région
REGION.EXTENTS.LL.Y
Coordonnée Y du coin en bas à gauche de la région
REGION.EXTENTS.UR.X
Coordonnée X du coin en haut à droite de la région
REGION.EXTENTS.UR.Y
Coordonnée Y du coin en haut à droite de la région
q) Choix du filtre à appliquer avec la boite de dialogue. Quatre filtres sont proposés en fonction de
quatre paramètres : surface, position, élongation et circularité.
response% = Dialog(FBox)
Select Case response%
Case -1
' OK button
If FBox.surface Then
il = APhImgNew("Surface")
AphImgCopy original, il
145
MACROS D'APHELION
r) Filtrage de l'ensemble des objets de Fibers avec AphObjFilter. Le résultat est stocké dans
l'ensemble d'objets SURFACE. Ici, l’'attribut sur lequel le filtrage est effectué est PIXEL_COUNT.
Les seuils bas et haut sont respectivement égaux à 1000 et 1400.
AphObjFilter AphObj("Fibers"), AphObjNew("SURFACE"), "PIXEL COUNT", 1000, 1400
s) Affichage des objets sur l'image originale: AphObjDraw il, AphObj("SURFACE"), "POLYGON"
t) Filtrage des objets selon leur position dans l'image, ce qui donne un nouvel ensemble d'objets ISR,
nommé ici LOCATION. Comme la valeur d'étiquette la plus petite correspond à l'objet placé le plus
haut dans l'image, il suffit de filtrer selon la valeur de TOKEN_INDEX. Les seuils choisis sont 1 et 10.
If FBox.location Then
i2 = AphImgNew("Location")
AphImgCopy original, i2
AphObjFilter AphObj("Fibers"), AphObjNew("LOCATION"), "TOKEN_INDEX", 1, 10
AphObjDraw i2, AphObj("LOCATION"), "POLYGON"
MsgOpen "Selection of the 10 first fibers", breaktime, False, False
Sleep 2000
MsgClose
End If
Filtrage selon l’élongation des objets. L’élongation doit être calculée sur les régions et non sur les
contours. Les seuils choisis sont 0 et 0.05. Un ensemble d'objets ISR nommé ELONGATION est créé.
If FBox.elongation Then
i3 = AphImgNew("Elongation")
AphImgCopy original, i3
AphRegionShape AphObj("FIBERS"), "REGION"
AphObjFilter Aphobj("FIBERS"), AphObjNew("ELONGATION"), "ELONGATION", 0, 0.05
AphObjDraw i3, AphObj("ELONGATION"), "POLYGON"
MsgOpen "Fibers with élongation between 0 and 0.05", breaktime, False, False
Sleep 2000
MsgClose
End If
Autres filtrages. Filtrage selon la circularité avec AphObjAttributeRatio qui génère 2 attributs par
objet : A1 = AREA / PERIMETER et l’indice de circularité A2 = A1 / PERIMETER = AREA / carré de
PERIMETER. Ici, les 2 seuils sont 0.045 et 0.06. Le résultat s'affiche en le superposant à l'image
initiale. BasicScript permet de créer de nouveaux attributs avec les fonctions dont le nom débute
par AphObj (e.g., AphObjAttributeRatio, AphObjAddAttribute, AphObjSetAttribute).
If FBox.compacity Then
i4 = AphImgNew("Compacity")
AphImgCopy original, i4
AphRegionShape AphObj("FIBERS"), "REGION"
AphObjAttributeRatio AphObj("FIBERS"), "PIXEL COUNT", "PERIMETER", "Al"
AphObjAttributeRatio AphObj("FIBERS"), "Al", "PERIMETER", "A2"
AphObjFilter AphObj("FIBERS"), AphObjNew("COMPACITY"), "A2", 0.045, 0.06
AphObjDraw i4, AphObj("COMPACITY"), "POLYGON"
MsgOpen "Fibers whose shape is close to a circle", breaktime, False, False
Sleep 2000
MsgClose
End If
Case 0
'Cancel button
MsgBox "Cancel button doesn't exist!"
End Select
146
MACROS D'APHELION
u) Boîte de dialogue ‘Abox’ pour supprimer les images et les objets créés par la macro. La variable
OptionGroupl prend la valeur 0 s'il est choisi de supprimer tous les objets et images.
response% = Dialog(ABox)
If ABox.OptionGroupl = 0 Then
AphImgFree original
if (il<>0) then
AphImgFree i1
AphObjFree AphObj("SURFACE")
end if
if (i2<>0) then
AphImgFree i2
AphObjFree Aphobj("LOCATION"I)
end if
if (i3<>O) then
AphImgFree i3
AphObjFree AphObj("ELONGATION"I)
AphImgFree i3
end if
if (i4<>0) then
AphImgFree i4
AphObjFree AphObj("COMPACITY")
end if
AphObj'Free Aphobj("FIBERS")
End If
v) Fin de la macro avec l’appel de la fonction End Sub.
IV. EXEMPLE : Macro "TrPonctuel.apm" (P. Dalle)
La macro "TrPonctuel.apm":
- crée une nouvelle structure image, affiche les catalogues disque, demande à l'utilisateur de
sélectionner une image, puis charge et affiche l'image,
- demande d'entrer un seuil de binarisation en fournissant une valeur par défaut,
- duplique l'image et parcourt ensuite la nouvelle image ligne par ligne en effectuant un traitement (ici
une binarisation) sur chaque pixel de la ligne courante;
- affiche l'image traitée.
Sub main
InImg = AphImgNew() ' Définit une nouvelle structure pour l'image d'entrée
outImg = AphImgNew() ' Définit une nouvelle structure pour l'image de sortie
' ---------------- Chargement de l'image à traiter dans InImg ----------Dim f As String
ChDir ("..\") ' Pour remonter d'un niveau
f$ = OpenFilename$("Sélectionner une image","Fichiers Image: *.*")
If f$ = "" Then MsgBox "Pas d'image sélectionnée ..."
Else AphImgRead InImg, f$
End If
AphImgCopy inImg, outImg
' On duplique l'image
dim size() as long
AphImgGetSize inImg, size
xSize = size(0)
ySize = size(1)
dim row() as double
' Le tableau row contiendra une ligne de pixels
147
MACROS D'APHELION
dim point(2) as long
' Le tableau point contiendra le numéro de la ligne
dim s as Integer
seuil$ = AskBox$("Entrer le seuil de binarisation entre 0 et 255",128,"Seuil")
if seuil$ = "" then s = 128
else
s = CInt(seuil$)
if s < 0 then s = 0
elseif s > 255 then s = 255
end if
end if
dim x as Integer, y as Integer, r as Integer
for y = 0 to ySize -1
' --------- Boucle sur les lignes (coordonnée y) ---------------------point(1) = y
AphImgGetRow inImg, point, row ' chargement de la ligne courante dans row
for x = 0 to xSize -1
' ------------- Traitement de la ligne courante ---------------r = row(x)
if r < s then row(x) = 0 else row(x) = 255
next x
AphImgSetRow outImg, point, row 'sauvegarde de la ligne traitée dans l'image de sortie
next y
AphImgCopy outImg, outImg ‘ Copie de l'image pour réafficher l'image dans l'interface GUI
MsgBox "Image binarisée avec un seuil de " & s ,ebOKOnly, "Résultat"
Begin Dialog OuiNonDialog ,,180,48," Sauvegarde "
' Boite de dialogue pour libérer les images
OKButton 132,8,40,14
GroupBox 4,20,108,24,"",.GroupBox1
Text 4,8,108,8,"Effacer toutes les images ?",.Text1
OptionGroup .OptionGroup1
OptionButton 16,32,32,8,"OUI",.OptionButton1
OptionButton 72,32,32,8,"NON",.OptionButton2
End Dialog
Dim FreeImagesBox As OuiNonDialog
response% = Dialog(FreeImagesBox) ' Ouvrir la boite de dialogue pour effacer ou non les images
If FreeImagesBox.OptionGroup1 = 0 Then AphImgFree inImg
End If
End Sub
148
MACROS D'APHELION
149
V. EXEMPLE : "Macro “DemoDialog.apm”
Function DlgCallback(controlname$, action%, suppvalue%) As Integer
Const crlf = Chr$(13) + Chr$(10)
Select Case action
Case 2
Select Case controlname
Case "PushButton1"
DlgCallBack = False
Case "PushButton2"
DlgCallback = False
……………………………..
Case "PushButton9"
DlgCallback = False
Case "Close"
DlgCallback = False
' Help buttons
Case "Helpbutton"
str1 = "Aphelion: The Image Processing and Image Understanding" & crlf _
& "software product to solve basic and complex imaging." & crlf & "applications" _
& crlf & crlf & "Click on one image name to see the image" & crlf _
& "and click on the ? to get a description of the application."
Msg.Open str1, 400, FALSE, FALSE, 7500, 4000
Sleep 8000
Msg.Close
DlgCallBack = True
Case "PushButton11"
str1 = "Blood cells." & crlf & crlf &_
"The purpose of the application is to detect, count and" & crlf & "measure the cells"
Msg.Open str1, 400, FALSE, FALSE, 7500, 4000
Sleep 5000
Msg.Close
DlgCallBack = True
………………………………..
Case "PushButton19"
str1 = "Food processing." & crlf & crlf _
& "This image of raisins from Corinthia has to be analyzed." & crlf _
& "The shape and size of each grain has to be computed."
Msg.Open str1, 400, FALSE, FALSE, 7500, 4000
Sleep 5000
Msg.Close
DlgCallBack = True
End Select
End Select
End Function
'
Sub Main
'-------------------------- Declarations : Main User Dialog Definition ------------------------------Begin Dialog DemoMenu 1,19,318,238,"Aphelion Demonstrations", .DlgCallBack
Picture 12,8,76,68,AphInstallationPath() + "\Macros\Graphics\Aphlogo.bmp",0,.Picture1,1
……………………………………………………………………………………………….
Picture 248,159,52,52,AphInstallationPath() + "\Macros\Graphics\Raisins.bmp",0,.Picture11,1
PushButton 112,64,40,12,"Blood",.PushButton1
PushButton 180,64,40,12,"Bronze",.PushButton2
…………………………………………………….
PushButton 248,216,40,12,"Raisins",.PushButton9
PushButton 12,88,36,14,"Help",.Helpbutton
PushButton 52,88,36,14,"Close", .Close
PushButton 152,64,12,12,"?",.PushButton11
PushButton 220,64,12,12,"?",.PushButton12
………………………………………………
MACROS D'APHELION
150
PushButton 288,216,12,12,"?",.PushButton19
End Dialog
Dim GetDemo As DemoMenu
'******************** MAIN PROGRAM *************************
'---------- Open the main menu and allow user to select demo to run -----i = TRUE
While i
response% = Dialog(GetDemo)
'----------------------------- Clean up and go home -----------------Select Case response%
Case 1 ' Blood demo
retVal = AphRunMacro(AphInstallationPath() + "/macros/blood.apm")
'inputIm = AphImgNew("Image 0")
'AphImgRead inputIm, "C:\Aphelion\images\blood.tif"
str1 = "Blood demo terminated."
Msg.Open str1, 400, FALSE, FALSE, 7500, 4000
Sleep 3000
Msg.Close
………
Case 9 ' Raisin demo
retVal = AphRunMacro(AphInstallationPath() + "/examples/RegionRotate.apm")
'inputIm = AphImgNew("Image 0")
'AphImgRead inputIm, "C:\Aphelion\images\raisins1.tif"
str1 = "Raisin demo terminated."
Msg.Open str1, 400, FALSE, FALSE, 7500, 4000
Sleep 3000
Msg.Close
Case 11
i = False
End Select
AphImgFreeAll
Wend
End Sub