Reconnaissance, extraction et classification semi

Transcription

Reconnaissance, extraction et classification semi
TRAVAIL DE DIPLOME
Photogrammétrie et traitement d’image
Reconnaissance, extraction et classification semi-automatique de la
végétation, des forêts, des éboulis et des glaciers dans les images
ADS40 en utilisant toutes les bandes spectrales (R, V, B, PIR)
Rapport
par
Julien Fabing
Pièce n°1
17 Décembre 2007
Professeur responsable :
François Gervaix
Répondant externe :
Stéphane Bovet
Sujet proposé par :
Swisstopo
Travail de diplôme 2007
HEIG-VD
Avant propos
« Ce n'est pas une image juste, c'est juste une image »
Photogrammétrie et traitement d’image
i
Godard, Vent d'Est (1969)
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Résumé
La couverture du sol est un élément essentiel pour appréhender un espace géographique,
en particulier dans un modèle du territoire tel que Vector25 ou le futur Modèle Topographique du Paysage (MTP / TLM). Les informations contenues dans de tels
modèles doivent être à la fois précises, détaillées et actuelles.
Depuis 2005, Swisstopo dispose d'une nouvelle technologie pour l'acquisition d'images
aériennes: l'ADS40. Cet outil permet d'acquérir simultanément des images dans les
domaines panchromatique, couleur et proche infrarouge.
Le but de ce travail de diplôme était d’étudier le potentiel des images aériennes ADS40
pour l’extraction semi-automatique de la couverture du sol. En particulier, l’accent a été
mis sur l’extraction du domaine boisé (forêts, arbres). Les contraintes étaient que les
méthodes à tester et à développer devaient être simples, rapides et efficaces sur de
larges zones de terrain afin d’être le plus productives possible.
Le travail présente des méthodes existantes et développe des méthodes nouvelles de
reconnaissance, de restitution et de classification et fournit des indications quant à la
faisabilité et la productivité de ces méthodes.
Il ressort de cette étude qu’en utilisant des outils simples de classification non
supervisée, on arrive à séparer les forêts du reste du paysage avec environ 90% de
pixels
bien
classés.
Ce
résultat
est
encore
amélioré
grâce
à
des
méthodes
supplémentaires basées sur l’indice NDVI, le MNH ou le filtrage des pixels.
Cependant, ce résultat n’est valable que pour des images acquises en été. La détection
des forêts au printemps se révèle beaucoup plus difficile à cause d’une trop grande
confusion entre la végétation environnante et les feuillus.
D’autre part, même en été, les méthodes utilisées ne permettent pas d’éliminer
suffisamment les fautes. L’extraction semi-automatique reste moins compétitive qu’une
saisie entièrement manuelle à cause du temps de reprise des données qui est trop long.
Quoiqu’il en soit, les méthodes utilisées lors de ce travail trouveront certainement
d’autres applications à un niveau plus local par exemple en foresterie, avec la
classification et la cartographie de différents types d’arbres à l’intérieur d’une forêt.
Mots-clés : HEIG-VD, Swisstopo, ADS40, reconnaissance, extraction, classification, forêt.
Photogrammétrie et traitement d’image
ii
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Abstract
The land cover is essential to apprehend a geographical space, especially in territory
models like Vector25 or the future “Modèle Topographique du Paysage” (Topographic
Landscape Model, MTP/TLM). The information contained in these models must be
accurate detailed and updated.
Since 2005, Swisstopo use a new aerial images acquisition technology: the ADS40. With
this camera, it is possible to capture simultaneously panchromatic, color and near
infrared images.
The goal of this study was to evaluate the potential of ADS40 aerial images for semiautomatic extraction of land cover. In particular, the study was focused on extracting the
wooded area (forests, trees). The constraints were that the methods to test and develop
should be simple, quick and effective over large areas of land in order to be as productive
as possible.
The work presents existing methods and develops new methods of recognition,
restitution and classification and provides indications about feasibility and productivity of
these methods.
This study shows that it is possible to separate forest from the rest of the landscape with
approximately 90% of pixels well ordered by using simple unsupervised classification
tools. This result is further improved by using additional methods based on NDVI, DEM
and pixel filtering.
However, this result is only valid for images acquired in summer. In spring, the forests
detection is much more difficult because there is too much confusion between
surrounding vegetation and trees.
On the other hand, even in summer, the methods used are not sufficient to eliminate all
the mistakes. The semi-automatic extraction remains less competitive than a fully
manual extraction due to the time of data correction which is too long.
Nevertheless, methods used during this work will no doubt find other applications at a
more local level, for example, in forestry, with classification and mapping of different
types of trees inside a forest.
Keywords : HEIG-VD, Swisstopo, ADS40, detection, extraction, classification, forest.
Photogrammétrie et traitement d’image
iii
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Table des matières
Avant propos ....................................................................................................... i
Résumé .............................................................................................................. ii
Abstract ............................................................................................................. iii
Table des matières ............................................................................................ iv
Liste des figures ............................................................................................... vii
Liste des tableaux ............................................................................................. ix
Liste des annexes ............................................................................................... x
Introduction ....................................................................................................... 1
1 Principes de base............................................................................................. 6
1.1 LA TELEDETECTION ................................................................................................................. 6
1.2 LES IMAGES............................................................................................................................. 6
1.3 LES COMPOSITIONS COLOREES ............................................................................................... 6
1.4 LE PRETRAITEMENT DES IMAGES ............................................................................................ 6
1.5 LA CLASSIFICATION DES IMAGES ........................................................................................... 7
1.6 LE POST-TRAITEMENT ............................................................................................................. 7
2 Données et logiciels ......................................................................................... 8
2.1 DONNEES................................................................................................................................. 8
2.1.1 Caméra ADS40 .....................................................................................................................8
2.1.2 Jeu de données « Sargans-Rheintal » .................................................................................... 10
2.1.3 Jeu de données « Thun » ..................................................................................................... 11
2.1.4 Jeu de données « Romanshorn » ......................................................................................... 12
2.2 LOGICIELS............................................................................................................................. 14
2.2.1 ERDAS IMAGINE 9.1............................................................................................................ 14
2.2.2 ERMapper Professional 7.1 ................................................................................................... 14
2.2.3 Geomatica 10.0 .................................................................................................................. 14
2.2.4 Definiens Developper 7.0 ..................................................................................................... 14
2.2.5 Feature Analyst .................................................................................................................. 15
2.2.6 Remarque concernant ERDAS IMAGINE et ERMapper............................................................... 15
2.2.7 Comparaison des logiciels .................................................................................................... 15
2.2.8 Conclusion partielle ............................................................................................................. 15
3 Démarche ...................................................................................................... 16
3.1 PREPARATION DES DONNEES DANS GPRO ............................................................................ 16
3.1.1 Traitement radiométrique .................................................................................................... 16
3.1.2 Rééchantillonnage............................................................................................................... 17
3.1.3 Problèmes avec le logiciel GPro............................................................................................. 17
3.1.4 Choix effectués ................................................................................................................... 18
3.2 FILTRAGE DES DONNEES DANS ERDAS IMAGINE................................................................... 19
3.2.1 Filtrage des pixels de valeur 16 ............................................................................................ 19
Photogrammétrie et traitement d’image
iv
Julien Fabing
Travail de diplôme 2007
HEIG-VD
3.2.2 Création d’images spatialement équivalentes.......................................................................... 19
3.2.3 Implémentation des deux prétraitements ............................................................................... 20
3.3 DEFINITION D’UNE IMAGE REFERENCE ................................................................................. 21
3.4 CALCUL D’UNE IMAGE NDVI................................................................................................... 22
3.5 DEFINITION D’OUTILS D’ANALYSE........................................................................................ 23
3.5.1 Outil de création d’une image servant à l’évaluation d’une classification..................................... 23
3.5.2 Coefficient Kappa ................................................................................................................ 25
3.6 TESTS DE CLASSIFICATIONS ................................................................................................. 26
3.7 PROPOSITIONS D’AMELIORATIONS ...................................................................................... 26
3.8 EVALUATION DES PROCESSUS............................................................................................... 26
4 Tests de classification ................................................................................... 27
4.1 CLASSIFICATION SUPERVISEE .............................................................................................. 27
4.1.1 Méthode ............................................................................................................................ 27
4.1.2 Influence du nombre de zones d’entraînement........................................................................ 27
4.1.3 Conclusion partielle ............................................................................................................. 28
4.2 CLASSIFICATION NON SUPERVISEE ...................................................................................... 29
4.2.1 Méthode ............................................................................................................................ 29
4.2.2 Analyse selon le nombre de classes et le type d’image............................................................. 29
4.2.3 Analyse selon la résolution des images .................................................................................. 31
4.2.4 Analyse selon la nature de l’occupation du sol ........................................................................ 32
4.2.5 Inventaire des objets mal classés.......................................................................................... 33
4.2.6 Comparaison entre deux bandes d’images différentes d’un même vol ........................................ 34
4.2.7 Comparaison entre deux images provenant de deux époques différentes ................................... 36
4.2.8 Images volées en avril à haute résolution ............................................................................. 39
4.2.9 Conclusion partielle ............................................................................................................. 41
4.3 CLASSIFICATION PAR BASE DE CONNAISSANCE ................................................................... 41
4.4 CONCLUSION PARTIELLE....................................................................................................... 42
5 Propositions d’améliorations ......................................................................... 43
5.1 PRETRAITEMENTS ................................................................................................................. 43
5.1.1 Influence de la qualité du MNT lors de la rectification sur le résultat .......................................... 43
5.1.2 Apport des données SH52 pour la classification....................................................................... 44
5.1.3 Travail sur des images 8 bits ou 16 bits ................................................................................. 45
5.1.4 Détection et correction/atténuation des ombres à priori ........................................................... 46
5.2 TRAITEMENTS COMPLEMENTAIRES ....................................................................................... 48
5.2.1 Classification par texture ..................................................................................................... 48
5.3 POST-TRAITEMENTS .............................................................................................................. 48
5.3.1 Elimination du bruit avec des opérateurs morphologiques ........................................................ 48
5.3.2 Elimination des bâtiments avec l’aide du NDVI....................................................................... 50
5.3.3 Elimination de certains champs et des ombres, apport du MNH................................................. 51
5.4 PROPOSITIONS SUPPLEMENTAIRES ...................................................................................... 52
5.4.1 Elimination des ombres par classifications successives............................................................. 52
5.4.2 Classification « multi-échelle ».............................................................................................. 53
5.5 RESULTAT.............................................................................................................................. 55
5.6 CONCLUSION PARTIELLE....................................................................................................... 56
6 Evaluation des méthodes ............................................................................... 57
6.1 DONNEES............................................................................................................................... 57
6.2 PROCEDURE........................................................................................................................... 57
Photogrammétrie et traitement d’image
v
Julien Fabing
Travail de diplôme 2007
HEIG-VD
6.3 RESULTAT.............................................................................................................................. 58
6.4 REPRISE DES DONNEES ......................................................................................................... 59
6.5 CONCLUSION PARTIELLE....................................................................................................... 60
Conclusion et perspectives ............................................................................... 61
Bibliographie .................................................................................................... 65
Remerciements................................................................................................. 70
Mandat ............................................................................................................. 71
Photogrammétrie et traitement d’image
vi
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Liste des figures
Figure 1 : Problèmes de mises à jour et de généralisation .........................................................................1
Figure 2 : Apport du proche infrarouge ...................................................................................................2
Figure 3 : Etalement de l’histogramme d’une image ADS40 16 bits sur une zone de forêt..............................3
Figure 4 : Une image ADS40 (25 cm) superposée à une image SPOT (5 m) .................................................3
Figure 5 : Résultat d’une classification orientée objet [17].........................................................................4
Figure 6 : La caméra ADS40 [13] ...........................................................................................................8
Figure 7 : Principe d'acquisition des images [14] ......................................................................................8
Figure 8 : PAN/RVB/PIR/CIRF [14] ........................................................................................................8
Figure 9 : Situation « Sargans-Rheinthal » ............................................................................................ 10
Figure 10 : Les huit bandes de vol........................................................................................................ 10
Figure 11 : Vol ADS40 en configuration SH40 ........................................................................................ 11
Figure 12 : Situation Thun .................................................................................................................. 11
Figure 13 : Thun premier vol (mois d’avril)............................................................................................ 12
Figure 14 : Thun second vol (mois de mai)............................................................................................ 12
Figure 15 : Situation Romanshorn ........................................................................................................ 12
Figure 16 : Les trois vols sur Romanshorn............................................................................................. 13
Figure 17 : Vol ADS40 en configuration SH52 ........................................................................................ 13
Figure 18 : Courbe de calibration ......................................................................................................... 16
Figure 19 : Résumé de la génération des images L2 dans GPro ................................................................ 18
Figure 20 : Différence de couverture entre les images ............................................................................ 19
Figure 21 : Images spatialement équivalentes ....................................................................................... 20
Figure 22 : Saisie manuelle des zones de forêt ...................................................................................... 21
Figure 23 : Création de l'image de référence ......................................................................................... 22
Figure 24 : Image NDVI ...................................................................................................................... 23
Figure 25 : Erreur de première et de seconde espèce ............................................................................. 23
Figure 26 : Création de l’image synthétique « analyse de la classification » ............................................... 24
Figure 27 : Bonne et mauvaise zone d'entrainement............................................................................... 27
Figure 28 : Influence du type et du nombre de zones d'entrainement ....................................................... 28
Figure 29 : Configuration classification non supervisée............................................................................ 29
Figure 30 : Classification, identification et regroupement des classes........................................................ 29
Figure 31 : Pourcentage de pixels bien classés selon le nombre de classes et le type d’image ...................... 30
Figure 32 : Coefficient Kappa selon le nombre de classes et le type d'image .............................................. 30
Figure 33 : Analyse selon la résolution des images ................................................................................. 31
Figure 34 : Classification GSD 5 m et GSD 1 m ...................................................................................... 31
Figure 35 : Zone forestière et zone urbaine ........................................................................................... 32
Figure 36 : Analyse selon le type d'occupation du sol.............................................................................. 32
Figure 37 : Confusion avec les champs de Maïs...................................................................................... 33
Figure 38 : Confusion avec les ombres.................................................................................................. 33
Figure 39 : Confusion avec les toits ...................................................................................................... 33
Figure 40 : Confusion avec des zones herbeuses sombres ....................................................................... 34
Figure 41 : Zones exposées au soleil .................................................................................................... 34
Figure 42 : Confusion avec certains types de feuillus .............................................................................. 34
Photogrammétrie et traitement d’image
vii
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Figure 43 : Histogrammes des images 1024 et 1031 .............................................................................. 35
Figure 44 : Comparaison classifications................................................................................................. 35
Figure 45 : Différences dues aux dévers des arbres................................................................................ 36
Figure 46 : Zone de test Thun ............................................................................................................. 37
Figure 47 : Résultat après regroupement .............................................................................................. 37
Figure 48 : Séparation difficile des feuillus et de l'herbe (Thun) ............................................................... 38
Figure 49 : Séparation facile des feuillus et de l'herbe (Sargans).............................................................. 39
Figure 50 : Images RVB et CIRF GSD 25 cm.......................................................................................... 39
Figure 51 : Problème des images volées en avril .................................................................................... 40
Figure 52 : Classification par base de connaissances............................................................................... 41
Figure 53 : Diminution du dévers longitudinal ........................................................................................ 43
Figure 54 : Légère diminution transversale des ombres portées ............................................................... 43
Figure 55 : Amélioration de la précision ................................................................................................ 44
Figure 56 : Canaux PIR, R, V, B parfaitement superposés au nadir (GSD : 25 cm) ..................................... 44
Figure 57 : Différence entre les classifications 8 bits et 16 bits................................................................. 45
Figure 58 : Différence entre les classifications après regroupement .......................................................... 46
Figure 59 : Pourcentage de pixels bien classés après regroupement ......................................................... 46
Figure 60 : Modification de la radiométrie.............................................................................................. 47
Figure 61 : Correction des ombres d'après [41] ..................................................................................... 47
Figure 62 : Correction des ombres d'après [43] ..................................................................................... 47
Figure 63 : Analyse de texture............................................................................................................. 48
Figure 64 : Ouverture dans IMAGINE.................................................................................................... 48
Figure 65 : Processus de filtrage des pixels (1 m) .................................................................................. 49
Figure 66 : Processus de filtrage des pixels (5 m) .................................................................................. 49
Figure 67 : Elimination des bâtiments ................................................................................................... 50
Figure 68 : Création du MNH ............................................................................................................... 51
Figure 69 : Utilisation complémentaire du MNH...................................................................................... 51
Figure 70 : Elimination des ombres par classification successives, une itération ......................................... 52
Figure 71 : Superposition de classifications 1 m et 5 m ........................................................................... 53
Figure 72 : Classification "multi-échelle" ............................................................................................... 54
Figure 73 : Evaluation des trois méthodes dans un cas défavorable .......................................................... 58
Figure 74 : Données à reprendre manuellement selon la méthode............................................................ 59
Figure 75 : Image, saisie manuelle, extraction semi-automatique, erreurs ................................................ 60
Figure 76 : Séparation des feuillus et des épineux (Sargans, 28 juillet 2005)............................................. 63
Figure 77 : Séparation des feuillus et des épineux (Thun, 26 mai 2005).................................................... 63
Photogrammétrie et traitement d’image
viii
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Liste des tableaux
Tableau 1 : Comparaison sommaire des logiciels.................................................................................... 15
Tableau 2 : Exemple fictif pour le calcul du coefficient Kappa .................................................................. 26
Tableau 3 : Influence du type et du nombre de zones d'entrainement....................................................... 28
Tableau 4 : Résultat de la comparaison................................................................................................. 36
Tableau 5 : Apport des opérateurs morphologiques ................................................................................ 49
Tableau 6 : Synthèse des propositions d'amélioration ............................................................................. 55
Photogrammétrie et traitement d’image
ix
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Liste des annexes
Annexe 1 : Problèmes avec GPro ...................................................................................................... II
Annexe 1.1 : Problème selon la résolution des images......................................................................... II
Annexe 1.2 : Problème de la fonction auto rotation............................................................................ III
Annexe 1.3 : Problème de rééchantillonnage avec la fonction Fast Rectification ..................................... IV
Annexe 1.4 : Problème des images de base fortement chahutées ....................................................... VII
Annexe 1.5 : Problème des pixels qui ne sont pas à zéro dans les bandes noires ................................. VIII
Annexe 2 : Comparaison sommaire des logiciels ..............................................................................IX
Annexe 3 : Fonction filtrage des pixels .............................................................................................. X
Annexe 4 : Fonction seuillage de l’image référence ........................................................................ XII
Annexe 5 : Fonction création d’une image d’analyse .....................................................................XIII
Annexe 6 : Calcul de l’image NDVI................................................................................................... XV
Annexe 7 : Prétraitement images 16 bits et 8 bits ........................................................................ XVII
Annexe 8 : Image NDVI binaire ......................................................................................................XIX
Annexe 9 : Fonction multiplication .................................................................................................. XX
Annexe 10 : MNH à partir de MNS et MNT .......................................................................................XXI
Annexe 11 : Image classifiée et MNH ........................................................................................... XXII
Annexe 12 : Image et masque .....................................................................................................XXIII
Annexe 13 : Somme 5 images.......................................................................................................XXIV
Annexe 14 : Classifications supervisées 5 m Sargans .................................................................... XXV
Annexe 15 : Classifications non supervisées 5 m Sargans ............................................................XXVI
Annexe 16 : Classifications non supervisées 1 m Sargans .......................................................... XXVII
Annexe 17 : Zone forêt / Zone urbaine Sargans ....................................................................... XXVIII
Annexe 18 : Classifications sur deux images différentes d’un même vol Sargans.........................XXIX
Annexe 19 : 8 bits /16 bits Sargans .............................................................................................. XXX
Annexe 20 : Test des trois méthodes Sargans ..............................................................................XXXI
Annexe 21 : Planning.................................................................................................................. XXXII
Photogrammétrie et traitement d’image
x
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Introduction
La couverture du sol est un élément essentiel pour appréhender un espace géographique,
en particulier dans un modèle du territoire tel que Vector25 ou le futur Modèle
topographique du Paysage (MTP / TLM). Les informations contenues doivent être à la fois
précises, détaillées et actuelles. Depuis 2005, Swisstopo dispose d’une nouvelle
technologie pour l’acquisition d’images aériennes : L’ADS40. Cet outil permet d’acquérir
simultanément des images dans les domaines panchromatique, couleur et proche infra
rouge. Cette nouvelle capacité doit permettre une classification automatisée, précise,
détaillée et rapide de divers éléments de couverture du sol. [1]
Dans le cadre de ce travail, l’intérêt sera plus particulièrement porté sur l’extraction du
milieu boisé (forêt, zones boisées, arbres). En effet, dans les cartes Swisstopo et par
extension dans des modèles vectoriels tels que Vector25, cette thématique est présente
et très importante car c’est un élément visuel de situation immédiatement reconnaissable
par l’utilisateur. Cependant, la mise à jour de cette thématique est pour des raisons
économiques très sporadique (uniquement lorsqu’un déplacement significatif de la limite
forestière est constaté) et relativement grossière à cause du processus de généralisation
cartographique (figure 1).
Figure 1 : Problèmes de mises à jour et de généralisation
On peut noter par exemple sur l’image aérienne récente à gauche une zone déboisée (en
rouge) qui n’a pas encore été mise à jour sur la carte nationale. On peut aussi remarquer
deux groupes d’arbres (en vert et en bleu) dont la modélisation et les géométries ont été
extrêmement simplifiées par rapport à la réalité.
Photogrammétrie et traitement d’image
1
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Si dans la plupart des cas, cette information « grossière » est amplement suffisante, les
utilisateurs sont toujours plus demandeurs en matière de précision et d’actualité de ce
type de données et ce pour de nombreuses applications. Par exemple, la Suisse a signé
les accords de Kyoto sur la réduction de la production de gaz à effet de serre, aussi dans
ce contexte, une connaissance précise, détaillée et à jour de la couverture forestière du
territoire peut être un élément déterminant pour l’évaluation du respect des quotas
d’émission de CO2. L’extraction semi-automatique de la forêt peut aussi se révéler un
outil supplémentaire dans le cadre du projet SAU qui consiste à actualiser les surfaces
agricoles utiles. L’imagerie aérienne avec ces mises à jour fréquentes semble bien
adaptée pour ce type de travail.
Actuellement, Swisstopo se contente d’utiliser les images ADS40 de la même manière
qu’étaient utilisés précédemment les films scannés. Seuls les canaux panchromatiques et
couleurs (rouge, vert et bleu) sont utilisés pour l’extraction vectorielle stéréoscopique ou
pour la production d’orthophotos par exemple. Swisstopo n’exploite donc pas pleinement
pour le moment tous les avantages de l’ADS40 et en particulier la présence d’un canal
PIR (proche infra-rouge). Ce canal du domaine invisible peut se révéler important dans la
perspective de la détection du domaine boisé. En effet, la réflexion dans le proche infrarouge
de
la
végétation
met
particulièrement
bien
en
évidence
son
activité
chlorophyllienne. Cela permet en particulier de bien différencier la végétation du reste du
paysage mais aussi de distinguer plusieurs types de végétation et notamment d’arbres.
Par exemple, on arrive plus facilement à distinguer les feuillus (en rose/rouge) des
conifères (en violet) sur l’image fausse couleur (PIR, R, V) que sur l’image couleur
classique (RVB) présentées dans la figure 2.
Figure 2 : Apport du proche infrarouge
Photogrammétrie et traitement d’image
2
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Un autre avantage probable de l’ADS40 est de pouvoir acquérir des images codées sur
16 bits et donc dans une gamme de couleurs (65536 couleurs par canal) bien plus
étendue que les classiques images aériennes 8 bits (256 couleurs par canal). On peut
donc émettre l’hypothèse que cela permettra de mieux distinguer certains objets ; en
tout cas, c’est le cas visuellement.
Figure 3 : Etalement de l’histogramme d’une image ADS40 16 bits sur une zone de forêt
Enfin, un dernier avantage potentiel est la haute résolution spatiale offerte par les
images ADS40 (25 cm à 50 cm) et l’absence de couverture nuageuse par rapport à des
images satellites classiques.
Figure 4 : Une image ADS40 (25 cm) superposée à une image SPOT (5 m)
Photogrammétrie et traitement d’image
3
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Les images ADS40 semblent donc à priori une solution intéressante pour la détection et
l’extraction détaillée de la forêt et de nombreux autres éléments de la couverture du sol.
Plusieurs études ont déjà été réalisées dans ce sens, en particulier au niveau des images
satellites, mais aussi au niveau des images ADS40 avec d’excellents résultats, surtout
avec les nouvelles approches orientées objet qui permettent de distinguer jusqu’aux
différents types de cultures (voir figure 5).
Figure 5 : Résultat d’une classification orientée objet [17]
Cependant, ces méthodes de classification automatique orientées objet sont complexes
et longues à paramétrer et le résultat obtenu, bien que très bon, est le fruit de nombreux
essais successifs. De plus, des données supplémentaires comme le MNH ou des données
vecteurs doivent
être
utilisées en
combinaison
avec l’image pour améliorer la
classification. D’autre part, le résultat se limite en général à de très petites zones et n’est
pas applicable directement sur d’autres images car une configuration spécifique à chaque
image est utilisée. Enfin, ce type de résultat est bien trop détaillé par rapport aux besoins
de Swisstopo.
Les objectifs de Swisstopo s’inscrivent avant tout dans un contexte de productivité.
L’intérêt de ce travail est donc d’étudier la possibilité d’obtenir un résultat certes moins
détaillé au niveau de la couverture du sol mais par des procédés plus simples, plus
rapides et peu gourmands en termes de ressources. Ces méthodes doivent en outre être
valables sur de grandes zones de terrain (par exemple une ligne de vol ADS40 entière)
mais aussi sur des images dont la couverture du sol est sensiblement différente (par
exemple une ligne de vol sur une zone très urbaine et une ligne de vol sur une zone très
Photogrammétrie et traitement d’image
4
Julien Fabing
Travail de diplôme 2007
HEIG-VD
forestière). Enfin, la part de supervision et de reprise manuelle des fautes engendrées
par le traitement automatisé ne doit pas être trop importante pour que le processus reste
plus productif qu’un traitement entièrement manuel.
Dans un premier temps, l’étude portera sur la possibilité d’extraire les forêts. Puis, dans
un deuxième temps, selon les résultats obtenus, sur la possibilité de séparer les feuillus
et les épineux.
Le premier chapitre de ce document évoque brièvement quelques principes de base de la
télédétection et de la classification des objets.
Le second chapitre présente les données et logiciels utilisées dans le cadre de ce travail.
Le troisième chapitre expose la démarche utilisée pour réaliser ce travail.
Le quatrième chapitre fait état des différents tests de classification et des résultats
obtenus.
Le cinquième chapitre décrit les éléments de prétraitement et de post-traitement testés
susceptibles ou non d’améliorer le processus.
Le sixième chapitre rend compte de l’évaluation des méthodes mis en œuvre.
Enfin le dernier chapitre conclut ce rapport et met en avant les perspectives offertes par
cette étude.
Photogrammétrie et traitement d’image
5
Julien Fabing
Travail de diplôme 2007
HEIG-VD
1 Principes de base
Dans ce chapitre sont évoqués brièvement quelques principes de base.
1.1 La télédétection
La télédétection (remote sensing) regroupe un ensemble de techniques ayant pour
objectif d’étudier la surface de la terre par l’analyse et l'interprétation des images
recueillies à partir d'avions ou de satellites par exemple. Elle utilise les propriétés des
ondes électromagnétiques émises ou réfléchies par les objets sur le terrain.
1.2 Les images
Une image est une représentation bidimensionnelle, ou plus simplement une matrice.
Chaque élément de la matrice représente un pixel. Une image multispectrale est une
image qui comprend plusieurs canaux. C’est donc une matrice dont chaque élément
possède n valeurs (n étant le nombre de canaux). Ces n valeurs forment un vecteur
représentant la signature spectrale de chaque pixel.
1.3 Les compositions colorées
Pour afficher une image sur un écran d’ordinateur, la plupart du temps, on associe
respectivement les canaux rouge, vert et bleu de l’écran aux canaux rouge, vert et bleu
du capteur. Ainsi l’image affichée à l’écran correspond à ce qu’un observateur aurait vu
de ses yeux au moment de la prise de vue. Les objets ont la « même » couleur sur
l’image que dans la réalité. Il est cependant possible de réaliser des compositions
colorées appelées aussi images fausse couleur. Pour cela on assigne aux canaux
spectraux des couleurs d’affichages qui ne leur correspondent pas. Ces compositions
colorées peuvent s’avérer très utiles pour la photo-interpretation notamment en affichant
des canaux du domaine invisible.
1.4 Le prétraitement des images
Quel que soit le type de caméra et le mode d’acquisition utilisé, on ne travaille
généralement
jamais
directement
avec
les
données
brutes.
Des
corrections
radiométriques et géométriques sont nécessaires. Les images brutes n’exploitent souvent
pas toute la plage radiométrique d’une image et il est donc courant de procéder à un
étalement de la dynamique de l’image ce qui améliore son contraste. Des corrections
géométriques sont également nécessaire pour rendre superposable l’image à n’importe
quel
produit
possédant
une
géoréférence.
L’orthorectification
est
la
correction
géométrique rigoureuse des déformations de l’image dues au relief et aux conditions de
Photogrammétrie et traitement d’image
6
Julien Fabing
Travail de diplôme 2007
HEIG-VD
la prise de vue. Cette correction nécessite d’avoir recours à un modèle numérique du
terrain.
1.5 La classification des images
Effectuer une classification des images consiste à réaliser une partition du territoire selon
la nature des objets. Pratiquement, il s’agit de réaliser une partition de l’espace
radiométrique en un nombre de classes prédéfini (par exemple forêt, urbain, champs…).
C’est donc une abstraction de l’image de base dont le nombre de classes radiométriques
est réduit par rapport à la radiométrie originale. Il est possible d’effectuer une
classification manuelle : un opérateur identifie visuellement les différents éléments sur
l’image et les saisit dans des couches spécifiques selon leur nature. C’est une opération
relativement longue à mettre en œuvre mais qui reste toujours la plus utilisée. Il existe
aussi des méthodes plus ou moins automatisées de classification.
La classification non supervisée est une méthode généralement utilisée pour l’analyse
d’image quand aucune donnée de terrain n’est disponible (comportement spectral des
objets composant l’image non connu). Avec cette méthode c’est la machine qui grâce à
des algorithmes de détection des groupements naturels de vecteurs spectraux classe au
mieux les pixels selon un nombre de classes défini par l’utilisateur. L’utilisateur doit
ensuite identifier visuellement les classes et éventuellement les regrouper.
La classification supervisée fonctionne de la même manière que la classification non
supervisée à ceci près que les limites ou seuils des groupements sont imposées par
l’utilisateur par le biais de zones d’entrainement. Ces zones d’entrainement sont des
zones échantillons saisies sur l’image représentant une classe recherchée. Chaque pixel
est affecté à une classe selon un critère de ressemblance. Si un pixel appartient à deux
classes à la fois, il est affecté à la classe la plus semblable.
1.6 Le post-traitement
Suite à une classification, il reste généralement des pixels mal classés isolés. Il convient
donc de les réassocier à une classe. Pour cela on peut utiliser des outils de filtrages. Le
plus simple est le filtre majoritaire qui consiste à attribuer à chaque pixel la valeur qui est
majoritaire dans ses huit pixels voisins. Cependant, ce filtre modifie tous les contours de
l’image. On lui préfèrera souvent les filtres d’érosion et de dilatation de la morphologie
mathématique ou encore l’ouverture et la fermeture qui sont des combinaisons de ces
filtres et qui permettent d’éliminer les pixels isolés, combler les trous et lisser les
contours tout en conservant la plupart du temps la taille et la forme des objets.
Ce chapitre a été inspiré par les références suivantes: [4][8][9][11]
Photogrammétrie et traitement d’image
7
Julien Fabing
Travail de diplôme 2007
HEIG-VD
2 Données et logiciels
Dans ce chapitre sont présentés les diverses données et les logiciels utilisés et évalués
lors de ce travail.
2.1 Données
2.1.1 Caméra ADS40
Développée par LEICA Geosystems, l’ADS40 est la toute
dernière génération de caméra aérienne fonctionnant avec
un capteur numérique à barette de type « push broom »
s’inspirant des technologies de l’imagerie satellitaire.
Figure 6 : La caméra ADS40 [13]
Figure 7 : Principe d'acquisition des images [14]
Grâce à ce système « push broom », l’ADS40 peut acquérir des bandes d’images de
12000 pixels de large sur de très grandes longueurs (dépendant ensuite de la capacité de
stockage des données).
D’autre part, l’ADS40 permet d’acquérir des images dans le domaine du visible
(panchromatique, rouge, vert et bleu) mais aussi dans le domaine du proche infra-rouge
(PIR). Il est donc possible par composition des canaux d’obtenir aussi bien des images
panchromatiques et couleur (R, V, B) que des compositions colorées fausses couleurs
CIRF (PIR, R, V) par exemple. Les images sont acquises en 16 bits (65536 couleurs par
canal).
Figure 8 : PAN/RVB/PIR/CIRF [14]
Photogrammétrie et traitement d’image
8
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Le capteur est en outre doté de plusieurs angles de prises de vues pour permettre de
faire de la stéréo-restitution. Il y a généralement une prise de vue avant, une prise de
vue au nadir et une prise de vue arrière. La configuration des angles de prises de vues et
des canaux disponibles dépend de la génération de la caméra. La première génération
d’ADS40 vole en configuration SH40 (voir 2.1.2) et la seconde génération de caméra vole
en configuration SH51 ou SH52 (voir 2.1.4).
Concernant la résolution des données, pour une altitude de vol de 2500 m, le GSD
(Ground Sampling Distance) qui est la taille de pixel au sol sera d’environ 25 cm.
Enfin, l’ADS40 possède un inertiel (IMU) et un GPS intégrés, permettant de faciliter
l’aérotriangulation et l’orthorectification des images par géoréférencement direct.
Swisstopo vole depuis 2005 avec cette nouvelle technologie.
Le logiciel GPro (Ground Processing) conçu par LEICA permet de télécharger et manipuler
les images ADS40. Il offre la possibilité de produire des images géoréférencées et
orthorectifiées à partir des images ADS40 brutes et des données de positionnement.
GPro permet également la mesure automatique de points pour l’aérotriangulation des
images ADS40.
Il existe trois niveaux d’images manipulables dans GPro :
- Les images L0 qui sont quasiment les images brutes.
- Les images L1 qui sont rectifiées sur un plan et qui sont principalement utilisées pour la
stéréorestitution
- Les images L2 qui sont orthorectifiées et géoréférencées. C’est ce type d’image qui sera
utilisé pour ce travail.
Photogrammétrie et traitement d’image
9
Julien Fabing
Travail de diplôme 2007
HEIG-VD
2.1.2 Jeu de données « Sargans-Rheintal »
Le jeu de données « Sargans-Rheintal » a été volé le 28.07.05. Il est constitué de huit
bandes (scènes) ADS40 provenant de huit lignes de vol
différentes. Ces images couvrent la région de la commune de
Sargans dans le canton de St Gall.
Figure 9 : Situation « Sargans-Rheinthal »
Cette région a une topographie très accidentée avec
des pentes pouvant aller jusqu’à 45°. Et une altitude
Figure 10 : Les huit bandes de vol
variant de 439 m à 2395 m [6]
L’autre particularité de ce jeu de données est la disposition des bandes de vol. En
général, les lignes de vol sont plutôt réalisées selon les axes des coordonnées
géographiques suisses, à savoir dans le sens Nord-Sud ou Est-Ouest afin d’éviter une
rotation importante des images. Ici, comme la zone est plutôt montagneuse les lignes de
vol suivent les vallées afin de garantir un GSD de 25 cm dans la zone de plaine. En effet,
en zone montagneuse, l’altitude de vol étant plus élevée le GSD n’est généralement que
de 50 cm.
Photogrammétrie et traitement d’image
10
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Le vol a été réalisé avec un capteur
ADS40 en configuration SH40, La
particularité de cette configuration
est que les canaux rouge, vert et
proche infra-rouge pris vers l’avant
le sont avec un angle d’incidence de
respectivement 14°, 16° et 18°. Ces
trois
canaux
ne
sont
donc
pas
colinéaires. La précision du MNT pour
l’orthorectification
primordiale
pour
est
que
les
donc
images
Figure 11 : Vol ADS40 en configuration SH40
avant et nadir par exemple puissent
se superposer parfaitement
Remarque : Le vol ayant été réalisé en plein été, la végétation sur le terrain est
luxuriante contrairement à un vol qui aurait été réalisé à une autre époque. Il faudra
garder cela à l’esprit lors de l’analyse des résultats.
2.1.3 Jeu de données « Thun »
Le
jeu
« Thun »
de
données
couvrant
la
région de Thun dans le
canton de Berne a été
volé en deux temps. En
effet, un problème s’est
produit lors du vol initial
effectué le 22 avril 2005
et deux bandes de vol
sont
incomplètes
(des
canaux sont manquants).
Un vol complémentaire a
donc été réalisé le 26
Figure 12 : Situation Thun
mai 2005.
Le premier vol est constitué de 6 bandes ADS40 « utilisables » provenant de 6 lignes de
vol différentes. Le GSD des images est d’environ 25 cm. Les bandes de vol sont de
configuration plus classique que celles du vol Sargans-Rheintal puisqu’elles sont
horizontales. Le second vol est lui constitué de 7 bandes de vol (dont deux verticales). Le
GSD est pour ce second vol de 30 cm.
Photogrammétrie et traitement d’image
11
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Les deux vols ont été effectués en
configuration SH40 comme le vol de
Sargans. La particularité de ce jeu
de données est que les images
entre les deux vols ont été acquises
à un mois d’intervalle. Or, l’aspect
temporel est très important pour le
traitement d’image et la détection
des objets puisqu’en un mois la
Figure 13 : Thun premier vol (mois d’avril)
végétation change énormément. On
peut d’ailleurs le constater sur les
figures 13 et 14 au niveau du
feuillage des arbres et des cultures.
Comme
certaines
images
se
recouvrent entre les deux vols, il
sera
possible
de
tester
les
méthodes développées lors de ce
travail
sur
recouvrement
ces
pour
zones
voir
de
leur
comportement dans des conditions
très différentes.
Figure 14 : Thun second vol (mois de mai)
2.1.4 Jeu de données « Romanshorn »
Le
jeu
de
données
de
« Romanshorn » est un jeu de
données de démonstration volé
par LEICA
au
dessus de
la
région de Romanshorn dans le
canton de St Gall. Il est en fait
constitué de 3 vols à différentes
résolutions (20 cm, 10 cm et 5
cm) composés respectivement
de 4, 2 et 3 bandes. Les vols
ont été effectués le 16 avril
2007.
Figure 15 : Situation Romanshorn
Photogrammétrie et traitement d’image
12
Julien Fabing
Travail de diplôme 2007
HEIG-VD
GSD : 10 cm
GSD : 20 cm
GSD : 5 cm
Figure 16 : Les trois vols sur Romanshorn
Les images de GSD 5 cm et 10 cm couvrent la commune de Romanshorn. Un MNT dans
le nouveau format LTF (LEICA Terrain Format) est fourni sur cette zone, on peut donc
l’utiliser pour l’orthorectification des images. Les images de GSD 20 cm couvrent, elles,
une zone à l’ouest de Romanshorn, il n’y a pas de MNT fourni sur cette zone, il faut
orthorectifier les images sur un plan.
La particularité de ce jeu de
données est que les images
ont été acquises avec une
caméra
ADS40
en
configuration SH52.
La figure ci-contre montre
le principe d’acquisition de
l’ADS40 dans cette nouvelle
configuration.
Figure 17 : Vol ADS40 en configuration SH52
D’ores et déjà, on peut imaginer l’avantage de cette configuration par rapport à la
configuration SH40 avec la présence de tous les canaux multi-spectraux colinéaires au
nadir. Les images proche infra-rouge, rouge, vert, bleu et panchromatiques seront donc
parfaitement superposées (colinéarité) lors de la rectification et les dévers seront
minimisés dans le sens du vol (Nadir). La qualité du MNT sera donc beaucoup moins
importante pour l’orthorectification qu’avec la configuration SH52.
Remarque : Swisstopo volera avec cette nouvelle technologie à partir de l’année
prochaine.
Photogrammétrie et traitement d’image
13
Julien Fabing
Travail de diplôme 2007
HEIG-VD
2.2 Logiciels
2.2.1 ERDAS IMAGINE 9.1
IMAGINE 9.1 [47] de la société ERDAS (propriété de LEICA) est un logiciel qui permet
l’analyse d’images complexes et d’images radar disposant d’outils de classification
simples et avancés. Il permet aussi la modélisation de données en 3D. Ce logiciel a pu
être évalué et utilisé sans restriction.
2.2.2 ERMapper Professional 7.1
ERMapper Professionnal 7.1 [44] de la société Earth Resource Mapping est un logiciel de
traitement d’images géoréférencées très complet. Il est surtout reconnu pour son format
de compression des images très performant ECW. Lors de ce travail, seule une version
de démonstration a pu être testée, elle était limitée à 30 jours et/ou 50 utilisations. De
plus les traitements étaient aussi limités dans le temps. Il y avait aussi une restriction
sur la taille des images.
2.2.3 Geomatica 10.0
Geomatica 10.0 [46] de la société PCI Geomatics est un logiciel qui intègre dans un seul
environnement des outils de télédétection, de SIG, de photogrammétrie, de cartographie
ainsi que des outils de développement. En particulier, il possède des fonctions classiques
de classification mais aussi par l’intermédiaire de bibliothèques d’algorithmes de
fonctions de classification par réseaux de neurones. Lors ce travail, il n’a pu être testé
qu’une version de démonstration téléchargeable sur le site de PCI Geomatics. Elle est
assez complète mais les images utilisables sont limitées à 1000x1000 pixels ce qui ne
permet pas de faire des tests sur de très grandes zones.
2.2.4 Definiens Developper 7.0
Definiens Developper 7.0 [51] de la société Definiens est un environnement de
développement intégré qui vise à faciliter le développement rapide d'applications pour
l'analyse des images. Definiens Developper intègre le module Definiens Professionnel
autrefois connu sous le nom d’eCognition. Ce programme permet de segmenter les
images sur critères radiométriques puis de réaliser des classifications orientées objet. De
nombreux tests de classification très poussés ont déjà été réalisés avec ce logiciel avec
de très bons résultats [49][50][52]. Cependant, le paramétrage est très long et la taille
des fichiers est pour le moment limitée à 4 Go. Il n’est pas donc pas très adapté aux
objectifs de productivité de ce travail. La version de démonstration à disposition était très
complète. La restriction majeure est l’impossibilité d’exporter les résultats.
Photogrammétrie et traitement d’image
14
Julien Fabing
Travail de diplôme 2007
HEIG-VD
2.2.5 Feature Analyst
Le programme Feature analyst [55] de la société VLS est une extension qui peut se
greffer sur les programmes ArcGis, IMAGINE, GeoMedia et Socet Set. Cette extension
utilise les fonctions de ces logiciels pour effectuer des extractions semi-automatiques
« facilitées ». Ce logiciel découvert tardivement n’a pas pu être évalué faute de temps.
2.2.6 Remarque concernant ERDAS IMAGINE et ERMapper
LEICA qui est déjà propriétaire d’ERDAS IMAGINE vient récemment de racheter
ERMapper. Dans un premier temps, les deux logiciels vont être maintenus. A plus long
terme, un nouveau produit devrait voir le jour regroupant le meilleur des deux logiciels.
2.2.7 Comparaison des logiciels
Le tableau ci-dessous présente une comparaison sommaire des logiciels dans la
perspective de la réalisation de ce travail.
Tableau 1 : Comparaison sommaire des logiciels
Remarque : Tableau 1 en version agrandie visible dans l’annexe 2
2.2.8 Conclusion partielle
Definiens Developper est mis à l’écart pour la complexité de ses paramètres et son
problème de gestion des gros fichiers. Parmi les trois logiciels généralistes restant dont
les méthodes de classification sont plus classiques et similaires, le choix s’est porté sur le
logiciel ERDAS IMAGINE 9.1. Ce choix est avant tout un choix de confort car c’est le seul
des trois logiciels dont on dispose d’une licence complète. Toutefois, les deux autres
logiciels possédant aussi des boites à outils pour la création de fonctions personnalisées,
et les fonctions existantes étant très semblables, il devrait être assez aisé de transposer
les algorithmes développés depuis IMAGINE dans ces derniers.
Photogrammétrie et traitement d’image
15
Julien Fabing
Travail de diplôme 2007
HEIG-VD
3 Démarche
Le présent chapitre présente la démarche utilisé pour la réalisation de ce travail. Le
traitement présenté ci-après est celui du vol « Sargans-Rheintal ».
3.1 Préparation des données dans GPro
Avant de pouvoir traiter les données, un prétraitement des images brutes dans GPro est
nécessaire. Pour réaliser les premiers tests, les images brutes L0 sont dans un premier
temps orthorectifiées sur le MNT25. Une aérotriangulation déjà existante a été réutilisée
pour ce travail.
3.1.1 Traitement radiométrique
GPro propose trois options pour le traitement de la radiométrie des images brutes lors de
leur orthorectification. La première est de ne rien faire. L’image reste comme elle est. La
seconde est d’appliquer une courbe de correction automatique dont les limites peuvent
être fixées. Cela a pour effet d’étaler l’histogramme mais on n’est pas tout à fait maître
de ce qui se passe. La troisième solution est d’appliquer une courbe de correction créée
manuellement. C’est l’option qui a été retenue pour ce travail. Une courbe de calibration
linéaire a été créée. Dans un souci de productivité, cette courbe a été utilisée pour tous
les canaux spectraux.
Figure 18 : Courbe de calibration
Photogrammétrie et traitement d’image
16
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Cette courbe est linéaire de 0 à 4096 puis plane de 4096 à 65536. De cette manière, la
majeure partie de l’information est normalisée sur toute la plage de couleurs (16bits) et
les pixels restant considérés comme du bruit deviennent des pixels « blanc ». La valeur
de 4096 (12bits) a été choisie de manière assez large afin d’être valable pour toutes les
bandes spectrales.
GPro offre aussi la possibilité d’exporter les images en 8 bits ou en 16 bits. Dans un
premier temps les tests seront effectués sur des images 16 bits afin de garder le plus
d’information possible.
3.1.2 Rééchantillonnage
GPro propose trois méthodes pour le rééchantillonnage des images (Nearest neighbor,
Bilinear et Cubic convolution). En traitement et analyse d’images, il est important de
garder le maximum d’information de l’image de base. Il a donc été choisi d’utiliser la
méthode Nearest Neighbor (plus proche voisin) qui copie la valeur du pixel le plus proche
de l’image de base. Ainsi on réalise un véritable échantillonnage de l’image de base et
pas une interpolation qui risquerait d’introduire de nouvelles valeurs de pixels pouvant
aboutir à une certaine confusion entre des objets de natures différentes. D’autre part la
méthode Nearest Neighbor est de loin la plus rapide en termes de temps de calcul.
3.1.3 Problèmes avec le logiciel GPro
De nombreux problèmes ont été rencontrés lors de l’utilisation du logiciel GPro. Ces
problèmes sont détaillés dans l’annexe 1 :
-
Problème selon la résolution des images (annexe 1.1)
-
Problème de la fonction auto rotation (annexe 1.2)
-
Problème de rééchantillonnage avec la fonction Fast Rectification (annexe 1.3)
-
Problème des images de base fortement chahutées (annexe 1.4)
-
Problème des pixels qui ne sont pas à zéro dans les bandes noires (annexe 1.5)
Photogrammétrie et traitement d’image
17
Julien Fabing
Travail de diplôme 2007
HEIG-VD
3.1.4 Choix effectués
Les images à 25 cm étant assez lourdes à manipuler dans ERDAS IMAGINE malgré la
machine puissante à disposition et au vu des problèmes énoncés précédemment, le choix
a été fait d’utiliser des images L2 RGB Nadir et CIRF « Avant » avec comme résolution de
base 1 m sans utiliser la fonction Fast Rectification. Les images qui vont être utilisées
n’étant pas chaotiques, la fonction Pixel Wise est laissée de côté. Les images L2 de
résolution 1 m seront par la suite rééchantillonnées à 5 m dans IMAGINE pour pouvoir
faire des tests à basse résolution.
Figure 19 : Résumé de la génération des images L2 dans GPro
Remarque : Pour les jeux de données de « Romanshorn » et « Thun », les courbes de
calibration existantes ont été utilisées.
Photogrammétrie et traitement d’image
18
Julien Fabing
Travail de diplôme 2007
HEIG-VD
3.2 Filtrage des données dans ERDAS IMAGINE
Nous pouvons donc maintenant extraire pour chaque bande deux images de résolution 1
m. L’une est en vraie couleur (rouge, vert, bleu) et l’autre en fausse couleur CIRF
(proche infra-rouge, rouge, vert). Avant de pouvoir aller plus loin, il est nécessaire de
filtrer les images pour régler deux problèmes explicités ci-après.
3.2.1 Filtrage des pixels de valeur 16
Pour résoudre le problème des pixels de valeur 16 dans les bandes noires provenant de
GPro (voir Annexe 1.5), une solution très simple est appliquée. Les images sont passées
dans un filtre qui effectue l’opération suivante :
SI valeur pixel image = 16 ALORS nouvelle valeur pixel = 0 :
3.2.2 Création d’images spatialement équivalentes
Les zones couvertes par les deux images d’une même bande de vol ne sont pas
spatialement équivalentes comme on peut le voir sur la figure ci-dessous :
Figure 20 : Différence de couverture entre les images
Sur l’image CIRF, on aimerait éliminer les bandes de couleur supplémentaires aux
extrémités et sur les bords dues à la non colinéarité des canaux. On aimerait aussi avoir
des zones spatialement équivalentes entre l’image Nadir RGB et l’image avant CIRF. Pour
cela un algorithme de prétraitement assez simple est utilisé :
SI (image_RVB_Rouge = 0 ou image_RVB_Vert = 0 ou image_RVB_Bleu = 0 ou image_CIRF_PIR = 0 ou
image_CIRF_Rouge = 0 ou image_CIRF_Vert = 0) ALORS (image_RVB_Rouge = 0, image_RVB_Vert = 0,
image_RVB_Bleu = 0, image_CIRF_PIR = 0, image_CIRF_Rouge = 0, image_CIRF_Vert = 0) SINON les valeurs
des pixels restent inchangées.
Photogrammétrie et traitement d’image
19
Julien Fabing
Travail de diplôme 2007
HEIG-VD
La figure ci-dessous présente le résultat du traitement :
Figure 21 : Images spatialement équivalentes
Remarque : Ce prétraitement a pour conséquence d’apparier les pixels de l’image CIRF
avec ceux de l’image RVB (Data Matching). Dans ce cas précis, cela a bien fonctionné car
les pixels de l’image CIRF et de l’image RVB n’avaient pas un décalage important après
l’orthorectification (inférieur à un demi pixel). Cette étape de prétraitement est bien sûr
superflue avec les données SH52.
Les images ainsi créées sont ensuite rééchantillonnées à 5 m avec la fonction
« Degrade » d’IMAGINE (méthode Nearest Neighbor).
3.2.3 Implémentation des deux prétraitements
Par souci d’efficacité, les deux algorithmes de prétraitement ont été réunis en un seul :
SI (image_RVB_Rouge ≤ 16 ou image_RVB_Vert ≤ 16 ou image_RVB_Bleu ≤ 16 ou image_CIRF_PIR ≤ 16
ou image_CIRF_Rouge ≤ 16 ou image_CIRF_Vert ≤ 16) ALORS (image_RVB_Rouge = 0, image_RVB_Vert =
0, image_RVB_Bleu = 0, image_CIRF_PIR = 0, image_CIRF_Rouge = 0, image_CIRF_Vert = 0) SINON les
valeurs des pixels restent inchangées.
Ce filtre a été implémenté dans le module Model Maker d’ERDAS IMAGINE. La description
détaillée de cette fonction se trouve dans l’annexe 3.
Photogrammétrie et traitement d’image
20
Julien Fabing
Travail de diplôme 2007
HEIG-VD
3.3 Définition d’une image référence
Une image contenant toutes les zones boisées (forêt, arbres, arbustes, haies) a été créée
manuellement. Elle servira de référence pour qualifier et évaluer le résultat des
classifications par comparaison entre les images.
Pour cela, les zones forestières ont été saisies à partir de l’image RVB de résolution 1 m.
Il a été attribué aux pixels représentant des zones boisées la valeur 65535. Considérant
l’ampleur de la tâche, le choix de l’image s’est porté sur la bande de vol la plus petite du
jeu de données (image 1024).
Figure 22 : Saisie manuelle des zones de forêt
Pour un confort d’utilisation optimal, l’image résultante a ensuite été rendue binaire à
l’aide d’une fonction spécialement créée pour l’occasion (voir annexe 4) qui met tous les
pixels de valeur 65535 à 1 et le reste à 0.
La nouvelle image binaire a un volume bien moins important que l’image 16 bits (~50
fois plus petit). Elle sera donc plus facilement manipulable et plus rapidement chargeable
lors des calculs de comparaison (voir le point 3.5.1).
Remarque : le travail de saisie manuelle s’est révélé assez long et fastidieux (quelques
35 heures pour une zone d’environ 18.5 km2). Cela montre encore une fois l’intérêt de
pouvoir faire le plus gros du travail de manière automatique.
Photogrammétrie et traitement d’image
21
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Figure 23 : Création de l'image de référence
L’image binaire finale a ensuite été rééchantillonnée à 5 m avec la fonction « Degrade »
d’IMAGINE (méthode Nearest Neighbor) pour pouvoir faire des comparaisons et des
analyses à cette échelle.
3.4 Calcul d’une image NDVI
Le NDVI (Normalized Difference Vegetation Index) est un indice de végétation compris
entre -1 et 1. C’est un indicateur de l’activité chlorophyllienne de la végétation.
L’indice NDVI se calcule de la manière suivante :
NDVI =
PIR − R
PIR + R
Avec PIR = valeur du pixel dans le canal proche infra-rouge
et R = valeur du pixel dans le canal rouge.
Sur les sols nus, la réflectance du rouge et du proche infra-rouge est très proche et donc
le NDVI sera proche de 0. Sur les zones de végétation, la réflectance du proche infrarouge sera nettement plus importante que celle du rouge et le NDVI s’approchera de 1.
L’image NDVI est calculée à partir des canaux 1 (PIR) et 2 (R) de l’image CIRF. Pour se
ramener à une image 16 bits, l’image créée a été normalisée à nouveau sur 65536
couleurs. Le détail de l’implémentation dans IMAGINE Modeler de l’algorithme de calcul
du NDVI est explicité dans l’annexe 6.
On voit sur l’image NDVI créée ci-dessous que les zones de végétation apparaissent en
clair et que les zones urbaines, les routes et les cours d’eaux apparaissent en sombre.
Photogrammétrie et traitement d’image
22
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Figure 24 : Image NDVI
3.5 Définition d’outils d’analyse
Avant de se lancer dans des classifications, il est nécessaire de se doter d’outils d’analyse
des résultats.
3.5.1 Outil de création d’une image servant à l’évaluation d’une classification
Le premier outil qui a été développé est une fonction qui permet de comparer l’image
classifiée à l’image de référence. Il en ressort une image synthétique couleur qui fait
apparaître en vert les pixels qui ont été bien classés comme de la forêt, en rouge les
pixels sujets à l’erreur de première espèce (càd les pixels qui sont en réalité de la forêt
mais qui n’ont pas été classés comme tels) et en bleu les pixels sujets à l’erreur de
deuxième espèce (càd les pixels qui ont été classés comme forêt mais qui n’en sont pas).
Figure 25 : Erreur de première et de seconde espèce
Photogrammétrie et traitement d’image
23
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Image classifiée
Image référence
Figure 26 : Création de l’image synthétique « analyse de la classification »
L’intérêt d’un tel outil d’analyse est double. D’une part on peut lire facilement le nombre
de pixels dans telle ou telle catégorie en affichant les informations sur l’image pour
pouvoir ultérieurement faire des analyses statistiques. D’autre part, avec cette image
synthétique, on peut voir en un coup d’œil où se situent les éléments qui ont été mal
classés lors de la classification.
Le principe de l’algorithme de création de cette image synthétique est relativement
simple :
SI un pixel est à 1 dans l’image classifiée et dans l’image référence ALORS le pixel créé dans une nouvelle
image B prend la valeur 1 SINON il prend la valeur 0. (pixels forêts bien classés)
SI un pixel est à 0 dans l’image classifiée et à 1 dans l’image référence ALORS le pixel créé dans une nouvelle
image A prend la valeur 1 SINON il prend la valeur 0 (erreur de première espèce)
Photogrammétrie et traitement d’image
24
Julien Fabing
Travail de diplôme 2007
HEIG-VD
SI un pixel est à 1 dans l’image classifiée et à 0 dans l’image référence ALORS le pixel créé dans une nouvelle
image C prend la valeur 1 SINON il prend la valeur 0 (erreur de seconde espèce)
Par la suite, une image couleur est créée à partir des images monocanal A, B et C.
L’image A est placée dans le canal rouge, l’image B dans le canal vert et l’image C dans
le canal bleu.
Le développement de cet algorithme dans IMAGINE Modeler est détaillé dans l’annexe 5.
3.5.2 Coefficient Kappa
Pour évaluer la précision et la qualité des classifications réalisées, on se propose d’utiliser
l’estimateur statistique Kappa [10].
Le coefficient Kappa est un indice statistique qui varie de 0 à 1. Il peut notamment être
utilisé pour estimer la précision des classifications en évaluant le degré de concordance
entre deux classifications, par exemple dans notre cas entre la classification de référence
et la classification à tester. Plus le coefficient Kappa est proche de 1, plus la concordance
est bonne entre les classifications. Pour notre étude on considérera qu’une classification
est très satisfaisante pour un Kappa supérieur à 0.75.
A la différence d’un simple rapport entre le nombre de pixels classés de manière
identique par les deux classifications et le nombre total de pixels à classer, le coefficient
Kappa effectue une correction qui prend en compte le fait qu'une certaine proportion de
la concordance peut être due au hasard.
Dans notre cas, Le coefficient Kappa peut se calculer de la manière suivante :
Κ=
N × n − ∑ (ri .ci )
i
N 2 − ∑ (ri .ci )
i
Avec
N
= nombre total de pixels dans l’image
n=
nombre de pixels identiques dans l’image classifiée et dans l’image référence
ri
= nombre de pixels classés dans la classe i dans l’image référence
ci
= nombre de pixels classés dans la classe i dans l’image classifiée
Photogrammétrie et traitement d’image
25
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Exemple :
Soit une image de 100 pixels que l’on souhaite classifier en deux classes : « forêt » et
« non forêt ».
Classe 1 : Forêt
Classe 2 : Non Forêt
Total
Nbre de pixels image référence
50
50
100
Nbre de pixels image classifiée
40
60
100
30
40
70
Nbre de pixels bien classés
(identiques dans les deux images)
Tableau 2 : Exemple fictif pour le calcul du coefficient Kappa
Pourcentage de pixels bien classés = 70/100 = 70%
Κ=
100 × 70 − (50 × 40 + 50 × 60)
= 0,4
100 2 − (50 × 40 + 50 × 60)
Ici avec un pourcentage de pixels bien classés de l’ordre de 70% on pourrait se dire que
la classification est plutôt bonne. Cependant le faible Kappa indique que la classification
n’est en fait pas très satisfaisante. En effet, trop de pixels ont probablement été bien ou
mal classés « par hasard ».
3.6 Tests de classifications
Plusieurs tests de classifications ont ensuite été effectués : classification supervisée, non
supervisée, avec des résolutions d’images différentes et des méthodes différentes.
Chaque classification a été comparée avec l’image de référence et le coefficient Kappa a
été calculé afin de déterminer la méthode la plus efficace. Le résultat des différents tests
est détaillé dans le chapitre suivant.
3.7 Propositions d’améliorations
Plusieurs méthodes de prétraitement et de post-traitement ont ensuite été testées dans
le but d’améliorer et d’optimiser le processus (voir chapitre 5).
3.8 Evaluation des processus
Finalement,
une
description
des
méthodes
retenues
pour
l’amélioration
de
la
classification des zones boisées a été mise en place ainsi qu’une évaluation du temps
nécessaire pour reprendre les données (voir chapitre 6).
Photogrammétrie et traitement d’image
26
Julien Fabing
Travail de diplôme 2007
HEIG-VD
4 Tests de classification
Dans ce chapitre sont exposés les résultats des différents tests de classification effectués.
4.1 Classification supervisée
Dans cette partie est testée la méthode de classification non supervisée.
4.1.1 Méthode
Les classifications supervisées sont réalisées à l’aide du module pixel classifier d’ERDAS
IMAGINE. La première étape est l’ouverture d’une image dans le viewer et la saisie d’une
ou plusieurs zones d’entrainements selon la nature des objets recherchés. Puis avec
l’outil « signature editor », on peut créer des signatures spectrales correspondantes à ces
zones d’entrainement.
Figure 27 : Bonne et mauvaise zone d'entrainement
La radiométrie des zones d’entrainement doit suivre une distribution gaussienne pour que
l’algorithme de classification fonctionne de manière correcte. Il faut donc analyser les
histogrammes de chaque canal pour chaque zone d’entrainement pour vérifier que cette
condition est respectée. Si les histogrammes présentent deux pics par exemple il faut
alors subdiviser la zone en deux zones plus homogènes [10].
4.1.2 Influence du nombre de zones d’entraînement
Un test de classification supervisé a été réalisé sur les images RVB et CIRF de Sargans de
résolution 5 m, une fois avec une seule zone d’entrainement sur un secteur de forêt et
une fois avec une zone d’entrainement supplémentaire sur un secteur de forêt de
radiométrie plus sombre. Les deux classes résultantes ont ensuite été regroupées en
recodant leurs pixels avec la valeur 1 afin de pouvoir utiliser le comparateur (voir 3.5.1).
Photogrammétrie et traitement d’image
27
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Les résultats de ce test sont présentés dans l’annexe 14 et résumés dans la figure 28, et
le tableau 3:
Zone forêt claire
1 zone
2 zones
Zone forêt sombre
Figure 28 : Influence du type et du nombre de zones d'entrainement
Pourcentage de pixels bien classés
Kappa
1 Zone entrainement forêt RGB
74.3 %
0.45
1 Zone entrainement forêt CIRF
76.5 %
0.50
2 Zone (clair + sombre) RGB
88.2%
0.76
89.7%
0.79
2 Zones entrainement forêt
(clair + sombre) CIRF
Tableau 3 : Influence du type et du nombre de zones d'entrainement
L’ajout d’une deuxième zone d’entrainement située dans une zone forestière plus sombre
améliore grandement la qualité du résultat. Il est probable que le résultat peut encore
être amélioré en segmentant encore plus les zones d’entrainement selon les versants.
4.1.3 Conclusion partielle
La classification supervisée offre des résultats très intéressants, cependant son manque
de systématisme est un désavantage dans une perspective d’automatisation du
processus. En effet, il faut définir de nouvelles signatures spectrales pour chaque image
et, pour obtenir un résultat de qualité, il faut faire de nombreux essais pour déterminer
les zones d’entrainement les plus pertinentes. Le résultat dépend donc de manière trop
importante de l’opérateur et des images.
Photogrammétrie et traitement d’image
28
Julien Fabing
Travail de diplôme 2007
HEIG-VD
4.2 Classification non supervisée
Dans cette partie est testée la méthode de classification non supervisée.
4.2.1 Méthode
Les classifications non supervisées de
type isodata sont réalisées à l’aide du
module Classifier d’Erdas Imagine. Par
souci d’efficacité et pour pouvoir faire
des comparaisons non biaisées, une
configuration généraliste est utilisée et
ce
pour
toutes
les
classifications
réalisées. Seul le nombre de classes est
changé, les autres paramètres sont
laissés tels quels.
Figure 29 : Configuration classification non supervisée
Une fois les classifications effectuées, les images résultantes sont ouvertes dans le
Viewer. Les différentes classes contenant des éléments de forêt sont ensuite identifiées
par l’opérateur puis recodées avec la valeur 1 afin de pouvoir utiliser l’outil d’analyse
(voir 3.5). C’est une opération qui est très rapide avec l’image d’origine sous les yeux.
Figure 30 : Classification, identification et regroupement des classes
4.2.2 Analyse selon le nombre de classes et le type d’image
Dans ce paragraphe, on se propose d’évaluer l’influence du nombre de classes sur la
qualité de la classification. Il s’agit en outre de définir quel type d’image est le plus
performant pour la méthode de classification non supervisée. Pour cela, un grand nombre
de classifications non supervisées ont été effectuées à partir de l’image RVB, de l’image
CIRF et de l’image NDVI de résolution 5 m (voir annexe 15).
Photogrammétrie et traitement d’image
29
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Les deux graphiques ci-dessous présentent les résultats de ces tests :
Pourcentage de pixels bien classés
100%
90%
80%
70%
60%
RVB
50%
CIRF
40%
NDVI
30%
20%
10%
0%
2 classes
3 classes
4 classes
5 classes
6 classes
7 classes
8 classes
9 classes
10 classes 20 classes
Figure 31 : Pourcentage de pixels bien classés selon le nombre de classes et le type d’image
Kappa
1.0
0.9
0.8
0.7
0.6
RVB
0.5
CIRF
0.4
NDVI
0.3
0.2
0.1
0.0
2 classes
3 classes
4 classes
5 classes
6 classes
7 classes
8 classes
9 classes
10 classes 20 classes
Figure 32 : Coefficient Kappa selon le nombre de classes et le type d'image
On notera que le nombre de classes n’influe pas sensiblement sur la qualité de la
classification. Ce qui signifie qu’au cas où la classification non supervisée serait une des
méthodes retenues, on pourrait se contenter d’un nombre limité de classes ce qui
raccourcirait le temps consacré à la classification à postériori. En effet, il est plus facile et
rapide par exemple d’identifier visuellement une classe à partir de trois classes qu’à
partir d’une vingtaine.
Concernant le type d’image, l’image RVB semble obtenir les meilleurs résultats, tout
juste suivie par l’image CIRF. On peut relativiser ce résultat par le fait que l’image de
référence a été saisie à partir de l’image RVB mais le Kappa est quand même nettement
plus faible dans le cas des images CIRF. L’image NDVI ne donne pas de bons résultats, il
faudrait certainement définir un nombre de classes beaucoup plus important pour pouvoir
séparer les arbres de la végétation.
Photogrammétrie et traitement d’image
30
Julien Fabing
Travail de diplôme 2007
HEIG-VD
4.2.3 Analyse selon la résolution des images
Des classifications de 3, 5 et 10 classes ont été réalisées avec des images RVB de
résolution 1 m afin de pouvoir comparer l’efficacité de la classification non supervisée à
une résolution supérieure à 5 m (annexes 15 et 16).
Le graphique ci-dessous présente les résultats de ce test :
Pourcentage de pixels bien classés
Kappa
100%
90%
80%
70%
60%
GSD 5 m
50%
40%
30%
20%
GSD 1 m
10%
0%
3 classes
5 classes
1.0
0.9
0.8
0.7
0.6
GSD 5 m
0.5
0.4
0.3
0.2
0.1
0.0
GSD 1 m
3 classes
10 classes
5 classes
10 classes
Figure 33 : Analyse selon la résolution des images
Les résultats sont sensiblement identiques entre les classifications réalisées sur des
images de résolution 5 m et sur des images de résolutions 1 m. Le résultat est toutefois
légèrement moins bon avec la résolution de 1 m car plus bruité.
Figure 34 : Classification GSD 5 m et GSD 1 m
Remarque : Une classification à 5 m semble mieux convenir dans la perspective de saisir
des grandes zones arborés car un filtrage des pixels non connectés éliminera les arbres
isolés (à 5 m, un arbre isolé = au mieux un pixel). Par contre si on veut conserver
l’information sur ces arbres isolés, il faut utiliser une meilleure résolution. Tout dépend
du niveau de généralisation souhaité.
Photogrammétrie et traitement d’image
31
Julien Fabing
Travail de diplôme 2007
HEIG-VD
4.2.4 Analyse selon la nature de l’occupation du sol
On a vu que la classification non supervisée fonctionne avec une certaine efficacité. Il
serait intéressant de savoir comment évolue la qualité de la classification selon la nature
du terrain présent sur les images. Pour cela des tests de classification ont été réalisés sur
une image avec une zone majoritairement forestière et sur une image avec une zone
majoritairement urbaine (annexe 17).
Figure 35 : Zone forestière et zone urbaine
Le résultat de ce test est présenté dans le graphique ci-dessous :
Kappa
1.0
0.9
0.8
0.7
0.6
0.5
Zone forestière
Zone urbaine
0.4
0.3
0.2
0.1
0.0
5 classes
10 classes
Figure 36 : Analyse selon le type d'occupation du sol
On constate que le coefficient Kappa est très bon pour les classifications en zones
forestières. Par contre, il chute d’environ 10% pour les classifications en zone urbaine. La
classification automatique des zones boisées semble donc plus difficile en zone urbaine.
Photogrammétrie et traitement d’image
32
Julien Fabing
Travail de diplôme 2007
HEIG-VD
4.2.5 Inventaire des objets mal classés
Quelle que soit la résolution des images (5 m ou à 1 m), le nombre de classes ou le type
d’image, les mêmes types de zones et d’objets semblent poser problème lors de la
classification. Ils sont décrits dans les paragraphes ci-dessous.
Remarque : Les problèmes issus d’une erreur dans la saisie manuelle de l’image
référence ne sont évidemment pas pris en compte dans cet inventaire.
Les objets en surplus (bleu) :
- Les champs (RVB et CIRF)
Figure 37 : Confusion avec les champs de Maïs
- Les ombres (RVB et CIRF)
Figure 38 : Confusion avec les ombres
- Les ombres et les toitures non exposées au soleil (RVB et CIRF)
Figure 39 : Confusion avec les toits
Photogrammétrie et traitement d’image
33
Julien Fabing
Travail de diplôme 2007
HEIG-VD
- Certaines zones herbeuses à la radiométrie sombre
Figure 40 : Confusion avec des zones herbeuses sombres
Les objets manquants (rouge) :
- Les arbres fortement exposés au soleil (RVB et CIRF), confusion avec l’herbe
La classification sur l’image CIRF est
encore
plus
touchée
par
ce
phénomène à cause du dévers des
arbres qui est plus important sur
cette image.
Figure 41 : Zones exposées au soleil
- Certains types de feuillus (RVB et CIRF)
Figure 42 : Confusion avec certains types de feuillus
4.2.6 Comparaison entre deux bandes d’images différentes d’un même vol
Maintenant que les différents problèmes ont été identifiés, on aimerait savoir si la
méthode de classification non supervisée est réutilisable sur une autre image, c’est à dire
si elle se comporte de manière identique sur une image provenant d’une autre bande de
vol et donc avec une radiométrie absolue différente. L’idéal aurait été de faire ce test sur
une bande de vol prise un autre jour et à une autre heure de la journée pour que les
deux images aient une radiométrie complètement indépendantes (un test de ce type a
été réalisé sur un autre jeu de données et est commenté dans le paragraphe suivant).
Les deux images testées ici ont été acquises dans des conditions similaires.
Pour réaliser ce test, deux images RVB de deux bandes différentes (1024 et 1031) mais
recouvrant une même zone ont été extraites avec GPro (GSD = 1m). Ces images ont
ensuite été rendues spatialement équivalentes avec l’outil de prétraitement détaillé dans
l’annexe 3.
Photogrammétrie et traitement d’image
34
Julien Fabing
Travail de diplôme 2007
HEIG-VD
1024
1024
1024
1031
Canal rouge
1031
Canal vert
1031
Canal bleu
Figure 43 : Histogrammes des images 1024 et 1031
Sur la figure précédente, on observe une forte corrélation entre les histogrammes de
l’image 1024 et de l’image 1031. Ils possèdent toutefois des différences sensibles ainsi
qu’une petite translation. On limitera toutefois la validité du test à des images acquises
lors d’un même vol.
Une classification à cinq classes et une à dix
classes ont été réalisées pour chacune des deux
images. Les classifications ont été réalisées
exactement de la même manière pour les deux
images
en
particulier
au
niveau
de
l’identification et du regroupement des classes.
Ici on ne s’intéresse pas à la qualité de chaque
classification mais à la similarité entre les deux
classifications. Donc, au lieu de comparer les
deux classifications à l’image référence, elles
sont
comparées
entre
elles
avec
l’outil
d’analyse détaillé dans l’annexe 3 et avec le
coefficient Kappa. Les pixels classés comme
forêt dans les deux images apparaitront en
vert. Les pixels classés comme forêt dans
l’image 1024 mais classés comme « non forêt »
dans l’image 1031 apparaitront en rouge et les
pixels classés comme forêt dans l’image 1031
mais comme « non forêt » dans l’image 1024
apparaitront en bleu. Cela permettra d’identifier
les différences dans la façon dont ont été
classés les pixels dans les deux images (voir
Figure 44 : Comparaison classifications
aussi l’annexe 18).
Photogrammétrie et traitement d’image
35
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Le résultat donne :
Kappa
5 classes
Pourcentage de pixels classés de
manière identique dans les deux
images
88.5%
10 classes
88.7%
0.73
0.68
Tableau 4 : Résultat de la comparaison
Les 12,5 % de pixels qui n’ont pas été classés de
la même manière entre les deux images sont
principalement dus aux dévers des arbres qui
sont différents entre les deux bandes de vol.
Mais aussi aux dévers de certains champs qui
selon l’angle de prise de vue ont une radiométrie
se confondant plus ou moins avec celle des
arbres.
Mis à part ces problèmes de dévers (dus à la
mauvaise qualité du MNT), il n’est pas constaté
d’autres
différences
flagrantes
entre
les
classifications. On peut donc émettre l’hypothèse
qu’une méthode générique de classification non
supervisée pourrait être utilisée pour plusieurs
images différentes.
Figure 45 : Différences dues aux dévers des arbres
4.2.7 Comparaison entre deux images provenant de deux époques différentes
Pour valider l’hypothèse émise dans le paragraphe précédent à un niveau plus général,
on se propose d’effectuer un test sur un autre jeu de données. Il s’agit cette fois du jeu
de données de Thun (voir 2.1.3). Ce jeu de données contient des images provenant de
deux vols effectués à deux dates différentes (l’un en avril et l’autre en mai) et qui ont
donc été acquises dans des conditions différentes non seulement de vol mais aussi de
végétation sur le terrain. En effet, sur les images du premier vol effectué en avril, de
nombreux arbres n’ont pas encore leur feuillage. Il est donc intéressant de voir s’il est
toujours possible de séparer la forêt du reste de la couverture du sol par classification
non supervisée dans ces conditions particulières de végétation. Certaines de ces images
contiennent des secteurs qui se recouvrent entre les deux dates ce qui nous permet
d’effectuer des tests. On choisit les images 1023 du premier vol et 1034 du second vol.
La zone de test utilisée fait 4 km2. Le GSD est de 1 m.
Photogrammétrie et traitement d’image
36
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Figure 46 : Zone de test Thun
L’idée était de réaliser exactement le même test que dans le paragraphe précédent.
C'est-à-dire effectuer des classifications à 5 et 10 classes pour chaque image, regrouper
les classes en forêt et non forêt puis comparer les classifications entre la première et de
la deuxième époque.
L’hypothèse de départ était que la méthode fonctionnerait pour les images du mois de
mai de manière identiques aux images de Sargans du mois de juillet et ce test devait
donc permettre d’éprouver la méthode sur des images du mois d’avril avec des arbres
Mois de mai
Mois d’avril
sans feuilles. Or cela n’est pas si simple.
Figure 47 : Résultat après regroupement
Photogrammétrie et traitement d’image
37
Julien Fabing
Travail de diplôme 2007
HEIG-VD
La figure 47 montre le résultat des regroupements effectués à partir des classifications 5
classes en classe « forêt » et « non forêt ». Ces regroupements ont été effectués de
manière à minimiser les erreurs de première et de seconde espèce. On constate que le
résultat n’est pas très satisfaisant et que contrairement à ce qui était attendu, il l’est
encore moins pour les images du mois de mai que pour les images du mois d’avril.
Sur les images du mois d’avril, on arrive à séparer la forêt du reste du paysage mais il y
a de nombreuses lacunes de taille parfois importantes au niveau des zones de feuillus. Ce
phénomène est légèrement atténué car la résolution d’1 m donne une radiométrie assez
homogène dans ces zones. A une plus grande échelle, il est très probable que cela pose
encore plus de problèmes (cf 4.2.8). De plus, il y a de nombreuses confusions avec des
sols nus et beaucoup de fautes aléatoires. Ces données seront difficiles à reprendre.
Mais, ce qui est plus surprenant, c’est le résultat obtenu avec les images volées en mai.
En effet, il est impossible de regrouper les classes résultantes de la classification (que ce
soit à 5 ou 10 classes) de manière satisfaisante en « forêt » et « non forêt ». Le
problème semble venir d’une trop grande confusion entre les zones de feuillus et les
zones herbeuses. Il se pose aussi bien avec les images RVB que les images CIRF. Pour
confirmer cela, une comparaison entre les histogrammes d’une zone de feuillus et d’une
zone herbeuse est effectuée sur l’image du mois de mai de Thun. Cette comparaison
montre une grande superposition entre ces histogrammes ce qui implique qu’il est très
difficile de séparer ces deux zones car leur radiométrie est trop similaire (figure 48).
Figure 48 : Séparation difficile des feuillus et de l'herbe (Thun)
Les erreurs de première et de seconde espèce seront très importantes contrairement à
une même situation sur une image du mois de juillet de Sargans où les histogrammes ne
se superposent que très partiellement (figure 49) et où il est facile d’effectuer une
séparation car les pics sont bien dissociés (un peu moins pour le PIR toutefois).
Photogrammétrie et traitement d’image
38
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Figure 49 : Séparation facile des feuillus et de l'herbe (Sargans)
Il y a donc bien confusion entre le feuillage jeune et les zones herbeuses dans le cas des
images de Thun volées en mai.
D’autre part, si le résultat est meilleur en avril avec l’image CIRF qu’avec l’image RVB,
c’est le contraire en mai. Les images prises au printemps ne semblent donc pas vraiment
adéquates pour détecter les zones boisées avec une méthode qui se base sur la
radiométrie. La méthode se limitera donc à des images volées en été.
Remarque : La zone de lac ressortant très sombre a été prise comme de la forêt dans
tous les cas, c’est un problème supplémentaire à considérer.
4.2.8 Images volées en avril à haute résolution
Figure 50 : Images RVB et CIRF GSD 25 cm
Un test de classification à 5 classes a été réalisé sur une image d’1 km2 représentative de
GSD 25 cm contenant forêts, arbres isolés, champs et milieu urbain issue du jeu de
données de « Romanshorn » volé en avril. Cependant, il est difficile d’en tirer des
Photogrammétrie et traitement d’image
39
Julien Fabing
Travail de diplôme 2007
HEIG-VD
conclusions puisqu’on rencontre les mêmes problèmes qu’avec les images de Thun du
mois d’avril et du mois de mai. Les problèmes sont cette fois cumulés puisqu’il y a des
arbres sans feuilles et des arbres avec un feuillage jeune.
- Non homogénéité des zones de forêt
- Confusion entre les feuillus et l’herbe
Classification 5 classes à partir de l’image RVB
- Confusion des routes et des cerisiers
- Confusion entre les feuillus et l’herbe
- Mauvaise définition des limites de forêt
Classification 5 classes à partir de l’image CIRF
- Confusion des routes et des cerisiers
Figure 51 : Problème des images volées en avril
Comme pour les images de Thun, on constate une difficulté pour séparer les forêts du
reste du paysage. C’est même impossible avec l’image RVB où les zones avec des arbres
nus posent de gros problèmes. D’autre part on constate à nouveau le phénomène de
confusion important entre l’herbe et le feuillage des arbres.
Photogrammétrie et traitement d’image
40
Julien Fabing
Travail de diplôme 2007
HEIG-VD
4.2.9 Conclusion partielle
La classification non supervisée semble bien adaptée pour répondre aux objectifs de
production de part sa rapidité d’exécution et son paramétrage rapide. Cependant, son
approche uniquement radiométrique n’est pas suffisante car environ 10% des pixels
restent mal classés. Concernant les canaux spectraux à utiliser, les canaux RVB donnent
le meilleur résultat. La configuration CIRF est aussi intéressante, mais le dévers des
arbres dans le sens longitudinal de la ligne de vol est un élément pénalisant par rapport
au RVB avec la configuration SH40. De plus, il y a un problème de confusion plus
important entre l’herbe et les feuillus avec les images CIRF. L’utilisation du NDVI
n’apporte rien pour la détection des forêts. En fait, plus généralement, on peut dire que
le canal PIR n’est pas idéal pour séparer les forêts du reste de la végétation. Il est par
contre très efficace pour séparer l’ensemble de la végétation du milieu bâti et est un peu
moins sensibles aux effets d’ombre. Enfin, la classification non supervisée ne donne des
résultats satisfaisants que sur des images volées au moment où la végétation est
abondante et mature (juillet-août).
4.3 Classification par base de connaissance
ERDAS IMAGINE propose un outil de classification « expert ». Cet outil permet d’effectuer
une classification en utilisant une base de connaissance qui doit être créée par
l’utilisateur. Elle contient des hypothèses (cet objet est de la forêt…), des règles (si la
variable X est comprise entre W et Y…) et des variables (PIR, R, V…).
Figure 52 : Classification par base de connaissances
Cette base de connaissance est le fruit de nombreux tests et on peut y incorporer
plusieurs types de données (images, MNT…). Cette méthode est relativement longue à
mettre en œuvre. Elle peut toutefois se révéler intéressante dans le cas ou de nombreux
objets de type différent doivent être classés. Elle ne reste cependant valable que pour
une image en particulier et il faudra adapter les paramètres en fonction des images.
Cette piste a donc été écartée pour cette étude.
Photogrammétrie et traitement d’image
41
Julien Fabing
Travail de diplôme 2007
HEIG-VD
4.4 Conclusion partielle
Une approche uniquement radiométrique n’est pas suffisante pour séparer de manière
satisfaisante le domaine boisé du reste de la couverture du sol, que ce soit en mode
supervisé ou non supervisé.
Concernant la productivité des méthodes, la classification non supervisée reste à
privilégier par rapport à la classification supervisée. Même si cette dernière donnera
certainement de meilleurs résultats en affinant les zones d’entrainement, elle est
beaucoup plus longue à mettre en œuvre. En effet, des signatures spectrales doivent être
définies pour chaque image et il faut en outre parfois désigner plusieurs signatures pour
un même élément (forêt, forêt à l’ombre etc…). La classification non supervisée, elle, est
plus systématique, plus rapidement effective et ne nécessite qu’une intervention limitée
d’un opérateur qui doit simplement identifier les classes à postériori. Le paramétrage
peut être réutilisé pour d’autres images puisqu’il ne dépend d’aucune signature spectrale
en particulier et est donc plus productif.
Dans un cas ou dans l’autre, il est impératif que les images soient volées en été au
moment où la végétation est la plus abondante pour faciliter la classification (juilletaoût). Pour l’anecdote, un travail de diplôme antérieur datant de 2006 et traitant de la
restitution supervisée de sentiers pédestres et des routes de montagne à partir d’images
ADS40 [5] mandaté également par Swisstopo préconisait de privilégier les images volées
au printemps (mars-avril) plutôt qu’en été afin justement de s’affranchir des problèmes
de feuillage et de mieux voir les routes et les sentiers.
Sous l’hypothèse de disposer d’images volées en été, le type d’image qui donne le
meilleur résultat pour la détection est l’image RVB. On arrive à bien classer 90 % des
pixels en « forêt » et « non forêt » par classification non supervisée et regroupement.
Cependant, de nombreux problèmes se posent. L’un des plus importants étant celui des
ombres. En effet, on peut avec un nombre de classes suffisant séparer de manière
grossière les ombres du reste du paysage lors de la classification. Les ombres font alors
partie d’une classe à part entière mais cette classe contient toutes les ombres portées et
donc aussi les ombres des arbres sur d’autres arbres. On pourrait décider de classer
cette classe en non forêt, mais en faisant cela les grandes zones de forêt se retrouvent
avec des lacunes très importantes qui ne pourront pas être comblées de manière
automatique. Il faudrait donc dans l’idéal trouver un moyen d’atténuer l’effet de ces
ombres à priori. Ou alors trouver un moyen de les identifier facilement lors de la reprise
manuelle des données. Les autres problèmes importants sont dus à la surexposition au
soleil, à des confusions avec certaines zones herbeuses sombres, à la confusion avec
certains types de toitures de bâtiment et à la non détection de certains types de feuillus.
Photogrammétrie et traitement d’image
42
Julien Fabing
Travail de diplôme 2007
HEIG-VD
5 Propositions d’améliorations
Ce chapitre fait état des propositions d’améliorations émises dans le cadre de ce travail.
Ces propositions s’appliquent aux images acquises en été.
5.1 Prétraitements
5.1.1 Influence de la qualité du MNT lors de la rectification sur le résultat
Pour tester l’influence de la qualité du MNT sur le résultat, on se propose de comparer les
images du jeu de données de Sargans issues d’une orthorectification sur MNT25 et d’une
orthorectification sur MNS-MO (maille de 2 m) avec un GSD d’1 m. On sait que cela va
améliorer la précision, mais on aimerait aussi voir si cela corrige de manière satisfaisante
les problèmes des dévers et des ombres.
Direction du vol
Direction du vol
MNS-MO
MNT25
Figure 53 : Diminution du dévers longitudinal
On observe une nette atténuation des dévers longitudinaux avec l’utilisation du MNS-MO
ce qui permet une bien meilleure superposition des images RVB nadir et CIRF « avant »
pour la configuration SH40 (figure 53).
Direction du vol
Direction du vol
MNT25
MNS-MO
Figure 54 : Légère diminution transversale des ombres portées
On peut en outre constater que le phénomène des ombres portées est très légèrement
atténué perpendiculairement à l’axe de vol grâce au redressement plus précis des arbres
Photogrammétrie et traitement d’image
43
Julien Fabing
Travail de diplôme 2007
HEIG-VD
et du terrain (correction des dévers transversaux). Toutefois, l’amélioration reste
anecdotique en regard de la superficie des zones d’ombres restantes. Les ombres portées
ne sont donc pas éliminées de manière satisfaisante par le procédé (figure 54).
MNT25
MNS-MO
Figure 55 : Amélioration de la précision
Comme on peut le voir sur la figure 55, il peut y avoir un décalage important entre les
limites de forêts sur les images rectifiées sur le MNT25 par rapport aux images rectifiées
sur le MNS-MO (ici jusqu’à 3 pixels, soit 3 mètres).
Comme attendu, la précision est donc meilleure avec le MNS-MO. Les problèmes des
dévers sont en outre bien corrigés. Cependant, cela ne règle pas de manière satisfaisante
le problème des ombres ni celui de la surexposition.
5.1.2 Apport des données SH52 pour la classification
Pour illustrer ce paragraphe, les données du vol « Romanshorn » sont utilisées.
Direction du vol
R, V, B
PIR, R, V
Figure 56 : Canaux PIR, R, V, B parfaitement superposés au nadir (GSD : 25 cm)
Comme on peut le voir sur la figure 56, les pixels des 4 canaux sont parfaitement
superposés au nadir et il n’y a donc plus de problème de dévers longitudinaux (dans la
direction de l’axe de vol). La qualité du MNT pour l’orthorectification est donc beaucoup
moins primordiale qu’avec la configuration SH40 sous la condition de travailler dans la
partie centrale de l’image (car les dévers transversaux sont bien sûr toujours présents).
Photogrammétrie et traitement d’image
44
Julien Fabing
Travail de diplôme 2007
HEIG-VD
L’idée était ici de tester une classification avec une image multispectrale à 4 canaux (R,
V, B, PIR) pour voir si le résultat obtenu était meilleur que les classifications avec les
images 3 canaux RVB et CIRF utilisées jusqu’à présent. Or le vol de Romanshorn a été
effectué en avril et, comme on l’a vu dans le paragraphe 4.2.8, les classifications
effectuées sur des images volées à cette période posent problème. On ne pourra donc
pas tirer de conclusions de ce test sur l’utilisation combinée simultanée des 4 canaux.
Cela reste cependant une piste à investiguer dans le futur.
5.1.3 Travail sur des images 8 bits ou 16 bits
Jusqu’à présent des images 16 bits ont été utilisées. Comme on cherche uniquement à
classer les pixels selon deux grands groupes (forêt et non forêt), il se peut que travailler
sur des images 8 bits soit tout à fait suffisant. On gagnerait ainsi un peu en confort
d’utilisation puisque les images 8 bits sont deux fois moins volumineuses que les images
16 bits. Pour vérifier cela un petit test a été effectué. Une image 8 bits de la zone de test
habituelle de Sargans a été extraite, puis rendue spatialement équivalente à l’image 16
bits utilisée lors des tests précédents avec une fonction légèrement différente de celle
vue en 3.2.2 (voir annexe 7). Puis, des classifications non supervisées à 3, 5 et 10
classes ont été réalisées sur l’image 8 bits. Ensuite, pour vérifier si les classifications ont
été réalisées de la même manière entre les images 8 bits et 16 bits, l’outil « Change
detection » d’IMAGINE a été utilisé. Cet outil permet de mettre en évidence les pixels qui
ne sont pas identiques entre deux images. On peut ensuite facilement compter le nombre
de pixels qui ont été classés différemment entre les deux images classifiées. Enfin, pour
chaque classification, les classes ont ensuite été regroupées en 2 classes « forêt »
(valeur 1) et « non forêt » (valeur 0) identiquement. Les images résultantes ont été
évaluées avec le comparateur habituel pour voir si le résultat final est équivalent ou non.
Avant
classes,
regroupement
on
observe
des
le
4.0%
pourcentage de pixels classés
3.5%
différemment
3.0%
entre
que
Pourcentage de pixels classés différemment
entre les classifications des images 8 bits et 16 bits
les
classifications des images 8 bits
2.5%
2.0%
et celles des images 16 bits
1.5%
augmente selon le nombre de
1.0%
classes (figure 57, annexe 19).
0.5%
0.0%
3 classes
5 classes
10 classes
Figure 57 : Différence entre les classifications 8 bits et 16 bits
En revanche, après avoir effectué le regroupement des classes en classes « forêt » et
« non forêt », on constate qu’on obtient un résultat de qualité équivalente (figures 58 et
59, annexes 16 et 19) avec les images 8 bits et 16 bits.
Photogrammétrie et traitement d’image
45
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Il
Pourcentage de pixels classés différemment
semble
donc
possible
d’utiliser les images 8 bits
après regroupement
4.0%
3.5%
avec cette méthode dans le
3.0%
cas particulier de la détection
2.5%
des
2.0%
forêts
et
obtenir
des
résultats équivalents à ceux
1.5%
1.0%
obtenus avec les images 16
0.5%
bits.
0.0%
3 classes
5 classes
10 classes
Figure 58 : Différence entre les classifications après regroupement
Pourcentage de pixels bien classés
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
Kappa
1.0
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.0
8 bits
16 bits
3 classes RGB
5 classes RGB 10 classes RGB
8 bits
16 bits
3 classes RGB
5 classes RGB
10 classes RGB
Figure 59 : Pourcentage de pixels bien classés après regroupement
Remarque : En travaillant avec des images 8 bits, on s’affranchit du problème des pixels
qui ne sont pas à 1 dans les bandes noires (annexe 1.5).
5.1.4 Détection et correction/atténuation des ombres à priori
Divers essais ont été réalisés pour tenter d’atténuer de manière simple l’effet des ombres
avant la classification. Théoriquement l’information sur la radiométrie des pixels est
présente sous le voile d’ombre, il faudrait donc trouver un moyen de la révéler.
Après avoir effectué une classification (10 classes) puis un regroupement pour séparer
les ombres du reste du paysage, il a été tenté de faire varier le contraste et la luminosité
uniquement sur les zones d’ombre. Le problème est qu’en procédant ainsi, on fait varier
linéairement et simultanément les valeurs des pixels dans les 3 canaux. Or les ombres ne
sont pas toujours projetées sur le même type de sol (herbe, route, arbres etc…). Ces
objets ont des propriétés radiométriques différentes. De plus, l’intensité lumineuse de
chaque ombre n’est pas non plus constante sur toute l’image. On ne peut donc pas
utiliser un modèle global pour corriger toutes les ombres sur toute l’image. Le problème
qui se pose est qu’on ne sait pas de quelle valeur augmenter chaque pixel dans chaque
canal. On peut bien sûr procéder par tâtonnements en modifiant les courbes des trois
histogrammes une à une pour avoir un résultat local plus ou moins satisfaisant mais ce
Photogrammétrie et traitement d’image
46
Julien Fabing
Travail de diplôme 2007
HEIG-VD
n’est pas très productif et d’autre part si le résultat permet de révéler la géométrie des
objets cachée sous les ombres, la radiométrie n’est de toute façon pas très bien corrigée.
Des tests ont aussi été réalisés en utilisant
l’espace
IHS
(Intensity,
hue,
saturation)
en
faisant par exemple varier l’intensité des pixels,
mais
on
se
retrouve
confronté
au
même
problème qui est qu’on ne sait pas de quelle
valeur modifier cette intensité pour chaque pixel.
On voit qu’il n’y a pas de manière simple de
corriger les ombres. On peut toutefois citer deux
études ; l‘une menée par l’IGN en France[41][42]
et l’autre par un groupe japonais sur des images
ADS40 [43] qui montrent avec deux approches
différentes qu’il est possible de corriger avec un
certain succès les ombres (figure 61 et 62).
Figure 60 : Modification de la radiométrie
dans les zones d'ombres
Cependant, ces méthodes sont relativement complexes à mettre en œuvre et nécessitent
beaucoup de traitement ainsi que des données et logiciels supplémentaires. De plus, rien
ne garantit que ces traitements ne seront finalement pas sources de confusions
supplémentaires lors de la classification. En effet, la radiométrie corrigée est loin de
correspondre parfaitement aux zones environnantes. Il y a aussi le problème des
« coutures » qui restent visibles.
Le plus opportun pour le moment
reste donc de conserver les ombres
lors de la classification et de tenter
les éliminer semi-automatiquement
en post classification ou lors de la
reprise manuelle des données.
Figure 61 : Correction des ombres d'après [41]
Remarque :
La
détection
et
la
correction des ombres est un sujet
assez complexe et mériterait peutêtre un travail spécifique.
Figure 62 : Correction des ombres d'après [43]
Photogrammétrie et traitement d’image
47
Julien Fabing
Travail de diplôme 2007
HEIG-VD
5.2 Traitements complémentaires
5.2.1 Classification par texture
Pour la détection des forêts, il n’est pas possible d’utiliser des critères de forme ou de
géométrie comme pour la détection des bâtiments, il n’est pas possible non plus d’utiliser
des outils de détection de contours comme pour les routes. Le seul élément propre à
l’image autre que la radiométrie sur lequel on peut imaginer s’appuyer est la texture. En
effet, on a vu par exemple qu’il y avait parfois une confusion radiométrique entre les
forêts et certains champs. L’approche texturale peut être une réponse à ce genre
problème. Ci-dessous, on peut voir un test réalisé avec une fonction d’analyse de texture
par distance moyenne euclidienne utilisée dans l’imagerie radar.
On voit que les forêts et le tissu bâti sortent
particulièrement bien. Il y a certainement
une piste à explorer de ce point de vue. Il
faut cependant noter que la texture est
directement dépendante de la résolution des
images. Une méthode qui s’appuierait sur cet
élément devrait donc être établie de manière
différente selon la résolution des images.
Cette approche n’étant pas prioritaire pour ce
travail, elle a été mise de côté.
Figure 63 : Analyse de texture
5.3 Post-traitements
5.3.1 Elimination du bruit avec des opérateurs morphologiques
Ici, il s’agit de tester le filtrage du résultat de la
classification
grâce
morphologiques
en
vue
aux
opérateurs
d’éliminer
le
bruit
(pixels mal classés). Pratiquement ici, on utilise
une ouverture (érosion puis dilatation) suivi
d’une fermeture (dilatation puis érosion). Ceci
permet de filtrer les pixels isolés et de combler
les « trous » ainsi que d’adoucir les contours des
grandes zones de forêt. La figure ci-dessous
Figure 64 : Ouverture dans IMAGINE
illustre le résultat de l’opération effectuée sur
l’image « 5 classes » de résolution 1 m.
Photogrammétrie et traitement d’image
48
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Le processus élimine bien les
pixels isolés, il ne reste plus
maintenant que des amas de
Classification et regroupement
pixels. Le travail de reprise
des données sera donc facilité
Ouverture
puisque les zones fausses sont
plus
grandes,
visibles
et
donc
par
plus
conséquent
mieux identifiables. Ces zones
Fermeture
sont aussi moins nombreuses
et
donc
le
processus
de
reprise sera plus rapide.
Figure 65 : Processus de filtrage des pixels (1 m)
L’image résultat est ensuite comparée à l’image de référence par le processus classique.
Le pourcentage de pixels bien classés et le kappa augmentent suite à cette opération
(voir tableau 5 et annexe 16).
5 classes
Pourcentage de pixels bien classés
88 %
Kappa
0.76
5 classes + ouverture + fermeture
89.9 %
0.79
Tableau 5 : Apport des opérateurs morphologiques
Remarque : Ici on a utilisé une matrice noyau de 3x3 pixels. On peut utiliser une matrice
plus grande pour filtrer des amas de pixels plus importants.
Il
faut
cependant
être
prudent dans l’utilisation des
opérateurs
morphologiques.
Classification et regroupement
En effet, si on les applique
sur
une
image
résolution
de
même
faible
avec
le
Ouverture
noyau le plus petit, il peut y
avoir une perte d’information
très
importante
montre
la
comme
figure
le
ci-contre
Fermeture
représentant le même test
effectué
cette
fois
avec
l’image de résolution 5 m.
Figure 66 : Processus de filtrage des pixels (5 m)
Photogrammétrie et traitement d’image
49
Julien Fabing
Travail de diplôme 2007
HEIG-VD
5.3.2 Elimination des bâtiments avec l’aide du NDVI
On a vu qu’il y avait un problème de confusion entre les zones de forêt et les toitures lors
de la classification. L’idée serait de pouvoir éliminer les bâtiments et donc les toitures de
l’image résultat.
L’indice NDVI va se révéler fort utile dans cette optique. En effet, le NDVI permet de
séparer facilement la végétation du domaine bâti et des cours d’eau. Avec un seuillage
adéquat, on peut aisément séparer ces éléments et obtenir une image masque avec la
végétation à 1 et les bâtiments, la route et les cours d’eau à 0 (annexe 8). La valeur de
seuil est à identifier manuellement.
Ensuite il suffit de multiplier l’image résultat par l’image issue de la classification pour
obtenir une image finale débarrassée des pixels bâtiments classés comme forêt (annexe
9). La figure 67 illustre cette opération.
Classification et regroupement
Elimination des bâtiments
dans l’image classifiée
Seuillage de l’image NDVI
Figure 67 : Elimination des bâtiments
Le gain est marginal au niveau du nombre de pixels bien classés sur toute l’image : 0.3
% (voir annexe 16) mais en zone urbaine on peu imaginer que cela permettra une
élimination plus facile des ombres autour des bâtiments lors du filtrage.
Limitations de la méthode : Les toitures comprenant de la végétation
Remarques : En lieu et place du seuillage, on peut imaginer utiliser une classification non
supervisée sur l’image NDVI et un regroupement visuel des classes « en bâtiments », et
« non bâtiments ». Idéalement, il faudrait pouvoir travailler avec des images SH52.
Perspectives : En zone urbaine, on peut imaginer, à la suite du seuillage, récupérer les
arbres à partir du MNH puisqu’ils seraient les derniers éléments restant possédant une
certaine hauteur (à définir selon le type d’arbre recherché).
Photogrammétrie et traitement d’image
50
Julien Fabing
Travail de diplôme 2007
HEIG-VD
5.3.3 Elimination de certains champs et des ombres, apport du MNH
Il faudrait pouvoir éliminer les deux problèmes que sont les champs et les ombres. Pour
cela une idée serait d’utiliser de manière complémentaire un modèle numérique de
hauteur. En effet, si les pixels de l’image résultante de la classification est à 1 et le MNH
est supérieur à une valeur seuil alors on pourra éliminer les ombres et les champs dont
les cultures ont une hauteur inférieure à ce seuil.
Dans un premier temps, il faut transformer les fichiers MNS-MO et MNT-MO format grille
de résolution 2 m fournis par Swisstopo en fichiers image IMAGINE img. Cette opération
est réalisée simplement avec l’outil « create surface » d’IMAGINE. Ensuite, on crée un
MNH à partir du MNS et du MNT à l’aide d’une petite fonction créée dans le Modeler
(annexe 10) qui effectue la soustraction entre les deux (figure 68).
MNS
MNT
MNH
Figure 68 : Création du MNH
D’autre part, on effectue de la manière habituelle une classification et un regroupement
« en forêt » et « non forêt » des classes à partir d’une image que l’on a orthorectifiée sur
le MNS-MO avec un GSD d’1 m (cf. 5.1.1). Ensuite, on applique l’algorithme suivant
implémenté dans le « modeler » (annexe 11) :
SI un pixel est à 1 dans l’image classifiée et que le pixel correspondant est supérieur à 0,3 (m) dans l’image
MNH ALORS le pixel créé dans l’image résultat prend la valeur 1 SINON il prend la valeur 0.
On constate qu’on arrive bien à éliminer
les ombres et les champs ainsi qu’une
partie du bruit. Les toits des bâtiments
sont toujours présent mais on a vu qu’il
était possible de les éliminer en amont
(5.3.2). Par contre, certains arbres qui ne
sont
pas
présents
sur
le
MNH
sont
évidemment absents dans l’image finale.
Ceci pose la question de la date de
validité et de la résolution du MNH.
Figure 69 : Utilisation complémentaire du MNH
Photogrammétrie et traitement d’image
51
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Dans l’idéal, il faudrait utiliser un MNH et donc un MNS avec une meilleure résolution et
si possible acquis dans la même période que les images (dans l’idéal un vol couplé
LiDAR-ADS40). Mais il se pose alors le problème de la taille des fichiers. En effet, dans
l’outil « Create Surface » par exemple le nombre d’objet (points ou lignes) est limité à
6000000.
Remarque : Le choix du seuil de 0,3 mètres pour le MNH est arbitraire. Ce paramètre est
à faire varier selon la hauteur des arbres que l’on souhaite identifier.
5.4 Propositions supplémentaires
5.4.1 Elimination des ombres par classifications successives
Si on ne dispose pas du MNH, on aimerait tout de même pouvoir éliminer les ombres.
L’idée présentée ici est de différencier le traitement des zones d’ombre et des forêts.
C'est-à-dire que lors du regroupement des classes après la classification, au lieu de les
regrouper en deux classes « forêt » et « non forêt », on enregistre deux images, l’une
contenant les classes « ombres » et « non forêt » et l’autre les classes « forêt moins
ombres» et « non forêt ». Ensuite, en utilisant l’image « ombres » comme masque sur
l’image de base, on obtient une image avec uniquement les zones d’ombres (annexe 12).
On espère par la suite pouvoir séparer les ombres sur les arbres des ombres sur le reste
du paysage en effectuant une classification sur ces zones d’ombres uniquement. Par
suite, il suffit d’additionner l’image résultante « ombres sur arbre » avec l’image « forêts
moins ombres ». Pour réaliser ces opérations, il faut un nombre de classes suffisant lors
de chaque classification pour séparer au mieux les éléments. Ici ce sont des
classifications de 10 classes qui ont été utilisées.
+
Image de base
ombres
Forêts moins ombres
Zones d’ombre
=
Ombres sur arbres Forêts moins ombres 2
Ombres 2
etc…
Figure 70 : Elimination des ombres par classification successives, une itération
Cette technique se révèle finalement inefficace avec une seule itération. En effet, on
n’arrive pas à séparer de manière satisfaisante et sur toute l’image les deux éléments
recherchés (ombres sur arbre et ombres sur autres objets) avec un nombre de classes
raisonnable. Le résultat final comporte de trop de grosses lacunes au niveau des grandes
Photogrammétrie et traitement d’image
52
Julien Fabing
Travail de diplôme 2007
HEIG-VD
zones de forêt qu’il n’est pas possible de combler automatiquement à postériori. Il
faudrait éventuellement réitérer l’opération plusieurs fois mais la technique deviendrait
alors trop longue à mettre en œuvre. A défaut de disposer du MNH, il faudra donc
conserver les ombres lors de la classification et les éliminer manuellement lors de la
reprise des données.
5.4.2 Classification « multi-échelle »
Dans l’optique de détecter des fautes (pixels mal classés) à postériori, une idée a été
développée dans le cadre de ce travail. Cette idée consiste à effectuer une classification à
une résolution moins bonne (avec un résultat qui sera donc plus généralisé) et de la
comparer avec la classification réalisée sur une image de meilleure résolution. L’intuition
étant que l’on pourrait peut-être identifier les zones à problème plus rapidement en vue
de la reprise manuelle des données.
Figure 71 : Superposition de classifications 1 m et 5 m
En fait, en utilisant cette méthode, on ne détecte pas les grosses fautes. En effet, quelle
que soit la résolution, il y a toujours les confusions entre la radiométrie des pixels
« forêts » et la radiométrie « champs de maïs » par exemple. L’intérêt pour la reprise des
données reste donc limité. Toutefois on observe que les très petites fautes sont par
contre bien mises en évidence (figure 71).
Aussi, au vu de ce résultat, une autre idée est apparue. Pourquoi ne pas réaliser une
classification qui s’appuierait sur d’autres classifications d’images d’échelles différentes ?
En effet, en sommant les images classifiées de plusieurs échelles, on obtiendrait une
image avec un nombre de classes plus important. Comme les classifications à basse
résolution sont plus généralisées, on peut espérer obtenir des zones plus homogènes
après l’opération. Les zones « forêts » et « non forêts » seront renforcées et on espère
ainsi éliminer une partie du bruit et pouvoir séparer plus facilement les objets. En
quelque sorte, on combine la précision des images haute résolution et l’homogénéité des
images basse résolution.
Photogrammétrie et traitement d’image
53
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Un test a été réalisé pour évaluer cette possibilité. Pour cela, une pyramide d’images a
été créée par dégradation successive de l’image de résolution 1 m (résolution 1 m, 2 m,
4 m, 8 m et 16 m). Puis une classification à 3 classes a été réalisée pour chacune des 5
images. Ensuite les 5 images classifiées ont été simplement sommées sans pondération
(annexe 13). Enfin, les 16 classes (1+2+3+4+5=15 + les pixels à 0) résultantes de
l’image « multi-échelle » ont été regroupées en deux classes forêt (pixels à 1) et non
forêt (pixels à 0). La figure ci-dessous montre un aperçu de l’opération qui a été
effectuée sur toute l’image.
1
2
3
4
5
1+2+3+4+5
Figure 72 : Classification "multi-échelle"
Le résultat obtenu est intéressant puisque 90.7 % des pixels sont finalement bien classés
avec un Kappa de 0.81 contre respectivement 88.3 % et 0.76 avec la classification 3
classes réalisés sur l’image 1 m seule (voir annexe 16). Il faut toutefois noter que la
forme des objets se retrouve parfois grandement simplifiée. Cela est dû à l’influence
sûrement trop importante des images à basse résolution. Cependant, il est certainement
possible d’améliorer la méthode en faisant varier le nombre de classes et/ou la résolution
des images de la pyramide et/ou le nombre d’images de la pyramide et surtout en
introduisant une pondération adéquate entre chaque image classifiée au moment de la
somme. Cela fait beaucoup de paramètres à tester. Comme la méthode de filtrage par
opérateurs morphologiques donne déjà des résultats satisfaisants et que cette nouvelle
méthode ne règlera de toute façon pas les gros problèmes que sont les ombres et la
surexposition, elle n’a pas été développée plus avant.
Photogrammétrie et traitement d’image
54
Julien Fabing
Travail de diplôme 2007
HEIG-VD
5.5 Résultat
Le tableau ci-dessous présente un résumé des propositions testées pour l’amélioration du
Prétraitements
résultat de la classification ainsi que plusieurs constats effectués au cours de ces tests.
Méthode/choix
Avantages
Utilisation d’images
8 bits au lieu
d’images 16 bits
- taille des fichiers divisée par deux
- pas de problème de pixels à 1
dans les bandes noires
Résolution d’image
haute (par ex 1 m)
- arbres isolés détectés
- Beaucoup de bruit
Résolution d’image
basse (par ex 5 m)
- grandes zones homogènes
- Il manque des arbres
Image RVB
- bonne séparation de la forêt et du
reste du paysage
- séparation moins évidente des
différents types d’arbres
Image CIRF
- bonne séparation des différents
types d’arbres
- séparation légèrement moins
bonne de la forêt et du reste du
paysage qu’avec l’image RVB
Image NDVI
- Bonne séparation de la végétation
et des sols nus
- mauvaise séparation de la forêt et
du reste de la végétation
Image RVB+PIR
Utilisation du MNSMO au lieu du
MNT25 pour
l’orthorectification
Données SH52
A tester dans le futur avec données SH52 en été
- meilleure précision
- correction des dévers
longitudinaux (pour SH40)
- correction des dévers
transversaux
- légère diminution des zones
d’ombre
- pas de dévers longitudinaux, tous
les canaux sont parfaitement
superposés au nadir
Post-traitements
Atténuation des
ombres à priori
Autres traitements
Inconvénients
- Gestion plus lourde des fichiers
Méthode peu pertinente dans le contexte
Niveau
d’automatisation
Utilisation
complémentaire
d’une image NDVI
seuillée comme
masque
- Elimination des bâtiments
- les bâtiments qui ont de la
végétation sur les toits ne sont pas
éliminés
- nécessite une intervention
manuelle pour le seuillage
++
Utilisation
complémentaire du
MNH
- élimination des ombres
- élimination de certains champs
(dépend de la hauteur des cultures)
- possibilité de sélectionner les
arbres selon leur hauteur
- nécessite de créer le MNH à partir
du MNS-MO et du MNT-MO
- nécessite le MNH sur toute une
bande ADS40 !
- nécessite l’élimination préalable
des bâtiments
+
Opérateurs
morphologiques
- élimination des pixels isolés
- lissage des contours
+++++
Elimination des
ombres par
classification
successives
Classification multiéchelle
- très légère amélioration de la
séparation des ombres sur les forêts
et des ombres sur le reste du
paysage
- identification facilitée des zones
lors du regroupement
- élimination du bruit
- meilleure homogénéité des zones
-assez rapide à mettre en œuvre
- élimination d’arbres isolés à basse
résolution
- simplification de la géométrie à
basse résolution
- traitement lourd
- trop de trous résiduels importants
dans les zones de forêts
- géométrie simplifiée
- méthode encore à développer
+++
Classification par
texture
A tester dans le futur
- Dépend de la résolution des
images
?
-
Tableau 6 : Synthèse des propositions d'amélioration
Photogrammétrie et traitement d’image
55
Julien Fabing
Travail de diplôme 2007
HEIG-VD
5.6 Conclusion partielle
On peut d’après ces résultats préconiser un type d’image « idéal » à utiliser qui serait
une image multi-spectrale 4 canaux RVB+PIR (8 bits) acquise en configuration
SH52 au nadir et orthorectifiée sur le MNS-MO.
En combinant les méthodes les plus efficaces, parmi celles testées pour éliminer les
zones à problème, on peut en outre dégager trois méthodes pour aboutir à un
résultat amélioré :
Méthode 1 :
- Classification non supervisée puis regroupement sur image RVB (voire RVB + PIR)
- Filtrage du bruit à l’aide des opérateurs morphologiques
Méthode 2 :
- Classification non supervisée puis regroupement sur image RVB (voire RVB + PIR)
- Filtrage des bâtiments à l’aide du NDVI
- Filtrage du bruit à l’aide des opérateurs morphologiques
Méthode 3 :
- Classification non supervisée puis regroupement sur image RVB (voire RVB + PIR)
- Filtrage des bâtiments à l’aide du NDVI
- Filtrage des ombres et de certains champs avec l’utilisation complémentaire du MNH
- Filtrage du bruit à l’aide des opérateurs morphologiques
Photogrammétrie et traitement d’image
56
Julien Fabing
Travail de diplôme 2007
HEIG-VD
6 Evaluation des méthodes
Dans ce chapitre on se propose d’évaluer les différents procédés retenus et en particulier
le temps consacré à chaque processus ainsi que le temps qui sera nécessaire à la reprise
manuelle des données.
6.1 Données
On ne dispose pas d’un jeu de données optimal comme défini au chapitre 5.6. On essaie
cependant de s’en rapprocher au mieux. La zone utilisée pour ce dernier test est la zone
d’1 km2 de Sargans dont on possède le MNS-MO. Cette zone est intéressante car c’est
une partie de la bande ADS40 utilisée qui n’est pas très favorable pour la détection semiautomatique des forêts car elle présente un peu tous les types de zones problématiques
vues dans le chapitre 4.2.5. On pourra donc évaluer le temps de reprise manuelle des
données dans un cas très défavorable ce qui apportera des informations intéressantes
sur la possible compétitivité des méthodes par rapport à une saisie entièrement
manuelle.
On utilise comme base une image RVB et une image CIRF orthorectifiée sur le MNS-MO.
Les images avaient déjà été créées en 16 bits pour un test précédent, elles ont donc été
réutilisées mais des images 8 bits auraient été suffisantes.
6.2 Procédure
On applique les trois méthodes décrites dans le paragraphe 5.6 aux images. Puis on
observe l’amélioration apportée par ces méthodes à chaque étape par le pourcentage
d’objets bien classés, le kappa et le nombre d’amas de pixels à corriger (annexe 20).
Pour déterminer le nombre d’amas de pixels à corriger, on procède de la manière
suivante :
A partir des images synthétiques d’évaluation de la classification, on utilise la fonction
« Clump » d’IMAGINE sur le canal « erreur de première espèce » et sur le canal « erreur
de seconde espèce ». Ceci nous permet de créer deux nouvelles images dans lesquelles
les pixels ont été regroupés par voisinage (le programme regarde si un pixel a un voisin
dans les 8 connexités et si oui regroupe les deux pixels) puis numérotés. On peut donc
facilement compter le nombre d’amas dans les deux images. Pour connaître le nombre
total d’amas à corriger, il suffit d’additionner les deux nombres.
Photogrammétrie et traitement d’image
57
Julien Fabing
Travail de diplôme 2007
HEIG-VD
6.3 Résultat
eu
es
Un
Classification
(10 classes) et
regroupement
Intervention
manuelle :
< 5 min
i
le
g
ma
n
ee
SH
52
Calcul
du
NDVI
Intervention
manuelle :
< 1 min
Création
de
l’image MNS
Intervention
manuelle :
< 5min
Seuillage
NDVI
Création
de
l’image MNT
du
Intervention
manuelle :
< 5 min
Intervention
manuelle :
< 5 min
Ouverture +
Fermeture
Intervention
manuelle :
< 5 min
Elimination
des bâtiments
Intervention
manuelle :
< 1 min
Création
du
MNH
Intervention
manuelle :
< 1 min
% pixels bien
classés :
86.9 %
% pixels bien
classés :
84.9 %
Kappa :
Kappa :
0.71
0.67
Nombre amas
à corriger :
2166
Nombre amas
à corriger :
11711
% pixels bien
classés :
82.8 %
Kappa :
0.63
Nombre amas
à corriger :
10650
Ouverture +
Fermeture
Intervention
manuelle :
< 5 min
Combinaison
avec le MNH
Intervention
manuelle :
< 1 min
% pixels bien
classés :
88.8 %
% pixels bien
classés :
90.8 %
Kappa :
Kappa :
0.74
0.77
Nombre amas
à corriger :
2191
Nombre amas
à corriger :
8530
Ouverture +
Fermeture
Intervention
manuelle :
< 5 min
Méthode 1
Méthode 2
% pixels bien
classés :
92.5 %
Méthode 3
Kappa :
0.81
Nombre amas
à corriger :
1969
Figure 73 : Evaluation des trois méthodes dans un cas défavorable
Photogrammétrie et traitement d’image
58
Julien Fabing
Travail de diplôme 2007
HEIG-VD
La combinaison des différentes techniques permet chaque fois une amélioration du
pourcentage de pixels bien classés et du Kappa ainsi qu’une diminution du nombre
d’amas de pixels à corriger. Il y a donc une réelle amélioration apportée par la
combinaison des traitements proposés.
Figure 74 : Données à reprendre manuellement selon la méthode
Cependant, quelle que soit la méthode, il reste beaucoup de fautes. Ces fautes sont
dispersées sur toute l’image. Elles semblent encore plus nombreuses et dispersées dans
la partie urbaine. Ceci est en partie dû à la configuration SH40 car il reste du dévers
entre les bâtiments « RVB » et « CIRF ». La méthode avec le MNH donne un résultat
assez squelettique, il y a plus d’objets manquants, mais les gros objets en surplus sont
bien éliminés.
6.4 Reprise des données
Pour quantifier le temps de reprise des données, une idée était de se baser sur le nombre
d’amas de pixels à corriger. En effet, on pourrait se dire par exemple que si le nombre
d’amas à corriger est nettement inférieur au nombre d’objets présent sur l’image, le
temps de reprise des données sera alors inférieur au temps de la saisie manuelle de tous
les objets. Dans ce cas, l’extraction semi-automatique se révèlera avantageuse. A
contrario, si le nombre d’amas à corriger est supérieur ou de l’ordre de grandeur du
nombre d’objets à saisir alors la méthode semi-automatique n’est pas intéressante.
Cependant, on ne peut pas procéder ainsi. En effet, il y aura toujours au moins une
« faute » sur chaque objet puisque l’extraction semi-automatique ne correspondra jamais
à 100% à la saisie manuelle. Donc, le nombre d’amas à corriger réel sera moins
important que celui calculé jusqu’ici. Il n’est pas possible quantifier précisément ce
nombre puisque la différence de saisie peut engendrer plus d’un amas « faux » pour un
même objet (figure 75). D’autre part, au moment de la reprise manuelle des données,
plusieurs amas « faux » seront certainement corrigés en une seule fois car les objets
contenant trop de fautes seront ressaisis entièrement. Il n’est donc pas possible de
Photogrammétrie et traitement d’image
59
Julien Fabing
Travail de diplôme 2007
HEIG-VD
donner une indication sur le temps de reprise des données en procédant de cette
manière. Le nombre d’amas à corriger reste toutefois un indicateur intéressant de la
qualité du résultat.
Figure 75 : Image, saisie manuelle, extraction semi-automatique, erreurs
Pour quantifier le temps de reprise des données, à moins d’élaborer un modèle
statistique complexe se basant sur les pixels ou les amas de pixels à corriger, il faut donc
se résoudre à un test réel.
Le test a donc été réalisé en saisissant manuellement tous les arbres et arbustes sur
l’image RVB. Cette saisie a pris environ 2 heures (pour 380 objets). Il a ensuite été tenté
de reprendre manuellement les données issues de la deuxième méthode. Au bout de
deux heures, le travail de reprise n’étant toujours pas terminé, il a été interrompu. La
méthode semi-automatique utilisée ne semble donc pas suffisamment compétitive en
l’état pour rivaliser avec une saisie entièrement manuelle.
Le même test n’a pas pu être réalisé avec les autres méthodes faute de temps,
cependant, vu le nombre d’amas à corriger quasi-identique avec les trois méthodes et
même si on a vu que ce nombre n’était pas exact, on peut penser que le résultat sera
similaire au niveau du temps de reprise des données.
Le temps de reprise devrait toutefois être un peu moins long avec des données SH52 car
il y aura moins de fautes en zone urbaine mais la différence ne devrait pas être
significative.
6.5 Conclusion partielle
Les méthodes proposées améliorent de façon nette le résultat, cependant ces
améliorations sont loin de régler tous les problèmes. Il reste des fautes. Ces fautes sont
très dispersées sur l’image et en particulier dans la partie urbaine. En outre, Le temps de
reprise des données est beaucoup trop long pour que les différentes méthodes restent
intéressantes et productives par rapport à la saisie entièrement manuelle. Il faudrait
peut-être essayer approfondir d’autres méthodes, en particulier, l’approche basée sur la
texture qui avait été mise de côté est peut-être opportune sur des images à haute
résolution pour bien discriminer les éléments.
Photogrammétrie et traitement d’image
60
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Conclusion et perspectives
Ce travail a permis de montrer qu’avec des outils simples de classification non supervisés
présents dans n’importe quel logiciel de traitement d’image à référence spatiale du
marché, on arrive à séparer les forêts du reste du paysage avec un total d’environ 90%
de pixels bien classés. Les 10% de pixels restants mal classés ont plusieurs origines :
confusion avec la radiométrie des ombres, surexposition au soleil, confusion avec
certaines zones herbeuses, confusion avec certains types de toitures de bâtiment, non
détection de certains types de feuillus.
Cependant, ce résultat n’est valable à priori que pour des images volées en plein été
(juillet-août) quand le feuillage des arbres est à maturité. C’est à cette période que les
images donnent le meilleur résultat pour la classification car la confusion entre le
feuillage et l’herbe y est moindre. C’est un point très pénalisant car cela restreint
fortement la fenêtre des vols qui sont généralement réalisés de juin à septembre pour la
réalisation du produit Swissimage et au printemps pour effectuer de la stéréo-restitution.
Cela illustre bien toute la problématique du choix des dates de vol pour la mise à jour de
bases de données. Selon le type de données à saisir la problématique est différente. Elle
est particulièrement complexe pour la forêt et les arbres dont la couleur du feuillage
évolue au fil des saisons.
Sous
l’hypothèse
d’utiliser
des
images
volées
en
plein
été,
des
propositions
d’amélioration ont été émises et testées pour pouvoir éliminer certains des problèmes de
confusion. Ainsi, on arrive par exemple avec succès à éliminer les bâtiments de l’image
en utilisant l’indice NDVI ou à filtrer les pixels isolés en utilisant des opérateurs
morphologiques.
Malgré les traitements utilisés pour améliorer les classifications, il reste des fautes. Ces
fautes sont très longues à reprendre manuellement car elles sont très dispersées et de
tailles très différentes sur les images. Elles sont particulièrement nombreuses en zones
urbaines. On peut raisonnablement penser que ces fautes seront moins nombreuses avec
une configuration de données idéale, à savoir des images multi-spectrales de quatre
canaux RVB+PIR (8 bits) acquises en configuration SH52 au nadir et orthorectifiées sur
le MNS-MO, du fait principalement de l’atténuation (mais pas disparition) des dévers et
de la superposition parfaite des quatre canaux spectraux. Néanmoins, même dans cette
configuration, il semble peu probable que la méthode semi-automatique telle que décrite
dans ce travail puisse rivaliser avec une saisie entièrement manuelle qui sera par ailleurs
bien plus précise.
Photogrammétrie et traitement d’image
61
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Toutefois toutes les méthodes n’ont pas pu être testées dans le détail, en particulier,
l’approche
texturale
qui
semble intéressante
pour
venir
en
appui
des
critères
radiométriques qui ne sont pas suffisants.
D’autre part, les méthodes qui s’appuient sur le MNH sont aussi intéressantes, surtout si
on utilise un MNH de très grande qualité et au moins aussi à jour que les images (par
l’intermédiaire d’un vol couplé ADS40/LiDAR par exemple). Mais le fait de travailler sur
des bandes ADS40 entières fait émettre de grandes réserves quant à la faisabilité de ces
méthodes car les MNS et MNH utilisés devront couvrir ces zones très importantes. Les
fichiers de ces modèles seront par conséquent très lourds et difficilement manipulables et
importables dans les logiciels de traitement d’image comme IMAGINE du fait du trop
grand nombre de points.
Par ailleurs, on se rend compte que plus la résolution des images est haute, plus le
résultat est bruité. Les problèmes constatés étant déjà nombreux avec une résolution
d’un mètre, on pourrait se résoudre à travailler avec des images de résolution plus faible,
par exemple cinq mètres et obtenir un résultat un peu meilleur au niveau de la reprise
des données car offrant des zones plus homogènes. Cela serait peut-être suffisant pour
mettre à jour des produits tels que Vector25. Mais cela a peu de sens de travailler avec
des images à la base si riches à de si faibles résolutions. Dans ces conditions, il est
certainement préférable de travailler avec des images satellites qui présentent comme
avantage, à résolution égale, d’être acquises chaque année à la même période sur une
même zone. Elles offrent aussi une panoplie de canaux spectraux (et donc de possibilités
de séparation) plus importantes.
La richesse des images ADS40 qui semblait à priori être un avantage se révèle
finalement dans ce contexte un désavantage à cause de la faible homogénéité
radiométrique qui en résulte au niveau des zones de forêt. Ceci rajouté au fait que l’on
travaille sur de très grandes zones souvent accidentées où la radiométrie peut varier
pour un même type d’arbre d’un endroit à l’autre de l’image suivant l’exposition des
versants et créer plus ou moins de confusions avec les éléments de végétation alentours.
Avec ce travail, on atteint quelque peu les limites de ce qu’on peut obtenir avec des
méthodes « simples ». Pour de meilleurs résultats, il faudrait donc passer à des
méthodes plus complexes telles que la segmentation, les bases de connaissances et les
approches orientées objets avec ce que cela comprend comme frein à la productivité au
niveau des paramétrages et de la taille des zones à traiter.
Photogrammétrie et traitement d’image
62
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Perspectives en foresterie ?
On peut tout de même entrevoir un avenir intéressant pour les images ADS40 volées par
Swisstopo dans le domaine de la foresterie par exemple.
En effet, on a vu que ce qui pose principalement problème, c’est le nombre de types
d’objets différents dans une image. Ceci crée une confusion radiométrique entre la forêt
et le reste du paysage et en particulier les autres végétaux. C’est d’autant plus vrai au
printemps. Cependant, en limitant les traitements à l’intérieur des zones de forêt, on
peut de manière assez simple séparer les feuillus et les épineux et ce avec une contrainte
de période de vol plus souple (de mi-mai à mi-septembre). La présence de feuillage sur
les arbres reste néanmoins nécessaire.
A ce titre, on peut voir sur les figures 76 et 77 que de simples classifications non
supervisées de respectivement trois et cinq classes sur une zone à l’intérieur d’une forêt
permettent de séparer facilement feuillus, épineux et zones d’ombre. On remarquera au
passage que l’ombre reste un problème récurrent.
Figure 76 : Séparation des feuillus et des épineux (Sargans, 28 juillet 2005)
Figure 77 : Séparation des feuillus et des épineux (Thun, 26 mai 2005)
Par conséquent, on peut par exemple imaginer utiliser un outil tel que RALF (Restitution
Automatique des Lisières de Forêt) [68] déjà utilisé dans le projet SAU pour extraire les
zones de forêt. Ces données pourraient alors servir de masque sur les images ADS40
pour dégager uniquement la radiométrie des zones de forêt et permettre d’effectuer des
classifications sur ces zones seulement. Ainsi, on peut raisonnablement envisager de
réaliser simplement une cartographie semi-automatique des forêts.
Photogrammétrie et traitement d’image
63
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Yverdon-les-Bains, le 17 décembre 2007
Julien Fabing
Photogrammétrie et traitement d’image
64
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Bibliographie
Papier :
[1] Mandat
[2] Cours de télédétection de M. François Gervaix
[3] Cours de télédétection de Traitements d’images satellitaires avec ERDAS IMAGINE du Dr. Pierre Terrettaz
[4] Cours de traitements d’images de M. Edouard Beauvillain (IGN)
[5] Restitution supervisée de sentiers pédestres et routes de montagnes à partir d’images ADS40 couleurs et
proche infrarouge, Travail de diplôme 2006 de M. Joël Gasser.
[6] Rapport Condor Expertise, HEIG-VD. Août 2006
Internet :
Pages consultables au 28/09/2007
Télédétection :
[7] http://ccrs.nrcan.gc.ca/glossary/index_f.php?id=2179
[8] http://telsat.belspo.be/bEO/fr/guide/
[9] http://www.bibliotheque.refer.org/livre23/l2310.pdf
[10] http://www.unoosa.org/pdf/sap/2005/morrocco1/presentations/HAKDAOUIF.pdf
[11] http://www.iro.umontreal.ca/~dift2730/cours/Cours2_IFT2730_2006_6.pdf
[12] http://www.uwm.edu/~rama/gisday2006_workshop.pdf
ADS40 :
[13] http://www.dewberry.com/uploadedFiles/Leica_ADS40_Presentation_082907.pdf
[14] http://www.swisstopo.ch/pub/down/products/digital/ortho/SWISSIMAGE_info_fr.pdf
Photogrammétrie et traitement d’image
65
Julien Fabing
Travail de diplôme 2007
HEIG-VD
ADS40 SH52 :
[15] http://agrifish.jrc.it/marspac/meetings/Toulouse2006/Parallel3/S3_ARohrbach_ADS40.pdf
Classification avec images ADS40 :
[16] http://www.swisstopo.ch/pub/down/about/coll/coll_2006_2007/070216/3_EPFL_Gachet.pdf
[17] http://www.swisstopo.ch/pub/down/about/coll/coll_2006_2007/070216/4_RSL_Kellenberger.pdf
[18] http://www.gisdevelopment.net/aars/acrs/2002/sol/059.pdf
[19] http://www.geo.uzh.ch/rsl/research/LACOMM/ADS40/
[20] http://www.eomonline.com/Archives/Dec03/Ehlers.html
[21] http://ethesis.inp-toulouse.fr/archive/00000282/01/bailloeul.pdf
Classification classique :
[22] http://www.swisstopo.ch/pub/down/about/coll/coll_2006_2007/070216/5_MFB_Terretaz.pdf
[23] http://www.swisstopo.ch/pub/down/download/geodatanews/13_2007_de-fr.pdf
[24] http://www.cstars.ucdavis.edu/classes/ers186-w05/classification/slides.pdf
[25] http://marte.dpi.inpe.br/col/ltid.inpe.br/sbsr/2004/11.21.19.34/doc/3379.pdf
[26] http://ethesis.inp-toulouse.fr/archive/00000282/01/bailloeul.pdf
[27] http://themadmax.free.fr/stage/Rapport.pdf
[28] http://www.theses.ulaval.ca/2007/24216/ch03.html
[29] http://www.grenoble.cemagref.fr/doc/pdf/CDROM/Reports/14-1630-JBB.pdf
[30] http://www.inra.fr/internet/Hebergement/afes/pdf/EGS_3_2_LEGROS96.pdf
[31] http://138.102.82.2/IMG/pdf/these_gaddas.pdf
[32] http://www-direction.inria.fr/international/AFRIQUE/euromed/Rapports06/Desmed.pdf
[33] http://www.yale.edu/ceo/Projects/swap/pubs/geerkenetal2005.pdf
Photogrammétrie et traitement d’image
66
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Classification forêts :
[34] http://edoc.bib.ucl.ac.be:81/ETD-db/collection/available/BelnUcetd-04202006150020/unrestricted/kayitakire_thesis_chap1.pdf
[35] http://www.greenhouse.crc.org.au/injune/further_info/papers/2006_injune_casi_crown_delin.pdf
[36] http://www.ipi.unihannover.de/html/publikationen/2007/workshop/paper/Safia_he_belbachir_bounoua.pdf
Classification glaciers :
[37] http://lasig.epfl.ch/enseignement/cours/sigenv/2007/groupe5.pdf
[38] http://www.geo.unizh.ch/~kaeaeb/paul_lis_02.PDF
[39] http://www.impetus.uni-koeln.de/content/download/Ouarzazate/hanich.pdf
[40] http://ccrs.nrcan.gc.ca/resource/tutor/polarim/chapter7/03_f.php
Détection et atténuation/correction des ombres :
[41] http://recherche.ign.fr/doc/BI75/B01_75_MARTINOTY.pdf
[42] http://recherche.ign.fr/doc/BI74/B02_74_BOLDO.pdf
[43] http://www.isprs.org/istanbul2004/comm3/papers/378.pdf
ER Mapper :
[44] http://www.ermapper.com/
[45] http://web.univ-pau.fr/~deletraz/dos_santos_1.pdf
Geomatica :
[46] http://www.pcigeomatics.com/products/pdfs/G10brochure.pdf
ERDAS IMAGINE :
[47] http://www.mfb-geo.com/pic/pdf/brochure_ERDAS_IMAGINE_9.pdf
Photogrammétrie et traitement d’image
67
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Envi :
[48] http://www.ittvis.com/envi/pdfs/ENVI_FeatureExtract.pdf
e-cognition (definiens):
[49] http://www.swisstopo.ch/pub/down/about/coll/coll_2006_2007/070216/6_UNIGE_Jaquet_Klaus.pdf
[50] http://www.swisstopo.ch/pub/down/about/coll/coll_2003_2004/23JAN04-Satellitenbilder/NPOC_UniGE.pdf
[51] http://lasig.epfl.ch/projets/cantons/doc_veille_tech/ecognition.pdf
[52] http://alban-thomas.exen.fr/file/BoisObjet.pdf
[53] http://mgilmore.web.wesleyan.edu/phragms/phragmanuv4.doc
[54] http://www.greenhouse.crc.org.au/injune/further_info/papers/2006_injune_casi_crown_delin.pdf
Feature analyst :
[55] http://www.featureanalyst.com/feature_analyst.htm
[56] http://gi.leica-geosystems.com/LGISub1x285x0.aspx
[57] http://gi.leica-geosystems.com/documents/pdf/VLS_obrien_asprs.pdf
[58] http://gi.leica-geosystems.com/documents/pdf/VLS_forest_service.pdf
Comparaison E-cognition et ERDAS IMAGINE :
[59] http://earth.esa.int/rtd/Events/ESA-EUSC_2006/Oral/Pr18_Ohlhof.pdf
Classification orientée objet (type e-cognition) :
[60] http://cassini.univ-lr.fr/versionFrancaise/GTObservationTerre/JourneeCaen7_11_2005/Jacquin-GayPURPAN.pdf
[61]
http://www.commission4.isprs.org/obia06/Papers/04_Automated%20classification%20Agriculture/OBIA2006_Fi
sette_et_al.pdf
Photogrammétrie et traitement d’image
68
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Vector 25:
[62] http://www.swisstopo.ch/fr/products/digital/landscape/vec25/index
[63] http://lasig.epfl.ch/services/documentation/vector25.pdf
[64] http://www.swisstopo.ch/pub/down/products/digital/landscape/vector25_info_fr.pdf
TLM (MTP):
[65] http://www.ikg.uni-bonn.de/fileadmin/nextgen3dcity/pdf/NextGen3DCity2005_Streilein.pdf
[66] http://www.cadastre.ch/pub/down/publications/bulletin/2004_3_fr.pdf
[67] http://www.swisstopo.ch/pub/down/about/coll/coll_2005_2006/TLM/20060310%20TLM.pdf
Projet SAU/RALF :
[68] http://www.swisstopo.ch/pub/down/download/geodata/height/dom_dtmAV_fr.pdf
Photogrammétrie et traitement d’image
69
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Remerciements
En premier lieu, je voudrais remercier Monsieur François Gervaix, professeur responsable
de ce travail de diplôme pour m’avoir conseillé tout au long de cette étude et pour sa
disponibilité même tard le soir lors de mes problèmes avec GPro.
Je tiens également à remercier :
Monsieur Stephane Bovet, répondant externe, pour m’avoir reçu chez Swisstopo et pour
ses remarques constructives qui m’ont aidées à orienter mon travail.
Madame Renata Castioni et Monsieur Raphaël Seuret pour la préparation des données
MNT.
LEICA GEOSYSTEMS pour la fourniture du jeu de données SH52 de démonstration de
Romanshorn très bien documenté et ordonné.
Mes collègues diplômant du Labo D58 : François, Giacomo et Julien pour leur bonne
humeur et pour les conversations enrichissantes échangées autour de nos différents
sujets.
Mes autres collègues de la GO2007 et particulièrement Florence pour son soutien.
Enfin, je remercie Annick pour sa relecture, ses encouragements et son soutien
permanent ainsi que ma petite Maylis à qui je dédie ce travail.
Photogrammétrie et traitement d’image
70
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Mandat
Photogrammétrie et traitement d’image
71
Julien Fabing
Travail de diplôme 2007
Photogrammétrie et traitement d’image
HEIG-VD
72
Julien Fabing
Travail de diplôme 2007
Photogrammétrie et traitement d’image
HEIG-VD
73
Julien Fabing
TRAVAIL DE DIPLOME
Photogrammétrie et traitement d’image
Reconnaissance, extraction et classification semi-automatique de la
végétation, des forêts, des éboulis et des glaciers dans les images
ADS40 en utilisant toutes les bandes spectrales (R, V, B, PIR)
Annexes
par
Julien Fabing
Pièce n°2
17 Décembre 2007
Professeur responsable :
François Gervaix
Répondant externe :
Stéphane Bovet
Sujet proposé par :
Swisstopo
Travail de diplôme 2007
HEIG-VD
Liste des annexes
Annexe 1 : Problèmes avec GPro ...................................................................................................... II
Annexe 1.1 : Problème selon la résolution des images......................................................................... II
Annexe 1.2 : Problème de la fonction auto rotation............................................................................ III
Annexe 1.3 : Problème de rééchantillonnage avec la fonction Fast Rectification ..................................... IV
Annexe 1.4 : Problème des images de base fortement chahutées ....................................................... VII
Annexe 1.5 : Problème des pixels qui ne sont pas à zéro dans les bandes noires ................................. VIII
Annexe 2 : Comparaison sommaire des logiciels ..............................................................................IX
Annexe 3 : Fonction filtrage des pixels .............................................................................................. X
Annexe 4 : Fonction seuillage de l’image référence ........................................................................ XII
Annexe 5 : Fonction création d’une image d’analyse .....................................................................XIII
Annexe 6 : Calcul de l’image NDVI................................................................................................... XV
Annexe 7 : Prétraitement images 16 bits et 8 bits ........................................................................ XVII
Annexe 8 : Image NDVI binaire ......................................................................................................XIX
Annexe 9 : Fonction multiplication .................................................................................................. XX
Annexe 10 : MNH à partir de MNS et MNT .......................................................................................XXI
Annexe 11 : Image classifiée et MNH ........................................................................................... XXII
Annexe 12 : Image et masque .....................................................................................................XXIII
Annexe 13 : Somme 5 images.......................................................................................................XXIV
Annexe 14 : Classifications supervisées 5 m Sargans .................................................................... XXV
Annexe 15 : Classifications non supervisées 5 m Sargans ............................................................XXVI
Annexe 16 : Classifications non supervisées 1 m Sargans .......................................................... XXVII
Annexe 17 : Zone forêt / Zone urbaine Sargans ....................................................................... XXVIII
Annexe 18 : Classifications sur deux images différentes d’un même vol Sargans.........................XXIX
Annexe 19 : 8 bits /16 bits Sargans .............................................................................................. XXX
Annexe 20 : Test des trois méthodes Sargans ..............................................................................XXXI
Annexe 21 : Planning.................................................................................................................. XXXII
Photogrammétrie et traitement d’image
I
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 1 : Problèmes avec GPro
Cette annexe présente les différents problèmes rencontrés avec le logiciel GPro de LEICA.
Annexe 1.1 : Problème selon la résolution des images
Pour sortir une image L2 à une résolution de 2 m ou supérieure à partir d’une image L0,
il est impératif d’utiliser la fonction Fast Rectification, autrement GPro est sujet à un
problème d’allocation mémoire :
Sans la fonction Fast Rectification, l’image résultante n’est pas entièrement achevée. De
plus, de nombreux pixels dans les parties réalisées possèdent des couleurs excentriques.
Remarque : La fonction Pixel Wise ne fonctionne pas non dans de telles conditions.
Figure 1 : Problème pour extraire des images de faible résolution
Photogrammétrie et traitement d’image
II
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 1.2 : Problème de la fonction auto rotation
Le rapport Condor [6] mentionnait déjà un problème avec la fonction auto rotation qui
est censée permettre à l’image d’effectuer une rotation afin d’obtenir une image verticale
ou horizontale tout en conservant sa géoréférence. Cette fonction doit permettre en
théorie de réduire considérablement les bandes noires autour des images qui sont
naturellement plus importantes dans une image oblique et donc de réduire la taille et le
poids des images. Lors du test effectué à l’occasion du rapport Condor, il avait été
montré que si l’image effectuait bien la rotation, des bandes noires étaient toujours bien
présentes et que l’image finale était même un peu plus grande que l’image de base. Ce
qui n’est bien évidemment pas le but recherché. Disposant de la dernière mise à jour de
GPro, un nouveau test a été effectué lors de ce travail pour voir si le bug avait été
corrigé dans l’optique de pouvoir travailler avec des images moins lourdes.
Avec auto rotation
Sans auto rotation
Figure 2 : Bug de la fonction auto rotation de GPro
Comme on peut le voir sur la figure ci-dessus, le bug n’est toujours pas corrigé, le
résultat est même encore plus mauvais qu’attendu puisque l’image a été purement et
simplement tronquée. Il manque en effet deux tiers de l’image de base. Cette fonction
n’est donc toujours pas exploitable à l’heure actuelle.
Photogrammétrie et traitement d’image
III
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 1.3 : Problème de rééchantillonnage avec la fonction Fast Rectification
Pour ce travail, il était dans un premier temps question de faire de l’extraction sur des
images à faible résolution (5 m) pour pouvoir identifier rapidement les problèmes
principaux posés lors de la classification. En effet, les processus sont plus rapides avec
des images plus petites. L’idée était de comparer la classification d’une image L2 (GSD
de 5 m) extraite dans GPro avec à une image référence (GSD 5 m) rééchantillonnée à
partir d’une image haute résolution (GSD 25 cm) sur laquelle auraient été saisis les
objets recherchés. Mais pour que cette comparaison soit pertinente, il faut que les pixels
soient le plus possible en concordance entre les deux images. Or lors d’un test pour
vérifier cette concordance, il a été constaté un phénomène étrange de décalage des
pixels de l’image basse résolution (image C) par rapport à l’image haute résolution
(image A) et par rapport à l’image rééchantillonnée à 5 m (image B). Un décalage était
bien sûr à prévoir car les deux images à 5 m n’ont pas été traitées de la même façon
mais le décalage observé était tout de même très important comme on peut le constater
sur la figure ci-dessous :
B
A
Image L2 (GSD 25 cm)
OK
Image rééchantillonnée à 5 m partir de l’image
A dans IMAGINE
C
Image L2 (GSD 5m) (Fast Rectification)
Figure 3 : Problème de décalage des pixels
Photogrammétrie et traitement d’image
IV
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Le décalage est de l’ordre d’un pixel, soit cinq mètres ce qui est gênant surtout dans la
perspective de comparer les images classifiées à une image de référence.
Pour tenter d’identifier et de remédier à ce problème, plusieurs tests ont été réalisés. Il a
d’abord été tenté de recalculer les pyramides des images brutes afin de voir si celles-ci
n’avaient pas été altérées. Le résultat s’est révélé identique avec ces nouvelles
pyramides. Le MNT ne semble pas en cause car les images RGB (nadir) et CIRF (avant)
orthorectifiées à partir de ce dernier se superposent bien. Il a aussi été tenté de sortir
l’image à une meilleure résolution (voir figure 4). Le décalage est toujours de l’ordre d’un
pixel soit cette fois de 2.5 m.
Image L2 (GSD 25 cm)
Image L2 (GSD 2,5 m) (Fast Rectification)
Figure 4 : Problème lors du rééchantillonnage
Le soupçon concernant la cause de ce problème s’est finalement porté sur la fonction
Fast Rectification. En effet, cette fonction ne calcule pas directement les images L2 à
partir des images L0 mais à partir de l’image pyramidale de résolution juste supérieure à
la résolution souhaitée ceci afin de gagner du temps de calcul. Le rééchantillonnage et
l’orthorectification à partir de l’image pyramidale sont apparemment moins précis qu’en
partant de l’image de base, surtout que les images de ce jeu de données nécessitent des
rotations. On ne peut pas vérifier cette hypothèse à basse résolution car on est toujours
obligé d’utiliser le mode Fast Rectification (annexe 1.1), cependant on peut le vérifier à
plus haute résolution. Un test a été réalisé à 0,5 m sans et avec Fast Rectification.
Photogrammétrie et traitement d’image
V
Julien Fabing
Travail de diplôme 2007
HEIG-VD
La figure ci-dessous montrant une route en bord d’image met bien en évidence le
phénomène de décalage qui semble donc effectivement dû à la fonction Fast
Rectification.
4 pixels
5 pixels
7 pixels
6 pixels
5 pixels
5 pixels
4 pixels
3 pixels
GSD 0,5 m sans Fast Rectification
GSD 0,5 m avec Fast Rectification
Figure 5 : Problème de décalage des pixels dû à la fonction Fast Rectification
Photogrammétrie et traitement d’image
VI
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 1.4 : Problème des images de base fortement chahutées
Dans ce paragraphe est mentionné un problème rencontré avec une image L0 ADS40
fortement « chahutée » à certains endroits. Dans de tels types de zone, l’image n’est pas
toujours parfaitement corrigée géométriquement lors de l’orthorectification, comme le
montre par exemple la figure ci-dessous :
Image L2 sans Fast Rectification
Image L0
Image L2 avec Fast Rectification
Image L2 sans Fast Rectification et avec Pixel Wise
Figure 6 : Amélioration apportée par la fonction Pixel Wise
La fonction Pixel Wise semble mieux s’en sortir avec ce type d’image mouvementé.
Cependant le temps de calcul pour sortir les images est plus long avec cette fonction.
Photogrammétrie et traitement d’image
VII
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 1.5 : Problème des pixels qui ne sont pas à zéro dans les bandes noires
Un problème supplémentaire a été rencontré avec GPro. Les images L2 extraites dans
GPro possèdent des bandes noires autour de l’image comme nous l’avons vu
précédemment. Cependant ces pixels ne sont pas tous de valeur 0. Certaines zones de
pixels ont une valeur radiométrique de 1.
Figure 7 : Problème des pixels noirs non nuls
Comme on applique une courbe de correction linéaire de l’histogramme, ces pixels se
trouvent donc après traitement avec la valeur 16 (1*65536/4096). Ce problème est
gênant dans la perspective d’effectuer des classifications automatiques. Si on peut
ignorer facilement la valeur 0 lors du calcul, il reste ces pixels qui forment une masse
importante et qui risquent de biaiser le résultat de la classification et des statistiques sur
les résultats. Il faudra donc filtrer ces pixels dans IMAGINE.
Remarque : Ce problème a été constaté uniquement lors de la création d’images 16 bits.
Si on crée une image 8 bits les pixels sont tous à 0 dans les bandes noires.
Photogrammétrie et traitement d’image
VIII
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 2 : Comparaison sommaire des logiciels
Photogrammétrie et traitement d’image
IX
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 3 : Fonction filtrage des pixels
Cette fonction agit sur deux images. Elle permet d’éliminer dans chaque canal des deux
images les pixels dont la valeur est inférieure à 16. Elle permet aussi de rendre les deux
images spatialement équivalentes.
Images à 3 canaux (16 bits)
Etape 1 : Séparation des canaux et filtrage des pixels
Images provisoires (float)
Etape 2 : Réunion des canaux filtrés
Images à 3 canaux (16 bits)
Photogrammétrie et traitement d’image
X
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Etape 1 : Séparation des canaux et filtrage des pixels
Exemple du code pour le premier canal de l’image 1 :
EITHER 0 IF ( $n17_PROMPT_USER(1) <= 16 OR $n17_PROMPT_USER(2) <= 16 OR $n17_PROMPT_USER(3)
<= 16 OR $n18_PROMPT_USER(1) <= 16 OR $n18_PROMPT_USER(2) <= 16 OR $n18_PROMPT_USER(3)
<= 16) OR ($n17_PROMPT_USER(1)) OTHERWISE
Etape 2 : Réunion des canaux
Exemple du code pour l’image 1 :
STACKLAYERS ( $n21_memory , $n23_memory , $n25_memory)
Image 1:
Image 1 résultat:
Nom de la fonction sur le DVD-ROM : 16bits_pretraitement.gmd
Photogrammétrie et traitement d’image
XI
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 4 : Fonction seuillage de l’image référence
Images à 3 canaux (16 bits)
Etape 1 : seuillage
Images à 1 canal binaire (1bit)
Etape 1 : Seuillage
Code : EITHER 1 IF ( $n1_PROMPT_USER(1) == 65535) OR 0 OTHERWISE
Image référence:
Image référence seuillée:
Nom de la fonction sur le DVD-ROM : 16bits_image_reference_seuillage.gmd
Photogrammétrie et traitement d’image
XII
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 5 : Fonction création d’une image d’analyse
Image à 1 canal (8 bits)
Image à 1 canal (1 bits)
Etape 1 : Comparaison des images
A
B
C
Images temporaires à 1 canal binaires
Rouge
Vert
Bleu
Etape 2 : Création d’une composition colorée
Image à 3 canaux (1 bits)
Photogrammétrie et traitement d’image
XIII
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Etape 1 : Comparaison des images
Code pour la partie A (erreur de première espèce) :
EITHER 1 IF ( $n1_PROMPT_USER == 0 AND $n4_PROMPT_USER ==1 ) OR 0 OTHERWISE
Code pour la partie B (pixels forêt bien classés) :
EITHER 1 IF ( $n1_PROMPT_USER == 1 AND $n4_PROMPT_USER ==1 ) OR 0 OTHERWISE
Code pour la partie C (Erreur de seconde espèce) :
EITHER 1 IF ( $n1_PROMPT_USER == 1 AND $n4_PROMPT_USER == 0 ) OR 0 OTHERWISE
Etape 2 : Création d’une composition colorée
Code : STACKLAYERS ( $n3_memory , $n10_memory , $n11_memory)
Image classifiée:
Image référence:
Images temporaires:
Image analyse:
Nom de la fonction sur le DVD-ROM : evaluation_de_la_classification.gmd
Photogrammétrie et traitement d’image
XIV
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 6 : Calcul de l’image NDVI
Cette fonction permet de calculer une image NDVI normalisée sur 16 bits à partir d’une
image CIRF 16 bits possédant des bandes noires.
Image 3 canaux(16 bits)
Etape 1-a
Etape 1-b
Images temporaires à 1 canal (float)
Etape 2
Image temporaire à 1 canal (float)
Etape 3
Image à 1 canal (16 bits)
Photogrammétrie et traitement d’image
XV
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Etape 1-a :
$n1_PROMPT_USER(1) - $n1_PROMPT_USER(2)
Etape 1-b:
$n1_PROMPT_USER(1) + $n1_PROMPT_USER(2)
Etape 2:
EITHER -1 IF ( $n7_memory == 0.0 ) OR $n3_memory / $n7_memory OTHERWISE
Remarque: ici le test sert à mettre les pixels autour de l’image qui sont noirs (de valeur 0) à -1. Ainsi, après la
normalisation ils seront à nouveau à 0.
Etape 3:
($n11_memory - GLOBAL MIN ( $n11_memory )) / ( GLOBAL MAX ( $n11_memory ) - GLOBAL MIN (
$n11_memory )) * 65535
Image CIRF:
Images NDVI:
Nom de la fonction sur le DVD-ROM: 16bits_ndvi_normalized.gmd
Photogrammétrie et traitement d’image
XVI
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 7 : Prétraitement images 16 bits et 8 bits
Cette fonction agit sur deux images l’une 16 bits et l’autre 8 bits. Elle permet de rendre
les deux images spatialement équivalentes.
Image à 3 canaux (16 bits)
Image à 3 canaux (8 bits)
Etape 1 : Séparation des canaux et filtrage des pixels
Images provisoires (float)
Etape 2 : Réunion des canaux filtrés
Image à 3 canaux (16 bits)
Photogrammétrie et traitement d’image
Image à 3 canaux (8 bits)
XVII
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Etape 1 : Séparation des canaux et filtrage des pixels
Exemple du code pour le premier canal de l’image 2 :
EITHER 0 IF ( $n17_PROMPT_USER(1) == 0 OR $n17_PROMPT_USER(2) == 0 OR $n17_PROMPT_USER(3) ==
0 OR $n18_PROMPT_USER(1) == 0 OR $n18_PROMPT_USER(2) == 0 OR $n18_PROMPT_USER(3) == 0) OR
($n18_PROMPT_USER(1)) OTHERWISE
Etape 2 : Réunion des canaux
Exemple du code pour l’image 1 :
STACKLAYERS ( $n21_memory , $n23_memory , $n25_memory)
Image 1:
Image 1 résultat:
Image 2:
Image 2 résultat:
Nom de la fonction sur le DVD-ROM : 16bits_8bits_pretraitement.gmd
Photogrammétrie et traitement d’image
XVIII
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 8 : Image NDVI binaire
Image 1 canal (16 bits)
Etape 1
Image 1 canal binaire (1bit)
Etape 1 : Seuillage
Code : EITHER 1 IF ( $n1_PROMPT_USER(1) > 37000) OR 0 OTHERWISE
Image NDVI:
Image NDVI binaire:
Nom de la fonction sur le DVD-ROM : 16bits_ndvi_seuille_binaire.gmd
Photogrammétrie et traitement d’image
XIX
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 9 : Fonction multiplication
Image 1 canal (8 bits)
Image 1 canal binaire (1bit)
Etape 1
Image 1 canal (8 bits)
Etape 1 : Multiplication
Code : $n1_PROMPT_USER * $n2_PROMPT_USER
Nom de la fonction sur le DVD-ROM : multiplication_2_images.gmd
Photogrammétrie et traitement d’image
XX
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 10 : MNH à partir de MNS et MNT
Images 1 canal (float)
Etape 1
Image 1 canal (float)
Etape 1 : Soustraction
Code : $n1_PROMPT_USER - $n2_PROMPT_USER
Nom de la fonction sur le DVD-ROM : mnhfrommnsandmnt.gmd
Photogrammétrie et traitement d’image
XXI
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 11 : Image classifiée et MNH
Image1 canal (8 bits)
Image 1 canal (float)
Etape 1 : filtrage
Image 1 canal (8 bits)
Etape 1 : Filtrage
Code : EITHER 1 IF ( ($n1_PROMPT_USER == 1) AND ($n2_PROMPT_USER > 0.3)) OR 0 OTHERWISE
Nom de la fonction sur le DVD-ROM : image_classifie_et_mnh.gmd
Photogrammétrie et traitement d’image
XXII
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 12 : Image et masque
Image 3 canaaux (16 bits)
Image1 canal (8 bits)
Etape 1 : filtrage
Image 3 canaaux (16 bits)
Etape 1 : Filtrage
Code : EITHER $n1_PROMPT_USER IF ( $n2_PROMPT_USER==1 ) OR 0 OTHERWISE
Nom de la fonction sur le DVD-ROM : image_et_masque.gmd
Photogrammétrie et traitement d’image
XXIII
Julien Fabing
Travail de diplôme 2007
HEIG-VD
Annexe 13 : Somme 5 images
Images 1 canal (8 bits)
Somme
Image 1 canal (8 bits)
Nom de la fonction sur le DVD-ROM : multi_echelle.gmd
Photogrammétrie et traitement d’image
XXIV
Julien Fabing
nbre pixels
nbre pixels
Pixels forêt bien classés
Erreur de première espèce
Erreur de seconde espèce
Pixels non forêt bien classés Total Pixels
Pourcentage
classés forêt classés non forêt nbre pixels
Pourcentage nbre pixels
Pourcentage
nbre pixels
Pourcentage nbre pixels
Pourcentage
bien classés
194626
541237
159766
50.8%
154427
49.2%
34860
8.3%
386810
91.7%
546576
74.3%
196617
539246
168831
53.7%
145362
46.3%
27786
6.6%
393884
93.4%
562715
76.5%
304435
431428
265902
84.6%
48291
15.4%
38533
9.1%
383137
90.9%
649039
88.2%
311962
423901
275086
87.6%
39107
12.4%
36876
8.7%
384794
91.3%
659880
89.7%
Kappa
0.45
0.50
0.76
0.79
Travail de diplôme 2007
XXV
1 Zone entrainement forêt RGB
1 Zone entrainement forêt CIRF
2 Zones entrainement forêt (clair + sombre) RGB
2 Zones entrainement forêt (clairl + sombre) CIRF
nbre
nbre pixels
nbre pixels non
nbre pixel total
pixels noirs
forêt référence forêt référence sans les pixels noirs
1698797
314193
421670
735863
HEIG-VD
Julien Fabing
Annexe 14 : Classifications supervisées 5 m Sargans
Photogrammétrie et traitement d’image
nbre pixels
total image
2434660
Pourcentage de
nbre pixels nbre pixels classés
Pixels forêt bien classés
Erreur de première espèce
Erreur de seconde espèce
Pixels non forêt bien classés Total Pixels
bien classés pixels bien classés
nbre pixels
Pourcentage nbre pixels
Pourcentage
nbre pixels
Pourcentage nbre pixels
Pourcentage
classés forêt
non forêt
553873
181990
311047
99.0%
3146
1.0%
242826
57.6%
178844
42.4%
489891
66.6%
348133
387730
262483
83.5%
51710
16.5%
85650
20.3%
336020
79.7%
598503
81.3%
537937
197926
280594
89.3%
33599
10.7%
257343
61.0%
164327
39.0%
444921
60.5%
297074
438789
271874
86.5%
42319
13.5%
25200
6.0%
396470
94.0%
668344
90.8%
299672
436191
255591
81.3%
58602
18.7%
44081
10.5%
377589
89.5%
633180
86.0%
602519
133344
302538
96.3%
11655
3.7%
299981
71.1%
121689
28.9%
424227
57.7%
271398
464465
255377
81.3%
58816
18.7%
16021
3.8%
405649
96.2%
661026
89.8%
373866
361997
292765
93.2%
21428
6.8%
81101
19.2%
340569
80.8%
633334
86.1%
478784
257079
254563
81.0%
59630
19.0%
224221
53.2%
197449
46.8%
452012
61.4%
342653
393210
290980
92.6%
23213
7.4%
51673
12.3%
369997
87.7%
660977
89.8%
352500
383363
288993
92.0%
25200
8.0%
63507
15.1%
358163
84.9%
647156
87.9%
530954
204909
277859
88.4%
36334
11.6%
253095
60.0%
168575
40.0%
446434
60.7%
294803
441060
270623
86.1%
43570
13.9%
24180
5.7%
397490
94.3%
668113
90.8%
361566
374297
289805
92.2%
24388
7.8%
71761
17.0%
349909
83.0%
639714
86.9%
361313
374550
296472
94.4%
17721
5.6%
64841
15.4%
356829
84.6%
653301
88.8%
334951
400912
287137
91.4%
27056
8.6%
47814
11.3%
373856
88.7%
660993
89.8%
315261
420602
281082
89.5%
33111
10.5%
34179
8.1%
387491
91.9%
668573
90.9%
283080
452783
235018
74.8%
79175
25.2%
48062
11.4%
373608
88.6%
608626
82.7%
270544
465319
254817
81.1%
59376
18.9%
15727
3.7%
405943
96.3%
660760
89.8%
337998
397865
291590
92.8%
22603
7.2%
46408
11.0%
375262
89.0%
666852
90.6%
333289
402574
288178
91.7%
26015
8.3%
45111
10.7%
376559
89.3%
664737
90.3%
361640
374223
288211
91.7%
25982
8.3%
73429
17.4%
348241
82.6%
636452
86.5%
520008
215855
273399
87.0%
40794
13.0%
246609
58.5%
175061
41.5%
448460
60.9%
294622
441241
263343
83.8%
50850
16.2%
31279
7.4%
390391
92.6%
653734
88.8%
329526
406337
279127
88.8%
35066
11.2%
50399
12.0%
371271
88.0%
650398
88.4%
Kappa
0.38
0.62
0.26
0.81
0.71
0.23
0.79
0.72
0.26
0.79
0.76
0.26
0.81
0.74
0.78
0.79
0.81
0.64
0.79
0.81
0.80
0.73
0.26
0.77
0.76
Travail de diplôme 2007
XXVI
2 classes RGB
2 classes CIRF
2 classes NDVI
3 classes RGB
3 classes CIRF
3 classes NDVI
4 classes RGB
4 classes CIRF
4 classes NDVI
5 classes RGB
5 classes CIRF
5 classes NDVI
6 classes RGB
6 classes CIRF
7 classes RGB
7 classes CIRF
8 classes RGB
8 classes CIRF
9 classes RGB
9 classes CIRF
10 classes RGB
10 classes CIRF
10 classes NDVI
20 classes RGB
20 classes CIRF
nbre pixels
nbre pixels
nbre pixels
nbre pixel total
noirs
forêt référence non forêt référence sans les pixels noirs
1698797
314193
421670
735863
HEIG-VD
Julien Fabing
Annexe 15 : Classifications non supervisées 5 m Sargans
Photogrammétrie et traitement d’image
nbre pixels
total image
2434660
nbre pixels
non forêt
10556237
nbre pixel total
sans les pixels noirs
18378547
Pourcentage de
nbre pixels
nbre pixels classés
Pixels forêt bien classés
Erreur de première espèce
Erreur de seconde espèce
Pixels non forêt bien classés Total Pixels
bien classés pixels bien classés
classés forêt
non forêt
nbre pixels
Pourcentage nbre pixels
Pourcentage nbre pixels
Pourcentage nbre pixels
Pourcentage
7478101
10900446
6571956
84.0%
1250354
16.0%
906145
8.6%
9650092
91.4%
16222048
88.3%
6969830
11408717
5765066
73.7%
2057244
26.3%
1204764
11.4%
9351473
88.6%
15116539
82.3%
14801412
3577135
7301149
93.3%
521161
6.7%
7500263
71.1%
3055974
28.9%
10357123
56.4%
8565380
9813167
7094881
90.7%
727429
9.3%
1470499
13.9%
9085738
86.1%
16180619
88.0%
7736104
10642443
6189872
79.1%
1632438
20.9%
1546232
14.6%
9010005
85.4%
15199877
82.7%
12910042
5468505
6362155
81.3%
1460155
18.7%
6547887
62.0%
4008350
38.0%
10370505
56.4%
8215927
10162620
6956594
88.9%
865716
11.1%
1259333
11.9%
9296904
88.1%
16253498
88.4%
7039802
11338745
5905089
75.5%
1917221
24.5%
1134713
10.7%
9421524
89.3%
15326613
83.4%
9419149
8959398
4461702
57.0%
3360608
43.0%
4957447
47.0%
5598790
53.0%
10060492
54.7%
Kappa
0.76
0.63
0.20
0.76
0.65
0.18
0.77
0.66
0.10
5 classes RGB moins bat
8080681
10297866
6874619
87.9%
947691
12.1%
1206062
11.4%
9350175
88.6%
16224794
88.3%
0.76
5 classes RGB ouv_ferm
7990250
10388297
6975528
89.2%
846782
10.8%
1014722
9.6%
9541515
90.4%
16517043
89.9%
0.79
3 classes RGB multi-échelle
7365157
11013390
6737852
86.1%
1084458
13.9%
627305
5.9%
9928932
94.1%
16666784
90.7%
0.81
3 classes 8 bits
5 classes 8 bits
10 classes 8 bits
6932501
6932501
6932501
10901295
9795677
10212694
6571923
7099561
6932501
84.0%
90.8%
88.6%
1250387
722749
889809
16.0%
9.2%
11.4%
905329
1483309
1233352
8.6%
14.1%
11.7%
9650908
9072928
9322885
91.4%
85.9%
88.3%
16222831
16172489
16255386
88.3%
88.0%
88.4%
0.76
0.77
0.78
Travail de diplôme 2007
XXVII
3 classes RGB
3 classes CIRF
3 classes NDVI
5 classes RGB
5 classes CIRF
5 classes NDVI
10 classes RGB
10 classes CIRF
10 classes NDVI
nbre pixels
nbre pixels
noirs
forêt référence
42473053
7822310
HEIG-VD
Julien Fabing
Annexe 16 : Classifications non supervisées 1 m Sargans
Photogrammétrie et traitement d’image
nbre pixels
total image
60851600
5 classes RGB
10 classes RGB
nbre pixels
non forêt
référence
56891
nbre pixel total
sans les pixels noirs
199142
nbre pixels
nbre pixels
Pixels forêt bien classés
Erreur de première espèce
Erreur de seconde espèce
Pixels non forêt bien classés Total Pixels
classés forêt
classés
nbre pixels
Pourcentage nbre pixels
Pourcentage nbre pixels
Pourcentage nbre pixels
Pourcentage bien classés
143592
55550
137128
96.4%
5123
3.6%
6464
11.4%
50427
88.6%
187555
128718
70424
125767
88.4%
16484
11.6%
2951
5.2%
53940
94.8%
179707
Pourcentage de
pixels bien classés
94.2%
90.2%
Kappa
0.86
0.78
XXVIII
Zone urbaine
5 classes RGB
10 classes RGB
nbre pixels
nbre pixels
nbre pixels
nbre pixels
nbre pixel total
total image
noirs
forêt référence non forêt référence sans les pixels noirs
121404
0
24651
96753
121404
Total Pixels
nbre pixels
nbre pixels
Pixels forêt bien classés
Erreur de première espèce
Erreur de seconde espèce
Pixels non forêt bien classés
classés forêt
classés
nbre pixels
Pourcentage nbre pixels
Pourcentage
nbre pixels
Pourcentage
nbre pixels
Pourcentage bien classés
23919
97485
18515
75.1%
6136
24.9%
5404
5.6%
91349
94.4%
109864
32911
88493
21537
87.4%
3114
12.6%
11374
11.8%
85379
88.2%
106916
Pourcentage de
Kappa
pixels bien classés
90.5%
0.70
88.1%
0.67
Travail de diplôme 2007
nbre pixels
nbre pixels
nbre pixels
total image
noirs
forêt référence
251001
51859
142251
HEIG-VD
Julien Fabing
Annexe 17 : Zone forêt / Zone urbaine Sargans
Photogrammétrie et traitement d’image
Zone forêt
XXIX
5 classes RGB image 1031
526028
Nbre pixels forêt
nbre pixels
image 1024
non forêt image 1024
817609
2656363
nbre pixel total
sans les pixels
3473972
Erreur de première espèce
Erreur de seconde espèce
Pixels non forêt classés identiquement Total Pixels Pourcentage total pixels
nbre pixels
nbre pixels classés Pixels forêt classés identiquement
Kappa
classés identiquement
nbre pixels
Pourcentage
nbre pixels
Pourcentage
nbre pixels
Pourcentage nbre pixels
Pourcentage
classés forêt
non forêt
identiques
812725
2661247
615429
75.7%
202180
24.9%
197296
7.4%
2459067
92.6%
3074496
88.5%
0.68
nbre pixels
total image
4000000
10 classes RGB image 1031
nbre pixels
noirs
nbre pixels
Nbre pixels forêt
nbre pixels
noirs
image 1024
non forêt image 1024
526028
1024254
2449718
nbre pixel total
sans les pixels
3473972
Erreur de première espèce
Erreur de seconde espèce
Pixels non forêt classés identiquement Total Pixels Pourcentage total pixels
nbre pixels
nbre pixels classés Pixels forêt classés identiquement
Kappa
nbre pixels
Pourcentage
nbre pixels
Pourcentage
nbre pixels
Pourcentage nbre pixels
Pourcentage
classés forêt
non forêt
identiques
classés identiquement
1006980
2466992
828242
82.3%
178738
17.7%
196012
8.0%
2253706
92.0%
3081948
88.7%
0.73
Travail de diplôme 2007
4000000
HEIG-VD
Julien Fabing
Annexe 18 : Classifications sur deux images différentes
d’un même vol Sargans
Photogrammétrie et traitement d’image
nbre pixels
total image
Travail de diplôme 2007
HEIG-VD
Annexe 19 : 8 bits /16 bits Sargans
nbre pixels image
18378547
3 classes
5 classes
10 classes
nbre pixels classés différemment
pourcentage du total
133455
0.7%
274303
1.5%
673678
3.7%
après regroupement :
3 classes
5 classes
10 classes
nbre pixels classés différemment
pourcentage du total
103633
0.6%
101396
0.6%
109098
0.6%
Photogrammétrie et traitement d’image
XXX
Julien Fabing
10_classes_recode_2_classes_moins_batiments
10_classes_recode_2_classes_moins_batiments_ouverture_fermeture
Pourcentage de
nbre d'amas
nbre pixels nbre pixels classés Pixels forêt bien classés
Erreur de première espèce
Erreur de seconde espèce Pixels non forêt bien classés Total Pixels
Kappa
à corriger
classés forêt
non forêt
nbre pixels Pourcentage nbre pixels
Pourcentage
nbre pixels Pourcentage nbre pixels
Pourcentage bien classés pixels bien classés
419115
564949
267712
93.9%
17500
6.1%
151403
21.7%
547449
78.3%
815161
82.8% 0.63
10650
370425
613639
263120
92.3%
22092
7.7%
107305
15.4%
591547
84.6%
854667
86.9% 0.71
2166
391514
343528
592550
640536
263947
259333
92.5%
90.9%
21265
25879
7.5%
9.1%
127567
84195
18.3%
12.0%
571285
614657
81.7%
88.0%
835232
873990
84.9%
88.8%
0.67
0.74
11711
2191
10_classes_recode_2_classes_moins_batiments_et_mnh
268718
10_classes_recode_2_classes_moins_batiments_et_mnh_ouverture_fermeture 241553
715346
742511
231455
226433
81.2%
79.4%
53757
58779
18.8%
20.6%
37263
15120
5.3%
2.2%
661589
683732
94.7%
97.8%
893044
910165
90.8%
92.5%
0.77
0.81
8530
1969
Travail de diplôme 2007
XXXI
10_classes_recode_2_classes
10_classes_recode_2_classes_ouverture_fermeture
nbre d'objets
total
~380
HEIG-VD
Julien Fabing
Annexe 20 : Test des trois méthodes Sargans
Photogrammétrie et traitement d’image
nbre pixels nbre pixels
nbre pixels
nbre pixels
nbre pixel
total image
noirs
forêt référence non forêt référence
total
1000000
15936
285212
698852
984064
Travail de diplôme 2007
HEIG-VD
Annexe 21 : Planning
Mardi
Planification
18.09.2007 Biblio
Mercredi
19.09.2007
Jeudi
Vendredi
Samedi
Dimanche
Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
Lundi
20.09.2007
21.09.2007
22.09.2007
23.09.2007
24.09.2007
25.09.2007
26.09.2007
27.09.2007
28.09.2007
29.09.2007
30.09.2007
01.10.2007
02.10.2007
03.10.2007
04.10.2007
05.10.2007
06.10.2007
07.10.2007
08.10.2007
09.10.2007
10.10.2007
11.10.2007
12.10.2007
13.10.2007
14.10.2007
15.10.2007
16.10.2007
17.10.2007
18.10.2007
19.10.2007
20.10.2007
21.10.2007
22.10.2007
23.10.2007
24.10.2007
25.10.2007
26.10.2007
27.10.2007
28.10.2007
29.10.2007
30.10.2007
31.10.2007
01.11.2007
02.11.2007
03.11.2007
04.11.2007
05.11.2007
06.11.2007
07.11.2007
08.11.2007
09.11.2007
10.11.2007
11.11.2007
12.11.2007
13.11.2007
14.11.2007
15.11.2007
16.11.2007
17.11.2007
18.11.2007
19.11.2007
20.11.2007
21.11.2007
22.11.2007
23.11.2007
24.11.2007
25.11.2007
26.11.2007
27.11.2007
28.11.2007
29.11.2007
30.11.2007
01.12.2007
02.12.2007
03.12.2007
04.12.2007
05.12.2007
06.12.2007
07.12.2007
08.12.2007
09.12.2007
10.12.2007
11.12.2007
12.12.2007
13.12.2007
14.12.2007
15.12.2007
16.12.2007
17.12.2007
Mardi
15.01.2008
Rapport
tests logiciels Classification
Extraction des données avec Gpro
et Définition des tests à effectuer
Tests de classification et analyse des résultats
Rendu rapport intermédiaire avant 16 h
Préparation présentation
Présentation intermédiaire 9 h
Rapport
Planification
Tests prétraitements et post-traitements
Filtrage des ombres
Filtrage des pixels isolés
"Détection d'erreur"
Attenuation des dévers
SH52
TestJeu de données 6 semaines de différence
MNS-MO, MNH, attenuation des dévers
Temps de reprise des données
Rapport
Photogrammétrie et traitement d’image
Rendu rapport final entre 8 h et 16 h
Présentation
Défense de diplôme 13 h
XXXII
Julien Fabing